Vous êtes sur la page 1sur 279

Aléatoire

IQ UE
HN
Y TEC
Introduction
E PO L à la théorie
L
ÉCO
et au calcul des probabilités

U E
Sylvie Méléard
H NIQ
TEC
P O LY
LE
ÉCO

U E
NIQ
CH
O LYTE
P
LE
ÉCO

ÉDITION
ES
S
•L
D E L'É C O

NIQ E
U

LE
H

P O LY T E C

Ce logo a pour objet d’alerter le lecteur sur la menace que représente pour l’avenir de
l’écrit, tout particulièrement dans le domaine universitaire, le développement massif du
« photocopillage ».
Cette pratique qui s’est généralisée, notamment dans les établissements d’enseignement,
provoque une baisse brutale des achats de livres, au point que la possibilité même pour les
auteurs de créer des œuvres nouvelles et de les faire éditer correctement est aujourd’hui
menacée. Nous rappelons donc que la production et la vente sans autorisation, ainsi que
le recel, sont passibles de poursuites.
Les demandes d’autorisation de photocopier doivent être adressées à l’éditeur ou au Centre
français d’exploitation du droit de copie :
20, rue des Grands-Augustins, 75006 Paris. Tél. : 01 44  07 47 70.

IQ UE
C HN
O LYTE
P
LE
ÉCO

U E
NIQ
TE CH
LY
PO
LE
ÉCO

U E
NIQ
CH
O LYTE
P
LE
ÉCO

© Éditions de l’École Polytechnique - Décembre 2010
91128 Palaiseau Cedex

IQ UE À Margot et Martin
HN
TEC
P O LY
LE
ÉCO

U E
NIQ
TE CH
LY
PO
LE
ÉCO

U E
NIQ
CH
O LYTE
P
LE
ÉCO

IQ UE
C HN
O LYTE
P
LE
ÉCO

U E
NIQ
TE CH
LY
PO
LE
ÉCO

U E
NIQ
CH
O LYTE
P
LE
ÉCO

Table des matières
IQ UE
C HN
O LYTE
P
1 Introduction
LE 7
É CO . . . . . . . . . . . . . . . . . . . . . .
1.1 Remerciements . . . . . . . . . 8
1.2 Avant-Propos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3 Phénomènes aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4 Deux idées majeures et incontournables . . . . . . . . . . . . . . . . . 10
1.4.1 La loi des grands nombres . . . . . . . . . U . E
. . . . . . . . . . . 10
1.4.2 Conditionnement et Indépendance .N. I.Q. . . . . . . . . . . . . 11
1.5 Les variables aléatoires . . . . . . .T.E. C
H
. . . . . . . . . . . . . . . . . . 11
Y
1.5.2 Simulation de L E P O Laléatoires
1.5.1 Loi d’une variable aléatoire
variables
. . . . . . . . . . .
. . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
11
12
. C
1.6 Historique . . É
O
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

2 Espace de probabilité 17
2.1 Le langage des probabilités . . . . . . . . . . . . . . . . . . . . . . . . 17
2.1.1 Expériences et événements aléatoires . . . . . . . . . . . . . . . 17
2.1.2 Probabilité - Premières propriétés . . . . . . . .E. . . . . . . . 21
2.2 Probabilité sur un espace fini - Calcul combinatoire N I Q. U
. . . . . . . . . . 23
2.2.1 Définition . . . . . . . . . . . . . E .C. .H. . . . . . . . . . . . . . 23
2.2.2 Probabilité Uniforme . . O
T
. .L.Y. . . . . . . . . . . . . . . . . . . 24
2.2.3 Modèles d’urnes L . . P. . . . . . . . . . . . . . . . .
. E . . . . . . 25
2.3 Définition généraleÉdes
O
C Probabilités . . . . . . . . . . . . . . . . . . . . 30
2.3.1 Pourquoi la définition précédente ne suffit-elle pas ? . . . . . . . 30
2.3.2 Les ensembles dénombrables . . . . . . . . . . . . . . . . . . . . 30
2.3.3 Tribu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.3.4 Définition d’une probabilité . . . . . . . . . . . . . . . . . . . . 33
2.3.5 Probabilités sur un espace dénombrable . . . . . . . . . . . . . 36
2.4 Loi d’une variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . 37
2.5 Conditionnement et indépendance . . . . . . . . . . . . . . . . . . . . 39
2.5.1 Probabilités conditionnelles . . . . . . . . . . . . . . . . . . . . 39
2.5.2 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.5.3 Le Lemme de Borel-Cantelli . . . . . . . . . . . . . . . . . . . . 46
2.6 Exercices sur le chapitre 2 . . . . . . . . . . . . . . . . . . . . . . . . . 47

3

92 4. . . . . . . . . . . . . . . . . . . . 83 4.Moments d’une variable aléatoire . .5. . . . . .2.. . . . . . . . . . . . . . . . . . . . 1] et générateurs N aléatoires . . . . . . I. . . . .2 Variable L E P Obinomiale . . . 98 4. 99 4. . . . . . . . . .1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 4. . . . .. . . . . . .. . . . . . . . . . 103 . .1 Variance et Covariance . . . . . . 98 4. . . . . . . . O . . . . . Espérance des variables 92 4. . . .2 Espérance conditionnelle . .2. . E 91 L 4. . .5. . .6 Exemples fondamentaux de variables à densité . . . . . . .4 Simulation d’une variable aléatoire inversion de la fonction .6. 3. . . . . . . . . . . .1 Lois conditionnelles . . . . . . . .3. . . .. . . . . . . . 100 4. . . . . . . . . . . . . . 67 3. . . . . . . . 71 LY indépendantes . P. . . .1 Prérequis : quelques résultats utiles sur les séries . . . . . . 61 62 É C O de succès et variable aléatoire géométrique . . . .3 Probabilité .. . .2 Variables aléatoires de loi à densité . U E . . . . . . .5. de répartition . . . . . . . . . . . . . .2. . . . . . . . . 74 3. . .2 Approximation linéaire . . . . .6. . . .2 Les lois de variables aléatoires réelles . . . . . . . . . . . . .3 É C Oaléatoires réelles . 54 3. . .6. . . . 58 U H N I Q à valeurs entières . . . . . . ..1 Variable aléatoire uniforme sur [a. .4 TABLE DES MATIÈRES 3 Espace fini ou dénombrable 51 3. . . .. . . 59 L Y TEC . . . . . . . . . . . . . . . . . . . . . . .5 Calcul de l’espérance pour une variable aléatoire à densité . . .2. . . . . . . . . . . . . . . .3 Espérance des variables aléatoires discrètes . . 3.1 Variable aléatoire aléatoire de Bernoulli . . . . . . . . . . . .. . . . . . . . 67 3.. . .4 Un résultat fondamental . . . . . . . .2 Propriétés de l’espérance des variables aléatoires discrètes . . . . 69 N 3. . . . . . . . .1 Un résultat général fondamental .Q. . . . . . . . . . . . 3. . . . . . . . C. . . .3 Variable aléatoire de loi gamma . .. . . . . 53 3. . .1 Fonction de répartition . . . . . .4 Somme de variables aléatoires . . . . 65 3. 3.5 Variables aléatoires discrètes usuelles . . . . . . . . . .1 Les variables aléatoires réelles . 56 3.3. . . . . 57 3.. 81 4.3 Variance et écart-type . . .6.5. 51 3. . . . . 90 Y T Epar OL 4. . . . . .. . .3 Variable aléatoire uniforme sur [0. . . . . . . .. . . . . . .6 Lois conditionnelles et indépendance . .7 Exercices sur le chapitreE3 P. . . . . . . . . . .5.4. . . . . . .H. . . .6. . . . . . . . . . . . . . .3.6. b] . . .3. . . . . . . . . . . . .3 Variables aléatoires indépendantes T E C H. . . . . . . . . .6. . . . . . . .. . . . . . . . . . . . . . . . . .3. . 61 3. . . . 83 4. . . .4. .4 Fonction génératrice d’une variable aléatoire . . . 100 4. . . . . . . . .E. . . . . . . . . . . . . 95 4. . 97 4. . . . . . . . . .2 Calculs d’espérances dans le cas avec densité . . . . . . .4 Variables aléatoires de carré intégrable . . . . .5. . . . . . . . .4 Variable aléatoire de Poisson . . . . . . . . . . . . . . 101 4. 3. 54 3. . . . .2 Variable aléatoire exponentielle . . . . . . . . . . . . . . . . .. . . . . . . . . .1 Définition . . . . 87 E I Q U de nombres 4. . . .2 Variables aléatoires discrètes . . . . . 64 3. . . . . . . 75 L É CO 4 Variables aléatoires réelles et Vecteurs aléatoires 81 4.

. .4 Exercices sur le chapitre 5 . . . . . . . . . . . U . I. 176 7 Modèles dynamiques aléatoires 181 7. . E . . . . . . . . .5 Fonction caractéristique et moments . . . . . . 143 5. . . . . . . . .8 Vecteurs aléatoires . .2 Exemples . . .7. . . . . . . . . .2 Précision dans la méthode de Monte-Carlo . . . . . . . . .12 Exercices sur le chapitre 4 . . . . . . P. . . Q . . . . . . . . . . . . .1.C H . . . . . . . . . . . . . . . . . . . . . . . . . . . .2 Processus de branchement . . . 157 6. . . . . . . . . . . . . . . . . .1 Marche aléatoire .8. . . . . . . . . . . . . . . . .11. . . . .2 La loi des grands . . . . . . . . . . . . indépendants . . . . . . . . . . . . . . . . . . 159 ÉCO 6. . . .4 Somme de vecteurs L aléatoires . . .4 Le théorème de la limite centrale . .2 Inégalité de Cauchy-Schwarz . . . . T. . .2 Suite de variables O aléatoires . . .2 Vecteurs gaussiens . . . 110 4. . . . . . . . . . . .3 Densités marginales et conditionnelles . . . .3 Inégalité de Jensen . . . . . .2 Méthode du rejet .L. . . . . . . . . 160 6. . . . . . . .1 La fonction caractéristique . . . 153 6. . . 129 4. . . . L . . . .4 Variables aléatoires normales (ou variables gaussiennes) . . . . E . .2 Moments d’un vecteur aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . .10. . . . . . . . . . . . . . . . . .6 Exercices sur le chapitre 6 . . . . . . . 138 É Cnombres 5. .9. . . . . . . . . . . . . . . . . . . 104 4. . . .1. . 119 4. . . . . . .7. . . . . . .10.9. . . . . . . . . 4. . .11 Simulation de suites de variables aléatoires indépendantes .7. . . . . . . .1 Inversion de la fonction de répartition . . .3 Méthode de Monte-Carlo . . . . . . . . . . .5 Intervalles de confiance . . . . . . . . . . . . . . . .2 Recherche de densité . . . . .8. . . . . . .1 UnÉthéorème . .Q. . . . . . . . . U . 131 L Y TEC 5 Convergences et loi des grands E P O nombres 137 O L 5. . . . . . . . . . . . . . . . . 123 C O d’identification . . . 182 7. . . . . . . .7 Des inégalités fameuses . .N. . . . . . . . . 172 6. . 109 4. . . . . . . . . . . . . . . 175 6. . . . . . . . 111 4. . . . . . . . . .1 Inégalité de Bienaymé-Chebyshev . . . . . . . . . . 123 4. 115 U 4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .1. .1 Définition et premières propriétés . . . . . . . . . . . . . . .11. . .5. . 119 H L Y T E Cindépendantes 4. . . . . . 147 5. . . . . . . . . . . . . . . . . .9 Variables aléatoires indépendantes . . . . 153 6. . . . . . . . . . . . . . 155 Y 6. . . . . . . 128 4. .N. . .8. 123 4. . E . . . . . . . . . . . . . 148 6 Fonctions caractéristiques et convergence en loi 153 6. . . . . . . . . . . . . . .6. . . . . . . . . . . . . . . . 169 6. . . 164 6. . . .1 Sondages .E. . . 113 4. . . .TABLE DES MATIÈRES 5 4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172 6. . . .1. . . .5. .1 Vecteurs aléatoires . . .1. . . . 111 4. . . . . . . . . .10 Calculs de lois . . .1 Indépendance de deux variables aléatoires . 109 4. . . . 128 4. . . . . I. . . . . . . . . . . . . 120 4. . . . . . . . . .1 Convergences de variables aléatoires . . . . . . . . . . . 185 . . . . . .3 Propriété fondamentale O E P . . . . . . . . 114 4. . . . . . . . . . . . . . . 160 6. . . . H I Q . . . . . . . . . . . . .E. . . . . .3 Convergence en loi .N . . . . . . . . . .

. . . 186 7. . . . . . I. . . .2 Stabilité : étude analytique . . . . . . . . . . . . . . . .3. .2.4. . . . .E. . . . . . . . . . . . . . . .2 Corrigés des du chapitre 8. . . . . . . . 225 8. . . . . 194 7. . . . . . 232 N IQ 9 Textes et corrigés d’examens YT ECH 237 P O L Bibliographie LE 269 Index ÉCO 271 IQ UE C HN O LYTE P LE ÉCO . . . . . . .2 Stabilité . . . . . . . . . . . . 196 7. . .3 Percolation sur un arbre . .3. . . . . . . . 200 7. .1 Somme aléatoire de variables aléatoires indépendantes . . . . . .Q. . . 204 8 Corrections des exercices LY T ECH 209 O chapitre Pdu O L E 8. . . . . . . .5 Exercices sur le chapitre 7 . . . . 193 7. . . . . . . 200 7. . . U. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .N. . . . . . . .2. . . . . . . . . . . . . . . . . . 195 7. . . . 4. . .1 Corrigés des exercices 2. . . . . 188 7.4 Corrigés des exercices du chapitre 5. . . . . 209 É Cexercices 8. . . . . . . . . . . . . 228 8. . . .2. . . . . . . . . . . . . . . . . 203 7. . . . . . . . . . . . . . . . . . . . . . . . . . .4 Suites récurrentes aléatoires discrètes . 214 219 8. . . . . . . . .4. . . . .1 Un modèle simple en temps discret . . . . .5 Corrigés des exercices du chapitre 6. . . E . . . .2 Processus de branchement . . .1 Probabilités de transition . . . . . . .U.3 Files d’attente . . .3 Corrigés des exercices du chapitre 3. . . . . . .6 TABLE DES MATIÈRES 7. . . .6 Corrigés des exercices du chapitre 7. . . . . . . . . . . . . . .

de la climatologie. dépassant ainsi largement le cadre restreint des jeux de dés et tirages de cartes. de l’écolo- gie (variabilité des comportements individuels ou variations environnementales). Les amnésiques n’ont rien vécu d’inoubliable. IQ UE C HN O LYTE P LE CO Il peut paraître irréaliste etÉprétentieux de vouloir. quanti- fier le hasard.O L P O LE C si en ouvrant Éun dictionnaire au hasard. ce serait un miracle. de par sa nature même. C’est pourtant ce qui a conduit à la notion de Probabilité. de l’économie. alors que si on tombait sur le mot miracle. Le Tellier. H. dont la puissance permet- tra de modéliser d’innombrables situations où le hasard intervient. on tombait sur le mot hasard. 7 . physique des particules). La modélisation pro- babiliste est fondamentale dans tous les domaines d’applications. l’assurance. Nous allons dans ce livre introduire ce concept mathématique. ou de la sociologie. la finance (marchés boursiers). qu’ils soient issus des sciences dures ou des sciences humaines. de la biologie (mutations du génôme). de la médecine (imagerie médicale).Chapitre 1 IQ UE C HN O LYTE Introduction CO LE P É U E NIQ A quoi tu penses ? Y T ECH Je pense que. du traitement du signal et de la parole. ce serait un hasard. de la physique (physique quantique. de l’informatique et des réseaux de télécommunications.

François Roueff. Jean-Michel Marin. lyan. l’imagerie médicale. E QU NetImême le concept de pro- Dans la vie quotidienne. Denis Talay. AldjiaQMazari I N E C H Vincent Bansaye. Carl Graham. la théorie du signal. elles s’appuient . et par extension le mode d’apparition de ce type d’événement. et en particulier en finance. Arnak Dala- L É C O Marc Hoffmann. déve- loppé tout d’abord à l’Université. grâce contrat É C de survie à 80 ans. L Thierry Bodineau. Christophe Giraud. Olivier Rioul. E P OJean-René Chazottes. Stefano Olla. probabilité de gagner au loto P ou celle dans la bonne file au super- marché. HN C LY TE PO LE 1. Benjamin Jourdain. chacun est familier avec le mot C H O L Y T Ed’être babilité : probabilité qu’il pleuve la semaine suivante. Caroline Hillairet. les médecins cherchent à connaître les probabilités de succès de différents protocoles de soin. puis dans son format actuel à l’Ecole Polytech- nique. Jean-François Delmas. probabilité d’avoir une fille aux yeux bleus. Randal Douc. l’optimisation et le contrôle des systèmes. Dans de nombreux domaines. Il est le fruit du travail pédagogique de nombreuses années.8 Chapitre 1 – Introduction 1. figures et tous les enseignants de petites classes pour leur formidable enthousiasme et Y T leurs encouragements : Stéphanie Allassonnière. A ce titre. aussi variés que le calcul de structures. Michel Delasnerie et Florent Benaych-Georges pour leur aide précieuse dans le développement des simulations. Arnaud Guillin. L’auteur remercie ses prédécesseurs Francis Comets et Michel Benaïm pour certaines de leurs idées. Nicolas Chopin. Les assurances fixent le O L E d’assurance-vie d’un individu de 20 ans. I Q U E également tous ceux Symbole d’une résurrection hautement aléatoire ce livre remercie qui l’ont accompagnée. le dé. Un exemple récent et spectaculaire est celui de l’utilisation des probabilités en économie.1 Remerciements Ce livre est issu d’un cours donné aux cinq cents élèves de première année de l’Ecole Polytechnique. puis plus généralement un événement non prévisible. Julien Berestycki. les compagnies pharmaceutiques doivent estimer les probabilités d’apparitions d’effets secondaires pour leurs médicaments. à une estimation de sa probabilité les probabilités interviennent : les entreprises cherchent à calculer le besoin probable de leurs produits dans le futur.2 ÉCO Avant-Propos Le mot Hasard est un mot d’origine arabe : az-zahr. Les probabilités sont en lien étroit avec la vie quotidienne. Nous pouvons citer également d’autres domaines d’appli- cations extrêmement importants et en pleine expansion. Il est apparu en français pour signifier tout d’abord un jeu de dés. Olivier Cappé. Amandine Veber et Carl Graham U E pour la mise en page des pour leur relecture attentive de ce manuscrit. la génomique et la théorie de l’évolution.

Nous I Q U E quecompréhension. ce qui en constitue une des difficultés principales. Définition 1. mais c’est aussi ce qui en fait un domaine mathéma- tique fascinant et palpitant.1. où le E Ce cadre abstrait a été QU hasard intervient. P O LY LE É C O est l’analyse mathématique de phénomènes dans L’objet de la théorie des probabilités lesquels le hasard intervient. reproduit maintes fois dans des conditions identiques. Ces phénomènes sont appelés des phénomènes aléa- toires. que l’on appelle des simulations numé- riques.3 PO Phénomènes aléatoires E L ÉCO Le but de ce cours est d’introduire les notions de base de la théorie des probabilités. U E IQ C HN LY TE 1.3. Sa définition préalablement le développement P Otelles E de théories d’analyse importantes L le calcul intégral et la théorie de la mesure. Nous pouvons donner des exemples variés de tels phénomènes : • Jeu de Pile ou Face • Jeu de lancé de dés . un cadre très général d’étude estI nécessaire.1 Un phénomène est dit aléatoire si. C’est ce grand écart CO É entre l’apparente simplicité de certains problèmes probabilistes concrets. qui peut rendre le monde de l’aléatoire difficile ou inquiétant. Pour pouvoir modéliser les innombrables situations. N Hen 1933 (donc très récemment). Ces simulations sont utilisées.3 – Phénomènes aléatoires 9 sur un passage du concret à l’abstrait : la modélisation mathématique. il se déroule chaque fois différemment de telle sorte que le résultat de l’expérience change d’une fois sur l’autre de manière imprévisible. soit à des fins descriptives. et surtout de permettre d’acquérir le raisonnement probabiliste. la première difficulté face à un problème concret va être de transformer cette réalité phy- sique en un modèle mathématique abstrait qu’il est possible d’étudier et sur lequel des calculs peuvent être menés. Cette théorie des probabilités ne peut se construire axiomatiquement qu’en utilisant la théorie de la mesure et de l’intégration. obtenues à partir du modèle mathématique. de natures très différentes. n’en donnerons dans ce texte que les éléments nécessaires à sa bonne H N sans exiger de prérequis dans ce domaine. soit à des fins numériques. sous le EaCnécessité défini rigoureusement par Andrei Kolmogorov L Y T nom de modèle probabiliste. En effet. Il est alors possible de fabriquer des expérimentations fictives du problème concret sur ordinateur. (Mais nous remarquerons la théorie des TE C probabilités constitue un très bel exemple d’application de la théorie de l’intégration). et l’abstraction que nécessite leur résolution.

Néanmoins. Ces deux notions formeront l’ossature de ce cours et méritent d’être assimilées en profondeur. il aléatoires. est souvent liée à la méconnaissance de para- mètres intervenant dans une expérience.. et certaines mesures ne peuvent être connues qu’aléatoirement dans un ensemble de résultats possibles. influant sur le résultat de l’expérience. la différence entre les résultats. Le hasard est l’illustration de la méconnaissance des conditions initiales. ou d’aléatoire. jours possible et il est souvent Dans d’autres domaines. 1. Hremplacer le phénomène réel par est possible de négliger les éléments aléatoiresEetCde un schéma simplifié. • Mutations dans Ces exemples présentent comme point commun des variations liées à la présence de facteurs extérieurs. aux vibrations du plancher.. tels la physique quantique. E N IQU 1.. et que l’on ne sait pas contrôler.. nous serons capables de donner des renseignements sur ce type de . ou à la trop grande multitude de ceux-ci. peut être liée à l’impulsion initiale communiquée au dé. si l’on réitère l’expérience. POL L E actif financier au cours du temps • Evolution du prix d’un O É Cle génôme. car la pièce ou le dé ont des trajectoires parfaitement définies par la mécanique classique.10 Chapitre 1 – Introduction Dans ces deux exemples. De nombreux effets physiques fonctionnent ainsi. bien que ces comportements aléatoires soient a priori sujets à des varia- tions imprévisibles.1 La loi des grands nombres La notion de hasard.4.4 Deux idées majeures et incontournables Y T ECH E POL la L Deux idées majeures illustrent O théorie des probabilités et son extrême richesse : ÉC la loi des grands nombres et le conditionnement (lié à la notion d’indépendance). à la rugosité de la table. • Durée de vie d’une ampoule électrique • Temps de passage d’un bus • Nombre de voitures passant une borne de péage E I QU H Ndeux pas en arrière. etEchaque phénomène dé- terministe est inévitablement accompagné d’écarts N I Q U Dans certains cas. en sélectionnant O Y T L ce faire les paramètres les plus importants E P pour (comme par exemple en mécanique L classique). l’aléatoire fait intrinsèquement partie de la théorie. Mais cette approximation n’est pas tou- É C O fondamental de pouvoir quantifier les écarts aléatoires. • Promenade d’un ivrogne : un pas en avant. C Y T Edans un jeu de fléchettes • Position d’un impact sur une cible.

L EP É O l’utilisation d’un modèle mathématique.80m que si le groupe est composé d’hommes de moins de 1. les nouvelles chances de réalisation pourront être E Ucalculées.1. et quelque soit l’endroit où se déroule le jeu. Il va être ainsi pos- I Qmême sible de prévoir la fréquence d’apparition C deH N chaque résultat. Quand l’information donnéeTaEpriori C H sur un phénomène aléatoire des par le mot P n’a aucune influence sur la réalisation d’un LY phénomène.4. Il est fondamental de remarquer que si l’information de réalisation changent. les probabilitésÉ CO certains résultats de l’expérience.5 Les variables aléatoires 1. l’observation d’un grand nombre de répétitions d’un même phénomène aléa- toire permet d’y déceler généralement des lois régissant les résultats. Par exemple. pour toute pièce non truquée d’un jeu de Pile ou Face. L’idée majeure est que ces informations seront données par la répétition de l’expérience.2 Conditionnement et Indépendance U E NIQ La construction d’un modèle probabiliste Y CH T E sur l’information connue a priori sur repose L P O de quantifier les probabilités de réalisation de l’expérience aléatoire. La richesse du modèle probabiliste que nous allons construire réside dans le fait que si l’information change par rapport au modèle initial.5 – Les variables aléatoires 11 phénomènes.5. la chance de choisir au hasard un homme de plus de 100 kilos parmi 1000 hommes de la population française est plus grande si le groupe est composé d’hommes de plus de 1. et qui légitime 1. 1000 lancés de la pièce donneront environ 50% de piles et 50% de faces.1 Loi d’une variable aléatoire Nous allons dans ce livre étudier des fonctions qui dépendent du résultat de l’ex- périence aléatoire sous-jacente. stables. Ce raison- N I QProbabilités nement lié à l’information a priori se résume en théorie conditionnement. C’est cette stabilitéCconfirmée par l’expérience qui s’appelle Loi des grands nombres. la valeur moyenne de Y T Ecette O L ces résultats et les oscillations autour de valeur moyenne. et quel que soit l’échantillon pris dans ce groupe. En effet. Par exemple. par exemple deux tours Oautre É C O L E ces phénomènes aléatoires sont dits indépen- successifs de roulette dans un casino. montre qu’il y aura toujours une courbe des répartitions de U E type. et simplifiera de nombreux calculs. Elles sont appelées variables aléatoires. 1. Ce modèle permet L E change. Cette hypothèse d’indépendance sera fondamentale dans toute la théorie. car leurs . De même. tout à fait dé- terminées. dants. l’étude de la répartition des tailles d’un groupe d’individus.65m.

L E remercions en cela la participation ÉCO La méthode de simulation probabiliste la plus célèbre est la méthode de Monte-Carlo. ce qui explique que la méthode n’a LpuYse développer de manière significative que depuis l’introduction massive L EP d’ordinateurs performants.polytechnique. . ÉCO L’outil de base est un générateur de nombres au hasard qui simule une variable aléatoire de loi uniforme. par exemple.cmapx. E C HN gner la lecture de cet ouvrage et en illustrer la compréhension. de calculer des quantités numériques et de vérifier certains résultats théoriques. Nous verrons comment.2 HN Simulation de variables aléatoires C O LYTE P E expérimentation fictive sur machine d’un phénomène La simulation consiste en une É Cde modélisé.random en Java.html. I Q U E peuvent accompa- Des simulations. pour obtenir une TE C précision acceptable. • les fonctions rand et grand sous Scilab. du nom du quartier où se trouve le casino de Monaco. IQ UE 1. nous allons nous intéresser à la chance de réalisation de l’ensemble des antécédents qui permettent à la fonction d’être égale à une de ces valeurs ou d’appartenir à un ensemble de ces valeurs. Elle permet OL visualiser une expérience aléatoire.fr/˜benaych/aleatoire_index. nous verrons qu’il faut accomplir une grande quantité de simu- O lations. Nous http ://www. l’application répétée de la fonction rand fournit une suite de nombres indépendants les uns des autres et uniformément répartis sur [0. La plupart des langages de programmation et des logiciels mathématiques en possèdent un : • la méthode Math. Ainsi. à partir de ce générateur. Cette notion de loi d’une variable aléatoire est à la base du raisonnement probabiliste moderne.5. 1]. Ce est fondé sur la loi des grands nombres qui en assure la convergence. Plutôt que de chercher les antécédents de chaque valeur possible de la fonction. C’est cela que nous appellerons la loi de la variable aléatoire. nous pouvons simuler de nombreux types de loi. Elles se trouvent à YT l’adresse : O L Pde leur auteur Florent Benaych-Georges. Elle consiste à effectuer certains calculs (calculs d’intégrales notamment) par de nombreuses simulations numériques de I Q U E procédé réalisations indépendantes de variables aléatoires de loi donnée.12 Chapitre 1 – Introduction valeurs varient en fonction du hasard. proposées dans le cours de l’École polytechnique. H N Mais.

motivé ÉC en particulier par l’engouement frénétique pour les jeux de hasard à cette époque. Le calculO L E probabiliste se développe au cours du 17ème siècle. Poisson (1781-1840) (Recherches sur la probabilité des jugements en matières criminelles et matière civile). Mais les premières N I Q publiées sur les chances de références H son livre De Ludo Alea. que notre science . comme un calcul combinatoire. en supposant au préalablePque L O les deux hypothèses d’existence ou non de Dieu ont la même probabilité. mais faute d’outils mathématiques puissants. et son travail reste T E CH jusqu’à la fin du 17ème siècle O L Y l’exposé le plus profond de calcul des Probabilités. Bayes (1671-1746) introduit la notion de probabilité conditionnelle (probabilité a priori). Des calculs E Cdans gagner au jeu datent de Cardan (1501-1576) Y T L les oeuvres de Kepler (1571-1630) et de Galilée de probabilité apparaissent aussi P Odans (1564-1642). Celui-ci donne une application ma- gistrale du calcul différentiel et intégral à la théorie des probabilités dans son très important Traité analytique des probabilités (en 1812). Dès 1657. résultat fondamental qu’il dit L É C O et de Hollande. l’appliquent aux controverses juridiques.6 Historique La notion de modèle abstrait commun à des expériences variées a mis beaucoup de temps à émerger. Huyghens (1629-1695) rédige un mémoireQamplifiant I UE sensiblement les N résultats de Pascal et Fermat. E O LLeibnitz (1646-1716). Laplace formule le postulat du déterminisme universel. Il y a très peu d’écrits anciens concernant le calcul des probabilités. à partir de paradoxes issus de ces jeux (les paradoxes du Chevalier de Méré que l’on verra au Chapitre 2). De Moivre (1667-1754) et Euler (1707-1803) développent les idées de Pascal et Fer- mat. il faut pour développer plus avant la théorie. De Witt (1625-1672)). Le sujet commence réellement à être rigoureusement développé par Pascal (1623-1662) et Fermat (1601-1665) vers 1654. Cette intelligence est un idéal.1. un horizon. En effet. Hacking). une autre impulsion au calcul des probabilités vient d’Angleterre (Halley (1656-1742). attendre Laplace (1749-1827). Pascal la H Q U réalité La théorie des probabilités se construit dans la modélisation d’une N Iutilisable croit qui n’est pas en théologie. comme en témoigne l’intérêt récurrent des philosophes pour leurs fondements. il a fallu.6 – Historique 13 1. Bernoulli (1654-1705) établit la loi des grands nombres sous sa forme E P la plus simple. motivée par des problèmes d’assurance avoir médité vingt ans. Les probabi- lités sont un outil privilégié de modélisation des comportements humains. attendre une certaine maturité de la pensée. Au 4ème siècle. l’évaluation des populations (par exemple : tables de mortalité et rentes viagères) devient une discipline essentielle à la gouvernance moderne des états. et plus tard Laplace (1749- É C 1827). Le hasard étant par nature pour nos ancêtres une représentation du divin. Vers la fin du 17ème siècle. pour définir la notion de probabilité. E forcément (pas souvent) de nature physique. Le célèbre Pari de Pascal montre que croire en DieuTest Y ECune solution statistiquement plus avantageuse. l’existence d’une science des jeux de dés apparaît dans le Mahabharata (célèbre ouvrage indien). de même que ses rapports U E avec une évaluation de étroits type sondage (cf.

En fait. heurtée de toutes parts par des molécules d’eau . s’est avéré être un outil fondamental de modélisation probabiliste dès lors que l’on s’intéresse à un phénomène aléatoire évoluant continûment au cours du temps. Boltzmann (1844-1906)) ap- portent un nouveau point de vue qui dépasse les idées rationalistes de Laplace et per- met d’envisager que le hasard est une réalité objective indépendante de nos connais- sances. conformément aux idées du philosophe Cournot (1801-1877) qui le premier U E eux. Le mot "statistique" vient du mot "état". La période moderne. L’expression mathématique donnée ainsi aux concepts confère à ceux-ci une clarté et une maniabilité beaucoup plus grandes. Les avancées au 19ème É Cstatistique siècle de la physique (Maxwell (1831-1879). un outil puissant pour les organismes de décisions. Dans les pays anglo-saxons se développe également l’outil sta- tistique. mais aussi de démographie.14 Chapitre 1 – Introduction ne nous permet pas d’atteindre. on ne peut les certitude d’Heisenberg montrera ultérieurementC(1927) avec une infinie précision la position et YlaTvitesse POL connaître qu’à l’aide d’une loi de probabilité. Il met en avant le rôle de la loi normale et démontre une version du théorème de la limite centrale. commence à se dégager. et cette science a été. Dès 1875. Laplace permet à la discipline de dépasser défi- nitivement sa première phase combinatoire. Elle se développe en utilisant le support d’un modèle probabiliste. Dans les Fondements de la Théorie des Probabilités que Kolmogorov (1903-1987) publie en 1933 apparaît l’axiomatique rigoureuse. Ce processus aléatoire. Le principe d’in- affirme que le hasard et le déterminisme sont compatiblesQentre I N l’impossibilité de connaître E Hd’une particule . ce mou- vement paraît totalement désordonné. depuis cette époque. É C OLE Sous l’incitation de problèmes de physique statistique. la notion fondamentale de fonc- tion aléatoire. en particulier sur les travaux de Borel (1871- O L 1956) et de Lebesgue (1875-1941) sur la théorie de la mesure. Gauss (1777-1855) développe intensément la théorie. Les probabilités entrent à cette époque dans une nouvelle phase de dévelop- pement. vers la fin du 19ème siècle. débute vers 1930. mettant N I Q dans toute sa géné- en évidence un exemple de processus aléatoire qui seraHintroduit ralité par Markov (1856-1922). E U H NIQ Le développement des probabilités grâce C méthodes d’analyse occupe le 19ème T Eaux L Y E P Ofondé siècle et le début du 20ème siècle. Le calcul des probabilités est imaginé comme un outil permettant de pallier cette faiblesse. fondée sur la théorie de la mesure et de l’intégrale de Lebesgue et qui sera universellement adoptée ensuite. Galton (1822-1911) et Watson (1827-1903) étudient l’évolution du nombre d’individus d’une population au cours de ses générations E Usuccessives. évoluant de manière apparemment totalement erra- tique. Einstein (1879-1955) LY T E Cvers 1905 s’intéresse à la notion de mouvement Brownien. destinée à rendre compte d’un phénomène aléatoire qui évolue au cours du temps. caractérisée par l’étude systématique des processus aléatoires. avec l’étude des données et l’analyse prédictive à partir de ces données. Bachelier (1870-1946) avait lui aussi introduit le mouvement brownien en 1900 pour modéliser la dynamique d’un cours boursier. Brown avait déjà E P O observé le mouvement d’une particule de L ÉCO pollen sur la surface de l’eau. et cette axiomatique s’est révélée indispen- .

souligné la grande effervescence T O LY des probabilités et de leurs applications. de nombreux prix et récompenses E C HN critiques de certaines transitions de phase (par exemple. qui peuvent être validés par les données suivant la théorie statistique. appelé calcul stochastique. E PO L De nos É O jours. par la biologie et la médecine. alimentées en particulier de ma- nière essentielle par la physique. Ce plienvoya ses trouvailles sous forme d’un « pli cacheté »à l’AcadémieE C H des a été découvert et L ouvert il y a seulement quelques annéesY T et a suscité une grande émotion.6 – Historique 15 sable dans l’étude de tous les modèles dynamiques. “Communiqué de Presse : Les travaux de Wendelin Werner sont à l’interaction de la physique et des mathématiques. P O LE Les probabilités se É C développent de plus en plus. Mentionnons ici le rôle essentiel joué par les écoles russes et japonaises et notamment par Itô (prix Gauss 2006). la finance. Une médaille Fields a été décernée en août 2006 à Werner (Université Paris 11. le développement des réseaux de télécommunica- tions.1. l’EcoleCfrançaise de Probabilités est très active. ont la liquide/gaz)". et fournissent également des possibilités d’expérimenta- tions fictives dans de multiples domaines d’applications. et plus récemment. Ils introduisent des idées et des concepts nouveaux combinant E Utransition la théorie des probabilités et l’analyse complexe. découverts UE par le mathématicien français Doeblin pendant la deuxième guerre mondiale. pour certaines familles de processus stochastiques. Après le travail fondamental de Kolmogorov. en partie et de manière totalement indépendante. Celui-ci sentant sa fin proche (il est mort en 1940 dans les I QArdennes) NSciences. qui définit une notion d’intégrale par rapport au mouvement brownien et. IQ UE N YT ECH P O L LE ÉCO . ainsi que sur les fonctions caractéristiques et les théorèmes limites. donne le ton pour les probabilités modernes par son travail sur les processus stochastiques. Lévy (1886-1971). conduit à la création d’un calcul intégral. Elles permettent de construire des modèles mathématiques. grâce à elle. Ces résultats avaient été. pour comprendre les phénomènes I Q Depuis 2006. ENS).

IQ UE C HN O LYTE P LE ÉCO U E NIQ TE CH LY PO LE ÉCO IQ UE C HN O LYTE P LE ÉCO .

ω ∈ Ω.Calcul des Probabilités. sera noté Ω. LY TE PO L E Poincaré (1854-1912) .Chapitre 2 IQ UE C HN O LYTE Espace de CO L Eprobabilité P É On ne peut guère donner une définition satisfaisanteQde I UlaE probabilité. et dont on ne peut prévoir le résultat par avance.1. tels Pile ou Face.1 NIQ Expériences et événements aléatoires CH O LYTE a) Expérience Aléatoire P LE ÉCO Définition 2. Ainsi.1 Nous appelons expérience aléatoire une expérience E qui. Un résultat possible de l’expérience est noté classiquement ω. reproduite dans des conditions identiques. appelé espace d’états (associé à l’expérience). loterie. fournissent des exemples d’expériences aléatoires pour lesquels Ω est fini. Les jeux de hasard.1. L’espace de tous les résultats possibles. 17 .1 Le langage des probabilités U E 2. La défini- HN C tion complète de la probabilité est donc une sorte de pétition de principe. peut conduire à plusieurs résultats possibles. mais Ω peut être un espace beaucoup plus compliqué. ÉCO Henri 2. jeux de cartes.

Ainsi. Quel va être son L temps ? Ω = [0. tL [t1O 2 ] conduit à prendre pour Ω l’ensemble des fonctions É continues à droite et avec limites à gauche sur [t1 . L’étude de laEvitesse d’une molécule dans un gaz raréfié sur un intervalle de temps C . à valeurs réelles positives. RE+ ) des fonctions conti- nues sur [t1 . 3. Lancé de deux pièces à Pile ou Face : Ω = {P P. Y T ECH Nous verrons également ultérieurement L le modèle abstrait que nous allons P Oque E Ldu fait que Ω décrit précisément tous les résultats ÉCO construire permettra de s’affranchir possibles de l’expérience. Lancé d’un dé : Ω = {1. Un événement est donc une partie de Ω. LE É CO • Exemple 6. Envoi d’une fléchette sur une cible circulaire de 30 cm de diamètre. Temps de passage des véhicules à une borne de péage : Ω = (R+ )N . y). t2 ] conduit à prendre pour Ω l’ensemble C([t1 .2 Nous appelons événement aléatoire (associé à l’expérience E) un sous-ensemble de Ω dont on peut dire au vu de l’expérience s’il est réalisé ou non. 2. • Exemple 7. si l’expérience consiste en un lancé de deux dés. P F. Cela permet de réaliser la richesse de la théorie N qu’il faut mettre en place. +∞[. b) Evénements aléatoires Définition 2. x2 + y 2 ≤ 15}. pour créer un modèle qui englobe tous ces cas. • Exemple 4. 6}. d’une expérience à l’autre. L’observation d’un prix d’actif financier sur un intervalle de temps [t1 . L’expérience consiste à décrire l’impact de lapflèche dans un repère orthonormé de centre le centre de la cible : Ω = {(x. t2 ]. 4. 1]. F F }. à valeurs dans R3 . • Exemple 2. Durée de vie d’une ampoule électriqueE: Ω = [0. t2 ]. t2U]. F P. N IQU – Exemple 5 : Roméo attend Juliette ECH Y T d’attente qui lui a promis d’arriver entre minuit et P O une heure. H N I Q TE C LY PO • Exemple 8. 5. Cette longue liste d’exemples montre que l’espace Ω peut varier énormément dans sa I Q UE structure.1.18 Chapitre 2 – Espace de probabilité • Exemple 1. • Exemple 3. A = { la somme des deux dés est inférieure à 4 } .

Complémentaire : Si A ∈ Ω. Si l’on s’intéresse au prix d’un actif financier sur leQ I U E [t1 . H C O LYTE P L E sur les parties d’un ensemble. en particulier lesQopérations élémentaires sur les ensembles. Dans ce cas. ce qui s’écrit A ⊂ Ω.t2 ] ÉCO est un événement aléatoire.2. c’est à dire une collection d’objets appelés éléments de Ω. et ω∈/ Ω signifie que le point ω n’appartient pas à Ω. L’appartenance d’un point ω à l’ensemble Ω est notée w ∈ Ω. t2 ]. l’ensemble temps ®C H N Y T= E ´ A = { le prix est inférieur au seuilLα} ω ∈ C([t1 . TE C LY PO OLE c) Rappels sur les ensembles ÉC Considérons un ensemble Ω. R). Rappelons les opérations élémentaires ÉCO Intersection : A ∩ B est l’intersection des ensembles A et B. t2 ]. Ensembles disjoints : Les ensembles A et B sont dits disjoints si A ∩ B = ∅. Pour notre Roméo. appelé sous-ensembleUde N IQ est dit inclus dans Ω. pour décrire diverses possibilités deH N réalisations d’événements. Il est noté ∅. les événements aléatoires sont des ensembles. A Une partie A de Ω est aussi un ensemble. Nous allons utiliser le I UE formalisme de la théorie des ensembles. l’ensemble "Juliette se fait attendre plus de 3/4 d’heure" est l’événement aléatoire ]3/4. son complémentaire (dans Ω) est l’ensemble des points .1 – Le langage des probabilités 19 est un événement aléatoire. Ensemble vide : C’est l’ensemble ne contenant aucun point. Ainsi. Réunion : A ∪ B est la réunion des ensembles A et B. mais l’ensemble B = { le résultat du premier dé lancé est un nombre inférieur à 4 } n’en est pas un si Ω ne contient que les résultats non ordonnés des tirages. c’est-à-dire l’ensemble des points appartenant à au moins l’un des deux ensembles. c’est à dire l’ensemble des points appartenant à la fois à A et à B. sup |ω(t)| ≤ α PO LE t∈[t1 . EΩ. 1]. ou points de Ω.

• ET : l’événement “A et B sont réalisés” est représenté par A ∩ B : le résultat de l’expérience se trouve à la fois dans A et dans B. l’ordre d’indexation des Ai n’a pas d’importance.e. Il est noté Ac ou parfois Ω\A. De même. Nous avons A ∪ B = B ∪ A et A ∩ B = B ∩ A.e. ensembles que nous notons N H TEC A ∩ B ∩ C. pour une Pfamille L E la réunion de cette famille.N LY TE PO O L Edes événements aléatoires d) Modélisation ensembliste ÉC Les événements aléatoires étant des ensembles. j). ∪i∈I Ai Odésigne C points appartenantÉ à au moins l’un des A .20 Chapitre 2 – Espace de probabilité de Ω n’appartenant pas à A. Les ensembles A et Ac sont disjoints. nous pourrons effectuer les opérations ensemblistes précédemment décrites. E IQU Correspondance entre opérations ensemblistes et événements aléatoires : C HN Si A et B sont deux événements. Différence : Si A et B sont deux sous-ensembles de Ω. Dans ces deux cas. A\B désigne l’ensemble des points qui sont dans A mais pas dans B. l’ensemble des points appartenant à tous les Ai . O LYTE E P OL • NON : la réalisation deCl’événement É n’appartient contraire à A est représentée par Ac : le résultat de l’expérience pas à A. • IMPLICATION : le fait que la réalisation de l’événement A entraîne la réalisa- tion de B se traduit par A ⊂ B. (rappelons-nous qu’une partie de Ω décrit un sous-ensemble de résultats possibles de l’expérience). i. i. ∀i. l’ensemble des quelconque I. ∩ A désigne l’intersec- i i∈I i tion de cette famille. et que ∪i∈I Ai C Ω. L Y O (Ai )i∈I d’ensembles. indexée par un ensemble Plus généralement. . • OU : l’événement “A ou B sont réalisés” est représenté par l’événement A ∪ B : le résultat de l’expérience se trouve dans A ou dans B. Ainsi A\B = A ∩ B c . et aussi A ∪ (B ∪ C) = (A ∪ B) ∪ C et E I Q U naturellement A ∪ B ∪ C et A ∩ (B ∩ C) = (A ∩ B) ∩ C. Une partition de Ω est une famille (Ai )i∈I telle que lesI Q U E ensembles Ai soient disjoints =H deux-à-deux (Ai ∩ Aj = ∅. La réunion et l’intersection sont des opérations commutatives et associatives. avec l’interprétation suivante.

Si A et B sont disjoints. Nous voulons donc associer à chaque événement A un nombre P(A) compris entre 0 et 1. Ac ∈ A. si nous jouons 10000 fois et si nous obtenons 5003 Pile et 4997 E T C Face.2. Nous avons les propriétés suivantes : fn (A) ∈ [0.Premières propriétés TE LY E PO O L un ensemble possible de réalisations de l’expérience Nous cherchons à définir. P OL O LE Remarque ÉC fondamentale : Pour que la modélisation soit cohérente avec l’intui- tion. n la fréquence de réalisation de A sur ces n coups. A et B sont dits incompatibles.2 CH Probabilité . Considérons un événement A lié à une expérience aléatoire donnée E. • IMPOSSIBLE : ∅ est l’événement impossible. Nous répétons n fois l’expérience E. . dans des conditions similaires. probabilité que la pièce tombe sur Pile est O L la Y même que celle qu’elle tombe sur Face.1 – Le langage des probabilités 21 • INCOMPATIBILITE : si A∩B = ∅. A doit être stable par les opérations ensemblistes ci-dessus : si A. ∅ ∈ A. alors A ∩ B ∈ A. Nous notons par A l’ensemble de tous les événements.1. IlU E modélise l’information qui peut N I Q pourrons prendre A = P(Ω). et définissons nA fn (A) = . P à savoir 1/2. Approche intuitive : Pensons à un jeu de Pile ou Face. fn (A ∪ B) = fn (A) + fn (B). Un résultat de l’expérience ne peut être à la fois dans A et dans B. H être obtenue à partir des résultats de l’expérience. Notons nA le nombre de fois où A est réalisé. B ∈ A. fn (Ω) = 1 . 1] . Nous pasCtoujours et nous verrons pourquoi dans la E ensemble de toutes les parties de Ω. mais aussi Ω ∈ A. la vraisemblance a priori à A (avant le résultat de l’expérience). A ∪ B ∈ A. pour É Caccordée A ∈ A. une HilNest tentant de dire que la suite de 3 résultats n’offre presqu’aucune information. U E NIQ 2. qui représente la chance que cet événement soit réalisé à la suite de l’expérience. LE ÉCO Cette idée intuitive est à la base du raisonnement probabiliste. Si nous I Q U E jouons 3 fois. • TOUJOURS VRAI : l’événement Ω est l’événement certain (tous les résultats de l’expérience prennent leurs valeurs dans Ω). En revanche. mais Y T suite de ce cours.

si les Ai sont deux-à-deux disjoints.1. et de même pour B.1. (2. L’inégalité (2. comme cela est représenté dans la figure 4. Intuitivement. P LE Preuve.1.1. (2.9) O LY • P(A) ≤ P(B) si A ⊂ B. .1. de l’ensemble des événements A.  Définition 2.1) Des propriétés évidentes des fréquences. justifiant toute la construction mathématique.1. (2.8) TEC (2.1. grâce à la loi des grands nombres.1.22 Chapitre 2 – Espace de probabilité L’approche intuitive et naturelle consiste à définir P(A) comme étant la limite quand n tend vers l’infini des fréquences de réalisation fn (A).8. (2. et de la famille des P(A) pour A ∈ A.4) avec A = B = ∅. (2.1. (2.1.3 Une probabilité L É O périence et vérifie lesCpropriétés essentielles suivantes : • 0 ≤ P(A) ≤ 1.1. Pour prouver (2.5)CseOmontre en appliquant (2. nousH IQU enNdéduisons immédiatement que L Y TEC E P O est définie sur les ensembles aléatoires liés à l’ex- Proposition 2. A.2) • P(Ω) = 1.1.6) n X • P(∪ni=1 Ai ) = P(Ai ) . nous décompo- sons l’ensemble A en l’union des deux ensembles disjoints A∩B et son complémentaire A\B.1. 1].1.6) s’obtient de la même façon avec A et Ac .3) • P(A ∪ B) = P(A) + P(B) si A ∩ BE= ∅.9) se déduit de (2. H NIQ (2.1.7) i=1 UE • P(A ∪ B) + P(A ∩ B) = P(A) + P(B).5) c • P(A) + P(A ) = 1.4) données ci-dessus.1.4) avec B = A ∪ (B\A).4 Une probabilité É • P(∅) = 0 (2. et É (2. E P(A) = limite de fn (A) quand n ↑ +∞. qui est un des théorèmes fondamentaux de la théorie. (Nous verrons ultérieurement qu’elle doit satisfaire une propriété supplémentaire nécessaire dès que Ω n’est pas un espace fini). Nous pouvons ainsi considérer P comme une application de A dans [0. Nous donnerons ultérieurement une justification et un sens précis à cette limite.8). P) constitué de l’es- pace Ω. qui vérifie au moins les propriétés (2. La propriété (2.1.4) U NIQ et il en découle que TE CH LY E PO L C O vérifie de plus : Corollaire 2.1.3) et (2.1.5 Un modèle probabiliste est un triplet (Ω.1.

Calcul combina- toire I Q UE N T E CH 2. nous aurons la proposition fondamentale suivante. • P(Ω) = 1.1. P O L • OL P(A ∪ B) =E P(A) + P(B) si A ∩ B = ∅. . c’est-à-dire par la famille {pωi = P({ωi }).Calcul combinatoire 23 A U C B B A U C A B U A B Fig.1. E P L ÉCO 2. Définition 2.. ÉC La probabilité P satisfait également les propriétés (2. Comme l’ensemble des singletons {ω}. 2.. elle est caractérisée par : E U IQ C HN YTE • 0 ≤ P(A) ≤ 1.2.2. ωi ∈ Ω}. est une partition finie de Ω. B.2 Supposons que Ω = {w1 . A ∩ B c .2. Ainsi.9). Proposition 2.1. nous choisirons toujours A = P(Ω).2 Probabilité sur un espace fini . wn }.1 Une probabilité sur Ω fini est une application P : P(Ω) → [0. nous supposons que l’espace de probabilité Ω est un ensemble fini. 1] qui vérifie (2.3) et (2.1 Définition P O LY LE ÉCO Dans ce paragraphe.1 : A.2 – Probabilité sur un espace fini . A ∩ B. . B ∩ Ac et A ∪ B IQ UE EC HN O YT Nous allons maintenant donner desLdéfinitions mathématiques rigoureuses de ces ob- jets.4). pour ω ∈ Ω. Dans ce cas. i) Une probabilité P sur Ω est entièrement caractérisée par ses valeurs sur les single- tons..1.2.5)–(2.

pω2 = 1I − HN L Y TEC Cette probabilité modélise en particulier O la chance pour une pièce de tomber sur Pile PDans (ou Face) dans un jeu de Pile ou L E Face.2. P(A) = P({ω}) = pω .2.2.2.1) I la condition nécessaire de (ii).7) puisque toute partie A de Ω est réunion disjointe (et finie) des singletons {ω}. La vérifica- ÉC tion de (2. (2.2) A. sont de cardinal fini. p sera égal à 1/2.24 Chapitre 2 – Espace de probabilité ii) Etant donnée une famille (pi )1≤i≤n de nombres réels. puisque Ω et donc Remarquons que les sommes dans (2. F } peut être assimilé É ClaOpièce est équilibrée. si et seulement si n X 0 ≤ pi ≤ 1.2. considérons n nombres P({ωi }) = pi et pour tout O E P (pi )1≤i≤n vérifiant (2. nous définissons P(A) par (2.1).3 Loi de Bernoulli de paramètre p ∈ [0.1. L’espace Ω a deux éléments : E Ω = {w1 .2.1) i=1 Nous avons alors X X ∀A ∈ P(Ω). Nous posons AL⊂ Ω.1).2) deU(2. En effet.2) découle de (2.U pω1 = p . 1]. Si probabilité peut aussi modéliser la probabilité de réalisation d’un des résultats.1.3) et (2. pour les ω ∈ A.2. Ω = {P.2. TE CH O LY Inversement.1. pi = 1. 1}. et soit pω = P({ω}). pour laquelle chaque singleton de Ω a la même chance de réalisation.2. (2. ce cas. w2 } et Qp.1.2) ω∈A IQ UE ω∈A N ECH Y T sont des sommes finies. 2. la définition suivante découle de (2. Ainsi. la seconde partie N Q appliqué à A = Ω et de P(Ω) = 1.2. pi = P({ωi }). .  Exemple 2. Nous en déduisons donc (i) et E découle de (2. et (2.2). pour toute expérience aléatoire avec deux résultats possibles (mon premier enfant sera-t-il une fille ou un garçon ?). P O L LE ÉCO Preuve. il lui correspond une unique probabilité P telle pour tout ωi ∈ Ω. (2.2 Probabilité Uniforme Un exemple important de probabilité sur un espace d’états Ω fini est celui de la proba- bilité uniforme. Mais cette plus simplement à {0.4) est immédiate.2. Soit P une probabilité sur Ω.2). Il est alors évident que 0 ≤ pω ≤ 1.

et intéressons-nous à la répartition des couleurs dans l’échantillon obtenu.. n2 boules de couleur 2. U E que Si P est une probabilité uniforme.. E P L ÉCO 2. prend toute son ampleur dans ce paragraphe. Le modèle général est le suivant : une urne contient N boules de k couleurs différentes. n ≤ N . I Q E C H N intuitive de “au hasard” (ti- Cette probabilité décrit mathématiquement l’expression LYT rage au hasard d’une carte.. nous déduisons de (2. .2. Si le lecteur d’échantillons dans une population aussi en contrôle de fabrication.2 – Probabilité sur un espace fini . N C H allons développer différents faire très attention à bien préciser l’espace de probabilité sous-jacent.3) P LE O probabilités se ramène. lancé au hasard O d’un dé. Remarquons que sur un espace fini donné Ω.3 Modèles d’urnes ilEest fondamental de I Q U Cette remarque Dans les calculs de probabilités uniformes sur des ensembles finis. il pourra transcrire l’analyse suivante dans le cadre des opinions politiques dans la population française ou celui du niveau de perfection d’un objet dans une chaîne de fabrication. nk boules de couleur k. avec bien sûr n1 + n2 + . + nk = n. n’est pas inspiré par les couleurs des boules d’une urne.2.2. N2 boules de couleur 2. .Calcul combinatoire 25 Définition 2. P(A) (2. à des dénombrements : É Cdes de sorte que le calcul nous sommes dans le cadre du calcul combinatoire. T oùEnous Y “modèles d’urnes” que l’on peut également E P O Lvoir comme des modèles de prélèvement Lau cours d’un sondage.. dans ce cas..2) IQ N CH Ecard(A) O LY T= card(Ω) ..2. Nk boules de couleur k.. card(Ω) où card(Ω) désigne le cardinal de Ω. c’est à dire son nombre d’éléments. Nous appelons pi = N N la proportion de boules de couleur i.nk la probabilité d’obtenir n1 boules de couleur 1... Nous notons par Pn1 n2 . Nous avons donc pour tout ω : 1 pω = .2. Tirons au hasard n i boules de cette urne... il existe une et U E une seule probabilité uniforme. réparties en N1 boules de couleur 1.4 Nous dirons que la probabilité P sur l’espace fini Ω est uniforme si pω = P({ω}) ne dépend pas de ω. choix au hasard d’un échantillon dans une population). Ces modèles interviennent É C Oou dans de multiples autres situations.

(2.EL’ensemble Ω est alors l’ensemble de Y toutes les parties possibles de n élémentsLdistincts. . tirage sans remise. . Nous verrons que chaque tirage donnera lieu à un calcul de probabilité et à un résultat différent. . Remarque : Le problème du choix du tirage de l’échantillon se pose sans cesse dès que l’on souhaite récolter des données statistiques. nk P̂n1 n2 .4) n I Q U E le cas de deux Cette distribution s’appelle la distribution polygéométrique.La loi hypergéométrique U E H NIQ T C et le nombre de résultats possibles Nous tirons toutes les boules en même temps.2. si dans une fabrication en série. . (n − k + 1) . L’ensemble Ω est .5 : Pour k et n deux entiers tels que k ≤ n.La loi binomiale Les tirages sont successifs.. Ç å n n! kO L k!(n − k)! ÉC k! Tirage exhaustif ou simultané . Remarque 2. qui vaut : Y T =E P O L = n(n − 1) . .2. Nous pouvons donc tirer plusieurs fois la même boule.. nous savons que parmi N pièces usinées.26 Chapitre 2 – Espace de probabilité Nous allons considérer trois façons de tirer les boules au hasard : tirage avec remise. C N1  Nk  LaOprobabilité recherchée vaut donc N1  Nk  n1 .nk = N . tirage simultané. Nous replaçons la boule tirée dans l’urne avant le tirage suivant.n−n1 = . le nombre de parties nk à kQéléments N ECH éléments. nous allons souvent E dans un ensemble à n I U utiliser. qui est appelée distributionÉ(ou Ainsi. nkÉ. et si nous choisissons au hasard et simultanément un échantillon de n pièces. P O  LE n C Oloi) hypergéométrique. Dans couleurs. Le nombre E P Odonnant la bonne répartition des couleurs est de cas favorables L alors égal à n1 . la probabilité pour que cet échantillon contienne k pièces défectueuses (M )(N −M ) sera k Nn−k . dans la suite. est Nn . M sont à mettre au rebut. (n) Tirage avec remise . . elle vaudra  N N1 N −N1 H E C YNTn−n  L n1 1 P̂n1 .

Nknk . la probabilité définie par 1 ÉCO Ç å n Pn1 .2. nk est alors égal à n1 !n2n!!. du point de vue de la composition de l’échantillon. n} comportant n + 1P éléments.nk ! .nk ! AnN11 . à savoir n1 !n2n!!. Ainsi.5) NI n1 !n2 !. Attention. Notons également que T E CH cette ne sont pas interchangeables probabilité est définie sur l’espace : O LY Ω = {0.2 – Probabilité sur un espace fini ... . card(Ω) = N n ..nk ! Y T ECH Cette probabilité est appelée O Ldistribution multinomiale....nk ! N1n1 . ce qui finalement donne pour probabilité la même que celle du cas de tirage simultané.Nknk NQn U E Pn1 n2 . 2..6) n1 E sera appelée loi binomiale de paramètres n et p. et l’on peut se permettre de ne pas prendre en compte l’ordre des individus dans le tirage.. 1. LE ÉCO Remarque : le lecteur pourra vérifier que n Ç å X n i p (1 − p)n−i = 1. nous avons Ni possibilités pour chaque boule de couleur i. mais sans les replacer dans l’urne après tirage....Calcul combinatoire 27 alors l’ensemble de tous les n-uplets d’éléments de l’urne.. n2 . (Elle faitUintervenir les coefficients N I Q du binôme.n−n1 = pn1 (1 − p)n−n1 (2.2. . . p1 = p = NN etLp2E=P1 − p. 1].nk = ... Une fois la place des couleurs choisies. nous pouvons montrer que le nombre de cas favorables vaut n1 !n2n!!. les paramètres n ∈ N et p ∈ [0.AnNkk ..(N − n + 1) = AnN .... Nous munissons Ω de sa probabilité uniforme. i=0 i IQ UE C HN YTE Tirage sans remise P O L Nous tirons maintenant successivement É C O L E les boules de l’urne.. (2.. L’ensemble Ω est alors l’ensemble des suites de n éléments distincts parmi N et le nombre de cas possibles sera N (N − 1). Toutes les répétitions étant possibles. Dans le cas particulier une où k = 2.2.. Nous avons donc finalement n! N1n1 . Le nombre de façons de déterminer les places des k couleurs parmi n est égal au nombre de façons de partager n en k parties de tailles ni . En raisonnant comme dans le cas avec remise. il y a équivalence du tirage sans remise et du tirage simultané.. Le nombre de n-uplets de répartition n1 .. d’où son nom)..

6 Nous avons obtenu la loi binomiale comme limite de lois hypergéo- métriques. LE ÉCO Remarque 2. Les résultats favorables sont les tirages qui contiennent exactement 2 rois. E exactement deux Quelle est la probabilité pour que. B. L. Montrer que la pro- babilité que la somme des points amenés dépasse dix est égale à la probabilité que cette somme ne dépasse pas dix. Ici.) . il yUait N IQ rois ? H C O LYTE P O LΩEqu’ilà modéliser Solution : L’hypothèse au hasard amène cette expérience comme un tirage ÉC uniforme dans un certain ensemble faut préciser. (4)(48) Ainsi. la probabilité cherchée vaut 2 52 2 . à savoir 2 rois et 2 cartes parmi les 48 cartes autres que des rois. les ti- O L Y T E presque équivalents : on a une chance rages de boules avec ou sans remise deviennent très infime de tomber deux foisP sur la même boule.n−n1 = pn1 (1 − p)n−n1 . N1 N −N1   Ç å n1 n−n1 n P̂n1 . avec 2 couleurs.28 Chapitre 2 – Espace de probabilité Cas d’une urne dont le nombre de boules est infini Nous nous plaçons dans les hypothèses du tirage simultané.7 : Les yeux bandés. Il est très facile de montrer qu’alors.. Le cardinal de Ω est 52 4 et P est la probabilité uniforme sur Ω.8 : On tire au hasard quatre cartes d’un jeu de cinquante-deux cartes. on prend pour Ω la classe des parties à 4 éléments de l’ensemble de 52 cartes. (Convergence en loi) UE IQ N Y T ECH Exemple 2. R.2.2. E.n−n1 = N converge vers Pn1 . T. en sup- posant que N et N1 tendent vers l’infini de telle manière que NN1 converge vers p < 1. Cette convergence d’une suite de probabilités vers une probabilité donnée sera développée au chapitre 6. vous P O L manipulez 7 fiches où sont écrites les lettres E. Exemple 2.9 : On lance trois dés parfaitement équilibrés.2. I. (4) Exemple 2. parmi ces quatre cartes. (Cela permettra de construire un jeu parfaitement équitable.2.. n1 E QU n N I Ce résultat est intuitivement évident car siCleHnombre de boules devient infini. Quelle est laEprobabilité que vous écriviez le mot L 2 1 ÉCO LIBERTE Solution : 7! = 2520 .3.

LE ÉCO Cette règle est bonne puisque la probabilité de l’événement qui nous intéresse vaut Å ã4 5 1 1− ' 0. mais n’était pas très bon géomètre" (cf. N IQU T E CH O LY d’au moins un 6 en lançant un dé 4 1) Il est avantageux de parier sur l’apparition P fois de suite. En fait.2. et donc même probabilité de réalisation. IQ UE Une difficulté majeure dans ce style de Ecalcul HN C combinatoire est de bien préciser le modèle probabiliste.. soit 6 fois plus. a2 .5177 > . paradoxes P LE ÉCO Exemple 2. CH O LYTE P LE 2) Il est avantageux de parier sur l’apparition d’au moins un double-six en lançant deux dés 24 fois de suite. Voici deux de ses règles.Calcul combinatoire 29 Solution : L’ensemble Ω est ici l’ensemble des suites (a1 . il y a 6 résultats possibles. lettre de Pascal à Fermat du 29 juillet 1654) était un joueur impéni- tent. a3 ) 7→ (7 − a1 . Ainsi. en lançant deux dés. puisque la probabilité de l’événement cherché vaut : Å ã24 35 1 1− ' 0. Paradoxe ! . 6 2 E gains assurés : le La différence avec 12 est faible. toujours à la recherche de règles cachées lui permettant d’avoir un avantage sur E ses adversaires.10 Rappelons le problème du chevalier de Méré. 36 2 Le Chevalier était donc moins heureux avec cette règle qu’avec la précédente.4914 < . muni de la probabilité P uniforme. Ce personnage mar- quant de la cour de Louis XIV qui “avait très bon esprit.2 – Probabilité sur un espace fini . Comme il est avantageux de parier sur l’apparition d’au moins un 6 en lançant un dé 4 fois de suite. il doit être avantageux de parier sur l’apparition d’un double-six en lançant deux dés 4 × 6 = 24 fois de suite. nous remarquons que l’application (a1 . si A désigne l’événement "la somme des points obtenus est strictement supé- rieure à 10". 7 − a2 . De célèbresO LY T sont nés de cette difficulté. Les événements A et Ac ont donc même cardinal. il s’était laissé abuser par un soi-disant argument d’homothétie : en lançant un dé. Remarquons que a1 + a2 + a3 > 10 ⇔ (7 − a1 ) + (7 − a2 ) + (7 − a3 ) ≤ 10. a3 ) de 3 nombres compris entre 1 et 6. 7 − a3 ) est une bijection de A sur Ac . a2 . CÉO Cette règle est mauvaise. il y en a 62 = 36. mais apte à fournir à long termeUdes N IQ chevalier devait jouer souvent.2..

La classe A doit toutefois satisfaire un certain nombre d’axiomes. nous avons P(An ) = Pn (An )É= CO 2−n . Il faut ajouter un axiome supplémentaire permettant le passage à la limite dans (2. Ainsi.3. (2.3.3. pour tout A ⊂ Ω.3. devient Ω = {P. rappelons ce qu’est un ensemble dénombrable. avec le même alphabet P et F .1. Y E POL A cet effet.3 Définition générale des Probabilités 2. la définition 2. An+1 ⊂ An ) et où A = ∩n An .1) 2n E L’espace d’états I Q Umots de longueur infi- Supposons maintenant que le jeu se poursuive indéfiniment. ceci pour des raisons mathématiques et des raisons de modélisation qui seront explicitées plus loin. Soit E Pdes An = “on ne tire jamais Pile L lors n premiers tirages”.30 Chapitre 2 – Espace de probabilité 2.2).4) T E CH santes.3. 2n . c’est-à-dire si ses points peuvent être énumérés en une suite (xn )n∈N .3). C’est T C Hensemble infini. il est naturel de prendre A = P(Ω). et pour les définir. 2. au sens où les An sont décroissants (i. En effet. Essayons d’éva- Eun luer la probabilité P(A) de l’événement Y O L A = “on ne tire jamais Pile”.1. C’est un ensemble fini de cardinal T Epas n lettres avec un alphabet à deux lettres L Y E P O dans letruquée. (2.1 n’est pas suffisante. les propriétés (2. Nous allons nous en rendre compte sur l’ensemble suivant.2 Les ensembles dénombrables Un ensemble E est dénombrable s’il est en bijection avec N. nous devons d’abordO L caractériser les propriétés que doit satisfaire la classe si C A des événements.1). ÉCO card(A) Pn (A) = . UE N I Q {P. l’espace Ω naturel est l’ensemble H PCet F ).1. Il est alors naturel d’écrire que P(A) = lim P(An ) = 0. c’est à dire l’ensembleN des ∗ nie.1 Pourquoi la définition précédente ne suffit-elle pas ? Lorsque l’espace d’états Ω n’est pas fini. Remarquons que A est la limite naturelle des en- sembles An . (2. F }n (ensemble des mots de Si nous jouons n fois.3. D’après (2. .2. Si nous supposons que la pièce n’est la probabilité de chaque tirage est uniforme et nous nous L retrouvons cadre de la combinatoire. Jouons à Pile ou Face. il n’en est plus de même lorsque Ω est infini.e. (2. É sur un ensemble fini.2) n→∞ E sont insuffi- N IQU Pour que ceci soit vrai. C’est le cas de l’ensemble N lui-même. F }N .2).

de R. des entiers pairs ou de toute suite strictement croissante d’entiers. i. si (An )n∈N est une suite d’éléments de A. (Mais la réciproque est fausse. Il suffit de prendre A0 = YT O L P que A soit stable par réunion ou intersection Notons également que (A3) n’entraîneEpas infinie non dénombrable. 1}N . pour tout B ⊂ A P O L • Si A n’est ni fini. tandis que P(A) n’aura pas de sens dès lors que A n’appartient pas à la tribu A. • Tout ensemble dénombrable est infini. UE Q : si A. ni des intervalles [a. .3. comme nous l’avons vu ci-dessus. alors ∪n∈N An et ∩n∈N An sont dans A. de Q.2.) • Toute partie d’un ensemble dénombrable est elle-même finie ou dénombrable.3. la tribu modélise l’information que nous donne cette expérience.3 Tribu E I QlesUpropriétés suivantes : Définition 2.3 – Définition générale des Probabilités 31 de Z. • (A3) : A est stable par réunion et intersection dénombrables.1 La classe A est une tribu si elle vérifie EC HN • (A1) : ∅ ∈ A et Ω ∈ A. E Y Til en est de même de A\B. C’est pour un élément A de cette tribu que nous allons être capable de définir sa probabilité de réalisa- tion P(A).e. B ∈ A. ÉCO 2. b] lorsque a < b. ni dénombrable. • La réunion d’une famille finie ou dénombrable I UE Qd’ensembles eux-mêmes finis ou H N dénombrables est un ensemble fini ouCdénombrable. LE qui est fini ou dénombrable. Comme ces ensembles A sont des sous-ensembles de résultats possibles de l’expé- rience. PO LY T C OLE • (A2) : A est stableÉpar passage au complémentaire : A ∈ A ⇒ Ac ∈ A. A ∪ B ∈ A et A ∩ B ∈ A. Enonçons quelques propriétés des ensembles dénombrables. la tribu représente un ensemble de parties de Ω (parties composées de certains résultats de l’expérience) dont on va pouvoir mesurer la chance de réalisation. alors N Ifinie Notons que A est alors stable par réunion et intersection H EAC et An = B pour n ≥ 1. Ce ∗ n’est pas le cas de {0. É C O L Remarque fondamentale : Dans la modélisation de notre phénomène aléatoire.

On a : ]x. Ω}. POL LE É CO Définition 2. A. Rappelons que toute tribu réunion ou intersection dénombrable.32 Chapitre 2 – Espace de probabilité Exemple 2. on appelle L Y T E Cpart tribu engendrée par C la plus petite tribu contenant C. Ac . les Ai sont deux- à-deux disjoints et leur réunion est Ω). la tribu Q N Iengendrée par {Ai .  . Ω} est la tribu grossière. Ainsi. pour des raisons fondamentales que nous indiquerons sommairement ul- térieurement. Puisque ] − ∞. a] est le complémentaire de l’intervalle ouvert ]a. il appartient à la tribu borélienne. y[ un intervalle ouvert de R. C’est celle que nous choisirons systématiquement si Ω est un ensemble fini ou dénombrable.5 Si Ω = R. À titre d’exercice de maniement des tribus. O car Pfamille d’une P(Ω) est une tribu contenant C. +∞[.e. É C O L Eest stable par passage au complémentaire. Soit (xn )n une suite de rationnels décroissant vers x et (yn )n une suite de rationnels croissant strictement vers y. (ii) L’ensemble P(Ω) des parties de Ω est une tribu sur Ω. soit ]x. a] pour a ∈ Q. cette tribu sera trop grande dès que Ω est infini non dénombrable pour que l’on puisse définir la probabilité de tous ses éléments de manière non triviale.6 La tribu borélienne de R est laEtribu T L Y PO de la forme ] − ∞. Exemple 2.2 A = {∅. donnons en détail la démonstration du E résultat suivant : QU NI C H engendrée par les intervalles Proposition 2. par Preuve.3. Cepen- dant. • Si (Ai )i∈I est une partition finie ou dénombrable deUΩE(i. on appelle tribu borélienne la tribu engendrée par la classe des intervalles ouverts de R. Elle existe toujours. yn ]∩] − ∞.3.3 Si C ⊂ P(Ω).3. la tribu CO engendrée par C estÉl’intersection de toutes les tribus contenant C. Nous en déduisons que tout intervalle ouvert appartient à C.3. et L E d’autre part l’intersection d’une quelconque de tribus est une tribu. ou triviale : c’est la plus petite tribu de Ω. y[= ∪n (] − ∞. xn ]c ). IQ UE HN Définition 2.4 • La tribu engendrée par l’ensemble A est {∅. et donc la tribu C engendrée par ces intervalles est incluse dans la tribu borélienne. Réciproquement. i ∈ I} est l’ensemble des réunions BJ = ∪i∈J Ai .T H oùEJCdécrit la classe de toutes les parties Y de I. d’où le résultat.3.

3.4) avec A0 = A.3. telle que : • On a P(Ω) = 1. dit “axiome terme général P(An ) est convergente (et de somme P(∪n An )).e.1. P (∪n An ) = lim ↑ P(An ).3 – Définition générale des Probabilités 33 2.5)–(2. (2.3) E C HN (AT • Pour toute suite (dénombrable) Y n )n d’éléments de A deux-à-deux disjoints. nous utilisons les notations suivantes. d’où P (2.1.1. B ∈ A sont disjoints. 1] vérifie (2.9). si la suite (An ) est croissante.3. nous écrivons An ↑ A. Définition 2.4) avec An = ∅ pour tout n ∈ N : si a = P(∅). LE ÉCO Le résultat suivant est très utile dans la pratique. 1].3. et répond au problème de modéli- sation que nous nous étions posé en Section 2. Si (An ) est une suite décroissante de parties de Ω.4). si A.7 Une probabilité sur l’espace (Ω. i.3.1.4) n Remarque : La probabilité P (dite aussi mesure de probabilité).1.4).3. on a P O L O LE ÉC X P(∪n An ) = P(An ). nous obtenons n a = a.4 Définition d’une probabilité Nous sommes maintenant en mesure de donner la définition générale d’une probabilité. An ⊂ An+1 pour tout n et si A = ∪n An . IQU EC HN O LY T Notons que toute probabilité vérifie les propriétés P (2.3) et (2.e. est une mesure abstraite U E nous travaillons est de masse 1 sur l’espace mesurable (Ω. IQ UE (2.8 Supposons que P : A → [0. mais nous n’invoquerons aucun résultat général de cette théorie. An+1 ⊂ An pour tout n et si A = ∩n An .3. A). Pour le voir. A1 = B et An = ∅ pour tout n ≥ 2.4). Y T E E POL OL É C de σ-additivité”. ce qui donne P(A ∪ B) = P(A) + P(B) + n≥2 P(∅) =EP(A) + P(B). A) est une application de A dans [0. Le cadre dans N I Q lequel mathématiquement développé par la théorie de C laHmesure. nous écrivons An ↓ A.5) n .3.3. De même. nous appliquons (2. (ii) Pour toute suite (An )n croissante. Ensuite. Proposition 2. entraîne en particulier que la série de L’axiome (2. (2.3. Pour ce résultat. i. nous commençonsPpar appliquer (2. Il est plus fort que (2. notée P. Il y a équivalence entre : (i) La propriété de σ-additivité (2.1. ce qui entraîne a = 0.3.4).3.2.4).

et définissons par récurrence Bn = An \Bn−1 . la dernière égalité provenant  La propriété (2. (2.8) est satisfaite pour k. OL E ÉC Supposons maintenant (i).7).3. nous avons P(C) + P(B ∩ Ak ) = P(B) + P(Ak ). et nous en déduisons immédiatement que (2. Montrons que (i) ⇔ (ii). avec An ↑ A. Preuve.3. nous avons tout de même la majoration suivante.4). Nous obtenons donc le résultat. PO n p=0 L E É C Ode (2. . On a alors L Y T E P OX P(∪n∈ILAn ) ≤ ÉCO P(An ).6).7) n∈I Preuve. a) Supposons d’abord l’ensemble I fini. et posons Bn = ∪p≤n Ap etY C H (An )n d’éléments de A deux-à-deux Supposons d’abord (ii). Il s’agit de montrer que pour tout k entier.7) et P(Bn ) = p≤n P(ApP P O L vers Pn P(An ) et aussi vers P(B) par (ii). (2. lorsque les événements An sont deux-à-deux disjoints.6) n Ce résultat entraîne en particulier que si (An )n est une suite croissante ou décroissante d’événements. et soit (An )n∈I une famille finie ou dé- nombrable d’événements. Si ce n’est pas le cas. pour n ≥ 1.1.9 Soit P une probabilité.4) donne la probabilité de la réunion ∪n An en fonction des proba- bilités P(An ).34 Chapitre 2 – Espace de probabilité (iii) Pour toute suite (An )n décroissante. P (∩n An ) = lim ↓ P(An ).3. Comme P vérifie (2.3. Considérons une suite BT=E∪n An . Nous ) croît avons donc (i). et posons B = A1 ∪ · · · ∪ Ak−1 et C = B ∪ Ak .8). on a (ii) ⇔ (iii). avec k ≥ 2.3. Supposons la propriété vraie pour k − 1.1. Soit An ∈ A pour n ≥ 0. Comme ∪n Bn = A et comme les Bn sont deux-à-deux disjoints. (2. la suite (P(An ))n admet une limite quand n tend vers l’infini. très utile dans la pratique : E N I QU ECH Proposition 2. E N IQU disjoints.1.1.1. elle vérifie (2.3. Soit aussi B0 = A0 . En vertu de (2. Etant donné (2. donc P(C) ≤ P(B) + P(Ak ).8) Nous montrons cette propriété par récurrence sur k : elle est évidente pour k = 1. P(A1 ∪ · · · ∪ Ak ) ≤ P(A1 ) + · · · + P(Ak ). nous avons U E n NIQ C Hp ) = lim EP(B X X P(A) = LY T P(Bn ) = lim n n P(An ).

En passant à la limite. A. suivant que la pièce est truquée ou non truquée. Une question fondamentale va ainsi être de décrire et caractériser les mesures de probabilité définies pour des espaces de probabilité de plus en plus gros : E aléatoires.3 – Définition générale des Probabilités 35 b) Considérons maintenant le cas où I est dénombrable. ne N I QU N. t2 ]. qui traite de trajectoires pourra pas être abordé dans ce cours de base. P) un espace de probabilité. qui croît vers l’ensemble C = ∪n∈I An . Le dernier exemple. Elle introduit une notion de “vrai ou faux” qui dépend de la probabilité choisie sur l’espace d’états. C’est T E C un espace mesuré au sens de la théorie de la mesure. une L E la notion de probabilité sur cette tribu. et ne pas s’intéresser aux causes de l’expérience génériquement représentées par ω ∈ Ω. nous avons X n P(Bn ) ≤ P(Ai ).7). 1] choisi. Rn . . Un événement de probabilité nulle est dit négligeable. La définition suivante est fondamentale en théorie des probabilités.3.3. i=1 Mais le membre de gauche ci-dessus croît vers P(C) en vertu de la proposition précé- dente. en fonction du paramètre p ∈ [0. Nous pouvons définir sur {0. une mesure de probabilité. C’est cette tribu sur cet espaceCetOdéfinir É idée géniale qu’a introduite Kolmogorov en 1933 : avoir mis au coeur des probabilités un objet nouveau.11 Soit (Ω. A.3. R. P nous obtenons donc (2. Q. 1} différentes lois de Bernoulli. Définition 2. Nous pouvons supposer sans restriction que I = N∗ . P) H unNespace de probabilité. Posons Bn = ∪ni=1 Ai .2. I Q UE Définition 2. A). P O LY LE C O consiste donc à décrire une expérience aléa- La modélisation probabiliste É toire par la donnée d’un espace de probabilité. D’après (a). Nous É C beaucoup d’exemples ultérieurement. E IQU  N YT ECH Nous avons pu ainsi construire O L P dans toute sa généralité un espace abstrait Ω. R). C([t1 .10 On appelle le triplet (Ω. mais nous verrons pouvons nous en convaincre rapidement dans le cadre du jeu de Pile ou Face. tandis que le membre de droite croît vers n∈I P(An ). CH O LYTE P L E de nombreuses probabilités distinctes sur le Remarquons que l’on peut construire O même espace (Ω.

3. appelée n −θ θ et que n pn = e n n! = P P loi de Poisson de paramètreÉ θ.2. la tribu considérée est l’ensemble P(Ω) des parties de Ω. l’ensemble des ω pour lesquels la propriété est fausse est négligeable.12 É CUneO L probabilité sur un ensemble dénombrable est entièrement caractérisée par ses valeurs sur les singletons. Il est facile de vérifier que 0 ≤ pn ≤ 1 L C1. de la manière suivante : pour A ∈ A. w1 . (Voir Section 3. EC LY T n P O P telle que pour tout A ⊂ E. si l’ensemble des ω ∈ Ω pour lesquels elle est vraie est de probabilité égale à 1. pn = 1.2.2 vue dans le cas Y T fini. A) et un point ω0 fixé dans Ω. wn .3.s.3. E POL Proposition 2. · · · . δω0 (A) = 1 si ω0 ∈ A . Lorsque Ω est dénombrable. Lorsque Ω est fini. si ce n’est que pour prouver que P définie par (2. Dans ce cas. La proposition suivante généralise au cas dénombrable la proposition 2. dans son ouvrage "Recherches sur la probabilité des jugements en matière criminelle et en matière civile" (1837). Exemple 2.C H {w0 .13 Soit θ > 0 et pn = eP −θOθ LY T n E n! .3. 2.3. Nous pouvonsI Q U Enuméroter ses éléments par alors N EIci.5 Probabilités sur un espace dénombrable Supposons que Ω soit dénombrable. Etant donnée une suite (pn )n de nombres réels tels que E IQU X HN 0 ≤ pn ≤ 1 .1 ci-après. (2. δω0 (A) = 0 si ω0 ∈ / A.OLa suite (pn )n définit une probabilité sur N. . la démonstration est analogue.9) ωn ∈A ωn ∈A Preuve.36 Chapitre 2 – Espace de probabilité Une propriété est vraie P-presque-sûrement (en abrégé P-p.).9) vérifie (2.) IQU  EC HN Exemple 2. et l’ensemble Ω\{ω0 } est un ensemble δω0 -négligeable. n ∈ N.3.2. · · · }. ce résultat n’est autre que la proposition 2. il faut utiliser la propriété de sommation par paquets E pour les séries.14 1) Considérons un espace mesurable (Ω. il lui correspond une unique probabilité E L C O= ÉP(A) X X P({ωn }) = pn .4). Une propriété est alors vraie δω0 -presque-sûrement si elle est satisfaite par ω0 . Nous pouvons alors définir la probabilité δω0 .3. appelée mesure de Dirac en ω0 . Cette loi fut introduite par Siméon Denis Poisson.

n La probabilité P peut donc s’écrire X P= pn δwn . Donnons-en ici uniquement les idées de base. Ce point de vue sera développé dans la suite du cours. E PO • le nombre de 6 obtenus O L dans un lancé de 3 dés. Une va- riable aléatoire X est une application de (Ω. Rd ) des fonctions continues de R+ dans Rd . A. on a X P(A) = pn δwn (A). dans P O LY OLE ω ∈ Ω 7→ X(ω) ∈ F. et utiliser les variables aléatoires plutôt que les événements. É C En pratique. Attention : La terminologie. Par Une variable aléatoire est une grandeur quiTdépend L Y exemple. n’est pas une variable (au sens de l’analyse). · · · . Alors pour tout A ∈ A. et pn = P({wn }).4 Loi d’une variable LY TEC aléatoire E PO L ÉCO En théorie moderne des probabilités. E En termes mathématiques. est très malencontreuse et en- gendre une difficulté liée au vocabulaire employé. · · · }. • le nombre d’appels ÉCdans un central téléphonique pendant une heure. l’ensemble F pourra être un ensemble fini ou dénombrable ou R ou Rd ou un espace plus sophistiqué tel que l’ensemble C(R+ . w1 . on préfère prendre un point de vue fonctionnel plutôt qu’ensembliste. consacrée par l’usage.4 – Loi d’une variable aléatoire 37 2) Soit P une probabilité définie sur Ω = {w0 . on considère un espace deH NI probabilité QU (Ω. P). • la distance du point d’atteinte d’une flèche au centre de la cible. nous allons préférer nous intéresser aux chances de réalisation des valeurs de X plutôt qu’aux chances . sont des variables aléatoires.2. malgré son nom. • la valeur maximale d’un prix d’actif sur un intervalle de temps donné. mais une fonction de la variable ω ∈ Ω. EU IQ HN E C du résultat de l’expérience. A)T C E un ensemble F . Une variable aléatoire. Intérêt fondamental : Comme l’espace F est connu dans la pratique. n UE H NIQ 2. wn .

nous pouvons transporter la structure abstraite du modèle probabiliste (Ω. même si on a A = P(Ω). Y −1 ECH (B c ) = (X −1 (B))c . une fois remarquées les propriétés élémentaires suivantes : N XT X −1 (∅) = ∅. ou distribution de X. H N C O LYTE P permet de définir PÉXC O L Eque pour les A appartenant à A. ce qui allège les écritures. Nous remarquerons qu’en général F 6= P(F ). ainsi que (2. X(ω) ∈ B} par {X ∈ Eque cette notation simplifiée IQU B}. définie sur (F.4. (2. d’où l’importance de la proposition suivante. P) sur l’espace d’arrivée F (dont la structure est mieux connue). E Proposition 2. IQ U EC HN b) L’application PX définie pour B ∈O PF par LY T O L E −1 C ÉX (B) = P(X (B)) = P(X ∈ B) P définit une probabilité sur la tribu F de F .3.38 Chapitre 2 – Espace de probabilité de réalisation des résultats de l’expérience.4. (2. C’est la mesure image de P par l’application mesurable X. Les propriétés (A1).4. X −1 (F ) = ΩL. A.4) pour PX découlent immédiatement des propriétés du même nom pour I Q U E A et P. Comme PX ne .1) est appelée loi de la variable X.1) NOTATION : Il est usuel de noter l’ensemble X −1 (B) = {ω. puisque F est un ensemble connu (on pourra en particulier utiliser ses propriétés topologiques) alors que Ω est un espace abstrait.1. la formule (2.2)  Définition 2.4. (A2) et (A3) pour F . Preuve.1) ne Comme P(A) n’est définie (B) que pour les ensembles B tels que X −1 (B) = {X ∈ B} ∈ A.3) et (2. PO OLE )C X −1 (∩i AiÉ = ∩i X −1 (Ai ).2 La probabilité PX .1 a) La famille F des parties B de F telles que X −1 (B) ∈ A est une tribu de F .4. grâce à une variable aléatoire X. en posant pour B ⊂ F PX (B) = P(X −1 (B)) = P({ω.4. Ainsi. Elle sera plus facile à caractériser que P. X(ω) ∈ B}). Rappelons-nous toutefois désigne un sous-ensemble de Ω. F ) par (2. X −1 (∪i Ai ) = ∪i X −1 (Ai ).

pour qu’une probabilité soit définie sur une tribu qui peut être strictement plus petite que l’ensemble de toutes les parties. Dans ce cas. j) tels que i + j ∈ B PX (B) = .4 Dessiner le diagramme en bâton O LY T E P de la loi PX de X et remarquer P qu’elle est très différente de la probabilité uniforme définie préalablement sur Ω. 12} définie par X(i. décrire les probabilités sur R ou Y T E et vecteurs aléatoires au Chapitre 4. j) : 1 ≤ i ≤ 6 . et nous avons P({ω}) = 36 pour chaque singleton {ω}.5. l’espace d’états vaut Ω = {(i. d’ordre mathématique.O· · · .4. Considérons un événement aléatoire A ⊂ Ω. Puisque les dés U sont équilibrés. et il est naturel de prendre ici A = P(Ω). réelles ou des vecteurs aléatoires.5 Conditionnement et indépendance 2. Les variables que nous rencontrerons dans ce cours seront soit à valeurs dans un ensemble dénombrable. L’idée de base permettant la compréhension de cette notion est la suivante : une information supplémentaire concernant l’expérience modifie la vraisemblance que l’on accorde à l’événement étudié. 36 UE 1 2 Par exemple. LE ÉCO 2. P O LY LE É C2. j) = i+j est la variable aléatoire L’application X : Ω → {1. Elle a pour loi nombre de couples (i. Nous d En revanche.3 Etudions un lancé de deux dés que l’on suppose bien équilibrés. nous définissons la probabilité de A par P(A) E= card(A) où card(A) est le cardinal de A et désigne le nombre d’élémentsNde Q I A. ceci constitue une première raison. sur R ou sur Rd . Nous avons vu ci-dessus des caractérisations simples des probabilitésI Q E espace fini ou dénombrable. PX ({3}) = 36 . et la différencie fondamentalement de la théorie de la mesure. POL développerons cela dans le cadre des variables OL E ÉC Exemple 2. C’est la36probabilité uni- H TEC 1 forme sur Ω. surUun N C Hsur R est beaucoup plus délicat. "somme des résultats des deux dés". soit à valeurs dans R ou dans Rd . Nous les appellerons respectivement des variables aléatoires discrètes.1 Probabilités conditionnelles La notion de conditionnement est l’une des plus fructueuses de la théorie des pro- babilités. . IQ C HN EXERCICE 2.5 – Conditionnement et indépendance 39 peut être définie que sur F . Leurs lois seront alors des probabilités respectivement sur un ensemble dénombrable.4. PX ({2}) = PX ({12}) = 36 .2. 1 ≤ j ≤ 6}. etc.

A. Remarquons également que l’information a priori a changé la valeur de la probabilité de l’événement aléatoire.3) et (2. De plus. nous avons dans chaque cas calculé le rapport du nombre de résultats favorables sur le nombre de cas possibles. cherchons. UE L’approche intuitive pour formaliser cette notion H NIQconsiste à revenir à la notion de T E C de l’événement A sachant que l’évé- fréquence empirique. Pour obtenir ces résultats.5. 0 si l’on sait a priori que le résultat d’un des dés est 2.5. Par ailleurs. appelée probabilité A de probabilité strictement positive. IQ UE C HN Proposition 2. si A et C sont disjoints. 21 si l’on sait que le résultat d’un des dés est 6. la probabilité de l’événement “la somme est supérieure ou égale à 10”. Elle vaut 16 sans information supplémentaire. ÉCO 2) Si P(A) > 0 et P(B) > 0.1 Soit A et B deuxPévénements. et (∪n An ) ∩ B = ∪n (An ∩ B).5. L’assertion (2) est évidente.1) P(B) Cela définit bien une probabilité comme l’énonce la proposition suivante. 1] qui à A as- conditionnelle sachant B. Elle vaut donc parmi celles pour lesquelles ÉC nA∩B fn (A ∩ B) = . nB fn (B) U E suivante. et en faisant tendre n vers l’infini. pour un lancé de deux dés.3. nous aboutissons à la définition IQ N ECH O LY T Définition 2.2 1) Soit (Ω. sur n expériences.  .4) pour P(·|B) proviennent des mêmes propriétés pour P et des remarques suivantes : Ω ∩ B = B. Preuve. P) un espaceTdeEprobabilité et B un événement de L Y socie P(A|B) définit une nouvelle L E P O sur Ω. nous avons P(A|B) P(B) = P(A ∩ B) = P(B|A) P(A). il en est de même de A ∩ B et C ∩ B. (2. Alors probabilité l’application de A dans [0.40 Chapitre 2 – Espace de probabilité Par exemple (et il serait bien de méditer sur cet exemple très simple). La fréquence de réalisation P O LY est égale au nombre de réalisations de A nement B est réalisé. Nous remarquons qu’il est indispensable de bien définir l’espace de probabilité lié à l’expérience munie de l’information a priori. O tionnelle de A sachant BCest L le E nombre avec P(B) > 0. La probabilité condi- É P(A ∩ B) P(A|B) = . les propriétés (2. Il est clair que 0 ≤ P(A|B) ≤ 1.3. O L EB est réalisé.

UE NIQ ∀i ∈ N.. Soit (Bi )i∈N une partition finie ou dénombrable d’événements de Ω. ∩ An−1 .2) Preuve.1) implique P(A ∩ Bi ) P(A|Bi ) P(Bi ) P(Bi |A) = = . P(A|Bi ) P(B (2.5. et soit et (2. .2) soit B = A1 ∩ A2 ∩ .2) sont les mêmes. les formules (2.5. P(Bi |A) = P Y T E C Hi ) .. Sous les mêmes hypothèses que dans la pro- position 2. D’après (2..3 Formule des probabilités composées. Pour tout A ∈ A. En H avec n − 1.2) remplaçant P(B) par sa valeur donnéeTpar pour n.4 Formule des probabilités totales. et ∩ Bi ) = P(A|Bi ) P(Bi ).5.1) U E vraie pour n − 1. nous obtenons (2..5 – Conditionnement et indépendance 41 Proposition 2.5. ∩ An ) = P(A1 ) P(A2 |A1 ) P(A3 |A1 ∩ A2 ).3).5. (2.5. ∩ An−1 ) > 0. telle que P(Bi ) > 0 pour chaque i.6 Un individu est tiré au hasard dans une population où l’on trouve une proportion 10−4 de séropositifs.. les ensembles (A ∩ Bi ) sont É pari∈Iailleurs P(A deux-à-deux disjoints.3.. Le dénominateur de (2.3) CH i P(B i LY TEi E PO Preuve.4.5. on a alors I Q UE P(A|BN X X P(A) = P(A ∩ Bi ) = ) i ).5.5.1).4)...5. Nous avons A =C∪O L(A ∩ Bi). Par ailleurs.5 Formule de Bayes... Si n = 2. La démonstration se fait par récurrence.5. (2.2. des expérimentations antérieures ont permis de savoir que les probabilités d’avoir un résultat positif lors de l’application du test si l’individu est .. On lui fait passer un test de détection de la séropositivité. Il suffit alors d’ap- pliquer (2. tandis que (2.5.2) E C(2.5.5. alors P(A1 ∩ A2 ∩ .P(An |A1 ∩ A2 ∩ . onNaI Q P(B ∩ An ) = P(B)P(An |B).. ∩ An−1 ). OL Y P  LE ÉCO Proposition 2. Supposons que (2.5.5. Si A1 .  Théorème 2.4) OjLP(A|Bj ) P(Bj ) P LE ÉCO Preuve. P(A) P(A)  Exemple 2. et si P(A) > 0..4) vaut P(A) d’après (2. An sont des événements de Ω tels que P(A1 ∩ A2 ∩ .5. Par hypothèse.

9 P(I c |M ) = = = 0. la probabilité que la valeur monte O L Ec c vaut É C P(M ) = P(M |I) P(I) + P(M |I ) P(I ) = 0. 99 × 10−4 + 0. 99 × 10−4 ' 0. Si informé. La formule de Bayes donne alors P(M |I c ) P(I c ) 0. Sachant que le test donne un résultat positif. la probabilité que le cours descende est de 0. Un client choisit au hasard un gérant dans l’annuaire. Sachant que le cours de cette valeur est monté. 818. 09.2 Indépendance La notion d’indépendance est absolument fondamentale en probabilités et nous verrons par la suite toutes ses implications dans la modélisation de l’aléatoire. cette probabilité est petite. 0. UE I Qdeux catégories. 44 2. on peut montrer par une O L P le gérant est malque étude la probabilité que le cours de cette valeur monte est de 0. É6. 9 = 0. 001. 4 × 0. et B “le test de détection donne un résultat positif”. L E 8. P(M ) 0. 4 × 0. 999 = 1 − 0. 9999. P(B|A) = 0. . E N IQU Solution : Notons M l’événement “la valeur monte”EetCIH l’événement “le gérant est bien Y T P OL informé”. Par la formule des probabilités totales. 8 × 0. quelle est la probabilité pour que l’individu soit effectivement séropositif ? Solution : Considérons les événements A “l’individu est séropositif”. cherchons la probabilité pour que le gérant soit mal informé.C O On sait par ailleurs que si l’on choisit au hasard un gé- rant de portefeuille. les bien in- Exemple 2. ou s’il ne l’est pas. Les données fournissent P(A) = 10−4 d’où P(Ac ) = 0.42 Chapitre 2 – Espace de probabilité séropositif.7 On classe les gérants de portefeuilles H Nen formés et les autres. et lui demande d’acheter une valeur. 99 et P(B|Ac ) = 0. 001 est la spécificité du test). 1 + 0. Lorsqu’un gérant bien T E C achète une valeur boursière pour informé Y préalable son client. Nous trouvons alors E IQU P(A ∩ B) P(A|B) = = N E C H P(A) P(B) Y T = OL P(B|A) E PP(B|A) P(A) + P(B|Ac )P(Ac ) L ÉCO = 0.5. 44. 001 × 0. il y a une chance sur 10 que celui-ci soit un gérant bien informé. sont respectivement égales à 0. 99 (c’est la sensibilité du test) et à 0. 001 (0. 9999 Remarquons que contrairement à l’intuition.5.

5. 4 B = {la carte est un coeur}. alors P O LY L EP(A|B) = P(A) ⇐⇒ P(B|A) = P(B). et réciproquement. la fréquence empirique de réalisation de A sera approximativement la même. que l’on sache ou non que B est réalisé. Soit Q la nouvelle probabilité correspondant au tirage de cartes.8 Deux événements aléatoiresT E A C et B de probabilité strictement positive sont indépendants si et seulement siP O L Y LE É C OP(A ∩ B) = P(A) P(B).5.5.5) La probabilité de voir A réalisé ne dépend pas de la réalisation de B. Remarque 2. Supposons maintenant que le jeu de cartes soit trafiqué. Il est facile de voir que P(A) = 52 . A3 sont indépendants. Supposons que 1 1 1 1 Q(valet de pique) = . Si Ai est un événement qui ne dépend que du ième lancé.5.5. On tire une carte au hasard dans un jeude 52 cartes.10 2) ci-dessous). P(A ∩ B) = P(A) P(B)O⇐⇒ ÉC Exemple 2. Ainsi. deux événements A et B sont indépendants si le fait de savoir que A est réalisé ne donne aucune information sur la réalisation de B et réciproquement. (2. E PO L ÉCO Si B est un événement de probabilité strictement positive. A2 . 2 2 51 102 . Par passage à la limite sur LY T le nombre d’expériences. Définition 2. NI H TEC 2) Si P(A) > 0 et P(B) > 0. Supposons que la réalisation de l’événement B n’ait aucune influence sur la réalisation de A. P(B) = 13 52 . alors A1 . les événements A et B sont indépendants pour la probabilité uniforme P.5 – Conditionnement et indépendance 43 Evénements indépendants Intuitivement. 1 et P(A ∩ B) = P( la carte est la dame de coeur ) = 52 = P(A) P(B). Q(autre carte) = × = . A sera dit indépendant de B si P(A ∩ B) P(A|B) = P(A) = P(B) I Q UE On remarque que cette formule se symétrise et la notion d’indépendance se définit HN finalement comme suit. nous en déduisons les définitions suivantes.9 1) Cette notion est une notion liée au choix de la probabilité P et n’est pas une notion ensembliste. après n expériences. A = {la carte est une dame}. 3. E fn (A|B) = fnf(A∩B) n (B) Q Uà fn (A). On lance 3 fois un dé. 2. Alors. Exemple 2. (Cf. Cela n’a en particulier rien à voir avec le fait que A E QU et B soient disjoints ou non.2. (Le conditionnement doit être approximativement Iégal N ne change pas l’information que l’on a surC H E l’expérience). Ainsi donc.10 1.

44 Chapitre 2 – Espace de probabilité

Alors
1 2 13
Q(A ∩ B) = 6= Q(A) Q(B) = × .
102 51 102
Les événements A et B ne sont pas indépendants sous la probabilité Q.

Nous laissons en exercice (très simple à vérifier) la démonstration de la proposition
suivante, dont le résultat est tout à fait intuitif.
E
IQU
Proposition 2.5.11 Si les événements A et B sont indépendants, alors il en est de
même de A et B c , Ac et B, Ac et B c . H N
TEC
O LY à une suite finie ou infinie d’événements de la
La notion d’indépendance se généralise
P
manière suivante. LEO
C suite (An )n d’événements de (Ω, A, P ) est dite indépendante
Définition 2.5.12ÉUne
si
P(Ai1 ∩ ... ∩ Aik ) = P(Ai1 )...P(Aik )

UE
pour toute suite finie (i1 , ..., ik ) d’entiers deux à deux distincts.
NIQ
H la suite (A, B, C) soit indépen-
Cette définition est délicate. Par exemple, pour Cque
T Eles
O Y
dante, la propriété doit être vérifiée pourLtoutes intersections de deux ensembles et
l’intersection des 3 ensembles. L ne P
Il E suffit pas d’avoir P(A ∩ B ∩ C) = P(A) P(B) P(C).
Par exemple, prenons É O de dé avec A = {1, 2, 3}, B = {2, 4, 6} et C =
unClancé
{1, 2, 4, 5}. Nous avons P(A) = 21 , P(B) = 12 , P(C) = 23 . Ainsi, nous avons bien
P(A ∩ B ∩ C) = P(A) P(B) P(C) mais P(A ∩ B) 6= P(A) P(B).

Il ne suffit pas non plus que les événements soient indépendants deux à deux. On joue
2 fois à Pile ou Face et on considère les événements A = { Face au premier lancé },
E
I Q U le même résultat}.
B = { Face au deuxième lancé } et C = {les deux tirages donnent
N
T CH
On vérifie que ces événements sont deux à deux indépendants mais que la probabilité
Eprobabilités.
L
de leur intersection n’est pas égale au produitY des
PO
É C OLE
Expériences aléatoires indépendantes et espace de probabilité produit

Considérons une suite d’espaces de probabilité (Ωn , An , Pn ). Nous avons vu que ces
espaces modélisent des expériences aléatoires. Nous souhaiterions construire un espace
de probabilité rendant compte de toutes ces expériences indépendantes les unes des
autres.

Si nous avons uniquement deux espaces (Ω1 , A1 , P1 ) et (Ω2 , A2 , P2 ), nous prendrons
Ω = Ω1 × Ω2 , que nous munirons de la tribu produit A = A1 ⊗ A2 . Cette tribu
produit de A1 et A2 est définie comme étant la tribu engendrée par les pavés A1 × A2 ,
A1 ∈ A1 , A2 ∈ A2 , (voir définition 2.3.3). Nous définissons P sur les pavés de A par

2.5 – Conditionnement et indépendance 45

P(A1 × A2 ) = P1 (A1 ) P2 (A2 ). On peut montrer que cela suffit pour caractériser une
probabilité sur A, que l’on appelle probabilité produit, notée P1 ⊗ P2 .

Nous pouvons généraliser cette notion d’espace de probabilité produit, et considérer
le produit (dénombrable) cartésien Ω = Πn Ωn , A = ⊗n An où ⊗n An désigne la plus
petite tribu de Ω engendrée par les produits cartésiens finis d’éléments des tribus
coordonnées, donc contenant tous les ensembles de la forme

A1 × A2 × ... × Ak × Ωk+1 × Ωk+2 × ..., Ai ∈EAi , k = 1, 2, 3, ...
U
H NIQ
Il est possible de montrer par un théorème C
T Egénéral de théorie de la mesure qu’il existe
une unique probabilité P sur (Ω, A) L Y
qui vérifie
E PO
L
P (AÉ
1×CAO2 × ... × Ak × Ωk+1 × Ωk+2 × ...) = Πk Pi(Ai )
i=1

pour tous k = 1, 2, ... et Ai ∈ Ai . Cette probabilité rend ainsi indépendantes les
expériences aléatoires correspondant à chaque espace (Ωn , An , Pn ).
I Q UE
N égaux, cela nous permettra de
ECH
En particulier, en prenant tous les espaces coordonnées
T
modéliser la même expérience répétée uneYinfinité (dénombrable) de fois, de manière
POL
indépendante et dans les mêmes conditions.
E
L
ÉCO
Exemple 2.5.13 Considérons les lancés successifs et indépendants d’une même pièce
de monnaie, telle que la probabilité de tirer Face soit égale à p ∈]0, 1[. Soient Fn
l’événement “Face au n-ième lancé” et Pn l’événement “Pile au n-ième lancé”. Soit T
la variable aléatoire décrivant le premier lancé pour lequel un Pile est obtenu. Alors,
par indépendance des lancés, nous avons pour k ∈ N,
U E
IQ
P(T = k) = . ∩EFC
P(F1 ∩ F2 ∩ . . T
HN
k−1 ∩ Pk )
L Y
= P O P(Pile) = pk−1 (1 − p).
P(Face)k−1

LE
Remarquons que ÉCO
X
P(T < +∞) = P(T = k) = 1,
k≥1

donc P(T = +∞) = 0. La loi de T est appelée loi géométrique de paramètre p.

Nous allons maintenant voir un théorème fameux, dans lequel intervient fondamen-
talement la notion d’indépendance, et qui sera très important, en particulier pour les
théorèmes de convergence (cf. Chapitre 5).

46 Chapitre 2 – Espace de probabilité

2.5.3 Le Lemme de Borel-Cantelli

Considérons une suite (An )n d’événements aléatoires. Nous définissons l’ensemble
lim supn An comme étant l’ensemble

lim sup An = ∩p ∪n≥p An .
n

Remarquons que
IQ UE
HN
∀p, ∃nC≥ p, tel que ω ∈ An
YTE
ω ∈ lim sup An ⇔
n
P O L
LE ⇔ ω appartient à une infinité de An
ÉCO
X
⇔ 1An (ω) = +∞.
n

De même,
E
U fini de An .
ω∈
/ lim sup An ⇔ I Qnombre
ω appartient à au plus un
n
EC HN
LY T
O d’événements de A.
Théorème 2.5.14 Soit (An )n unePsuite
L E
• Si la série
É n )O< +∞, alors P(lim supn An ) = 0, c’est à dire que P-
n P(AC
P
presque sûrement, il y a au plus un nombre fini de An qui sont réalisés.
• Si de plus la suite (An )n est indépendante, alors
X
P(An ) = +∞ =⇒ P(lim sup An ) = 1. (2.5.6)
n
UE
n

n I
Dans ce cas, P-presque sûrement, une infinité de AN Q réalisés.
ECH
sont
Y T
O L plus vraie dans le cas où la suite n’est
Il est clair que cette dernière propriétéPn’est
E
L convaincre de prendre tous les An égaux à un
pas indépendante. Il suffit pourOs’en
ÉC
même événement A de probabilité P(A) ∈]0, 1[.

La première partie de ce lemme est un outil précieux pour démontrer qu’une propriété
est vraie P-presque sûrement. Nous en verrons un exemple dans la preuve de la loi
forte des grands nombres donnée au paragraphe 4.2. La deuxième partie du lemme
caractérise entièrement, dans le cas indépendant, le fait que P(lim supn An ) vaut 0 ou
1 suivant la convergence ou la divergence de la série de terme général P(An ).

Preuve. Remarquons tout d’abord que
X
P(lim sup An ) = lim ↓ P(∪n≥p An ) ≤ lim ↓ P(An ), (2.5.7)
n p p
n≥p

2.6 – Exercices sur le chapitre 2 47

où lim ↓ désigne la limite d’une suite décroissante.

Si la série n P(An ) est convergente, le reste de cette série tend vers 0 et (2.5.7)
P
implique que P(lim supn An ) = 0.

Supposons maintenant que les An soient indépendants et que la série P(An )
P
n
diverge. Soit m un nombre entier. Nous avons
c U E
P(∪m 1 − P(∩m I QP
c m
i=p Ai ) = i=p Ai ) = 1 − Πi=p P(A i) grâce à l’indépendance
H N
E≥C 1 − e i=p P(Ai)
m

= i=p (1 − P(AT
1 − Πm i ))

P O LY
grâce à l’inégalité 1 − x ≤LeE
−x
pour x ≥ 0. Ainsi,
ÉCO P ∞
− P(Ai )
P(∪∞
i=p Ai ) ≥ 1 − e
i=p =1

et l’on conclut finalement que pour tout p, P(∪∞
i=p Ai ) = 1, ce qui implique finalement
E
que P(lim supn An ) = 1. IQU 
EC HN
PO LY T
LE
Application percutante : Considérons une suite de parties indépendantes de Pile
ÉCO
ou Face, la probabilité d’apparition d’un Pile étant égale à p ∈]0, 1[. Soit A un "mot"
de longueur l choisi a priori, c’est à dire une suite de l termes dont chaque lettre est P
ou F . Désignons par A1 l’événement consistant en le fait que le mot se réalise dans les
l premières parties, par A2 l’événement consistant en le fait que le mot se réalise dans
les l parties suivantes, etc. Les événements A1 ,P A2 , ..., sont indépendants et pour tout
n ≥ 1, nous avons P(An ) = P(A1 ) > 0, d’où n P(An ) = +∞. E Il résulte du lemme
I Q Uégale
de Borel-Cantelli (deuxième assertion), qu’avec une probabilité
H N à 1, le mot A se
réalise une infinité de fois au cours du jeu. Le même E C
Talors, raisonnement montre que si un
L Y
E P Oinfinité de fois au cours de la frappe. C’est
singe tape au hasard sur une machine à écrire, avec une probabilité égale à 1,
le mot ABRACADABRA se réalisera
O L il tapera aussi une infinité de fois le livre "À LA
É Cdonc
vrai pour n’importe quel texte,
une

RECHERCHE DU TEMPS PERDU".

2.6 Exercices sur le chapitre 2

EXERCICE 2.6.1 1) Parmi n personnes en présence (n ≤ 365), quelle est la proba-
bilité pour qu’au moins deux personnes soient nées le même jour ? (On conviendra de
ne pas prendre en compte les personnes nées le 29 février). Que vaut cette probabilité
pour n = 4, n = 16, n = 22, n = 40, n = 64 ?

48 Chapitre 2 – Espace de probabilité

2) Déterminer nmin pour que la probabilité qu’au moins deux personnes soient nées
le même jour soit supérieure à 0, 5. On pourra utiliser la formule de Stirling m! ∼m→∞
√ 1
2πmm+ 2 e−m .

EXERCICE 2.6.2 Montrer la formule de Poincaré :
n
X
P (∪nm=1 Am ) = p1 − p2 + ... + (−1)n−1 pn = (−1)k−1 pk (2.6.1)

IQ UE
k=1
N

XLY T
ECH
pk = P O ∩ ... ∩ Aik ). (2.6.2)
O L E1≤i <...<i ≤n
P(Ai 1

ÉC 1 k

EXERCICE 2.6.3 Un facteur possède n lettres adressées à n destinataires distincts.
Il est totalement ivre et poste au hasard une lettre par boîte.E
N IQU
Y T ECH ?
Quelle est la probabilité d’obtenir la bonne répartition

P OauL moins arrive à la bonne adresse ?
Quelle est la probabilité qu’une lettre
E
L
CO
Quelle est la probabilitéÉqu’aucune lettre n’arrive à la bonne destination ?

Quel est le nombre dn de manières différentes de poster les lettres de telle sorte
qu’aucune n’arrive à destination ?

E définie par pn =
EXERCICE 2.6.4 Soit a ∈]0, 1[. Montrer que la suite de nombres
U
(1 − a)an−1 caractérise une probabilité sur N∗ . INQ
T E CH
EXERCICE 2.6.5 M. et Mme Barbétipoil Y ont deux enfants, garçons ou filles, les
P O Lest la probabilité que les deux enfants
4 configurations sont équiprobables. Quelle
Barbétipoil soient des filles, C O L
E
É
1. sans autre information,
2. sachant que l’aînée est une fille,
3. sachant que l’un des deux enfants est une fille.

EXERCICE 2.6.6 Modèle de Hardy-Weinberg. Les caractères héréditaires dans cer-
tains organismes, tels que les humains, sont portés par des paires de gènes. Dans le
cas le plus simple, chaque gène peut prendre deux formes appelées allèles, A et a. Ces
allèles se trouvent dans une population parentale avec les proportions p et q. Comme
Aa et aA ne sont pas discernables, il y a 3 génotypes possibles, AA, aa, Aa. Nous sup-
poserons que la reproduction peut avoir lieu entre deux individus quelconques de la
population, indépendamment des gènes considérés. Chaque parent transmet un gène

l’événement selon lequel au moins "k Faces" consécutifs apparaissent au cours des lancés numérotés 2k .2. Y T ECH OL ? Le joueur a-t-il intérêt à réviser sonPchoix EXERCICE 2. · · · .6. Derrière l’une d’elle il y a une Ferrari. la probabilité qu’une famille ait k enfants. derrière les autres une chèvre. Trois portes A. EXERCICE 2. E alors qu’elle n’est pas • Le présentateur.6. La reine U E a eu 3 fils non hémophiles. la probabilité d’apparition d’un Face étant égale à p.6.8 Le L Edes 3 portes est un jeu télévisé populaire (Let’s make a Ojeu É C deal) diffusé dans les années 70 aux USA. ∀k ≥ 2. 2k+1 − 1. les deux gènes ainsi obtenus constituant le génotype du descendant.6. Soit Ak .6 – Exercices sur le chapitre 2 49 de son génotype de façon équiprobable. Si elle est porteuse. l’informe derrière la porte B et lui offre la possibilité de N I Q Uson choix (i. pour k entier. La reine porte le gène de l’hémophilie avec une probabilité de 0. B.10 On jette indéfiniment une pièce de monnaie. NI Q Quelle est la probabilité qu’elle soit porteuse du gène ? S’il naît un quatrième prince. E IQU GnN: “n garçons”.9 UnÉproblèmeC OLE simple de démographie. Calculer la probabilité des différents génotypes dans la génération suivante.e. • Le joueur choisit une porte. et que P(Fille) = P(Garçon) = 21 . Comment interprétez-vous ce résultat ? . C sont fermées. qui sait où se trouve la voiture. Montrer que la proportion de chacun des allèles reste la même dans la deuxième génération. 1 1 Montrer que P(lim supk Ak ) vaut 0 ou 1 selon que p < 2 ou que p ≥ 2. de choisir réviser la porte C). 5. chaque prince aura une chance sur deux de souffrir de cette maladie. Soit a ∈]0. Fn : “n filles”. 2k + 1. H C O LYTE P LE 1) Quelle est la probabilité pour qu’une famille ayant deux filles aient deux enfants seulement ? É C O 2) Quelle est la probabilité qu’une famille ait deux garçons sachant qu’elle a deux filles ? EXERCICE 2. On pose : En : “la famille a n enfants”. 1[. pk = (1 − 2a)2−(k−1) . Nous supposons que p0 = p1 = a . avec quelle probabilité sera-t-il hémophileE?C H O LYT P EXERCICE 2.7 L’hémophilie est transmise par la mère. disons A. Soit pk .

6. IQ UE C HN O LYTE P LE ÉCO U E NIQ TE CH LY PO LE ÉCO IQ UE C HN O LYTE P LE ÉCO . P(N)) telle que P(kN) = k1 pour tout entier k. où kN désigne l’ensemble des entiers multiples de k.11 Montrer qu’il n’existe pas de probabilité P sur (N.50 Chapitre 2 – Espace de probabilité EXERCICE 2.

mais sa loi. La L grande nouveauté va être de comprendre que ce n’est É Cque pas la variable aléatoire en tant fonction précise de l’aléa qui nous intéresse. qui seront d’usage constant dans l’étude des variables aléatoires sur un espace dénombrable.Chapitre 3 IQ UE C HN O LYTE Variables Laléatoires E sur un P ÉCO espace fini ou dénombrable U E NIQ Y T ECH P L . c’est-à-dire la description de son “comportement probable”.+un la “somme partielle” à l’ordre n. nous allons E P Odévelopper une étude plus systématique des O variables aléatoires et de leur loi. Uses and abuses of Mathematics in Biology IQ UE HN L Y TEC Dans ce chapitre et le suivant.. ÉCO Charles Darwin. et Sn = u1 +.. 51 . for men thus endowed seem to have an I have deeply regretted that I did O not proceed at least to understand something of the great leading principles of L E mathematics extra sense. Soit (un )n≥1 une suite numérique. 3.1 Prérequis : quelques résultats utiles sur les séries Nous rappelons les résultats essentiels sur les séries.

Cela étant. IQ UE C HN S3 La série Y T Econvergente un est dite absolument si la série |un | converge. + un et Sn = uv(1) + . Rappelons rapidement la démonstration de cette propriété.P donc elle tend toujours vers une limite S éventuellement infinie. existe deux cas importants où l’ordre des termes n’a pas d’importance : S5 Si un ≥ 0 pour tout n. la somme n un ne change pas si l’on change l’ordre P de sommation. P S2 Si la série n un converge. I Q UE N T existe en effet de nombreux exemples de suites C H d’une série est important. il est possible de “sommer par paquets”. les suites Q N I (Sn ) et (Sn0 ) sont crois- H C R ∪ {+∞}). Pour tout n il YqueEi ≤ n. qui P P . posons vi = n∈Ai un . Nous avons alors n un = i∈I vi .+Comme ui ≥ 0. ni la somme de la série. P P POL n n S4 Si un ≥ 0 pour OLE É Ctout n. Il En général l’ordre dans lequel on considère les termes E (un )n≥1 et de bijections v de N∗ dans lui-même pour lesquels n un converge P P O LYet n uv(n) diverge. sinon vi est elle- P même la somme d’une série à termes positifs. S6 Lorsque les un sont des réels de signe quelconque et que la série est absolu- ment convergente. Cela signifie la chose sui- vante : soit (Ai )i∈I une partition finie ou dénombrable de N∗ . Pour chaque i ∈ I. . . c’est une somme ordinaire . 0 Sn = u1 + . et donc É CS = S . nous pouvons modifier de manière arbitraire l’ordre des termes sans changer la propriété d’être absolument convergente. bien que la série converge au sens de (S1) si et seulement si S < ∞. Nous montrons 0 de même que S ≤ S . . alors la suite Sn est croissante. + uv(n) .52 Chapitre 3 – Espace fini ou dénombrable S1 La série n un est dite convergente si Sn converge vers une limite finie S. On écrit encore S = n un . (Prendre par exemple un = n1 ). (C’est la “somme” de la série). Notons S et S leur limites respectivesT(dans 0 existe un entier m(n) tel que v(i) ≤ m(n)Odès P L Sn0 ≤ Sm(n) ≤ S et donc en passant O LàE0 la limite nous obtenons S 0 ≤ S. La réciproque est P fausse : on peut avoir un → 0 sans que la série n un converge. ou converge vers une P il E L ÉCO somme différente. la suite (uPn )n≥1 tend vers 0. qui est fondamentale pour les probabilités : soit v une bijection de U E N∗ dans lui-même. S7 Si un ≥ 0. Si Ai est fini. clairement santes. notée P aussi S = n un . .

3.2 – Variables aléatoires discrètes 53

est de nouveau la somme d’une série à termes positifs si I = N∗ . La démonstration
de ce résultat est analogue à celle de (S5) ci-dessus.

S8 Si la série un est absolument convergente, la propriété (S7) est encore vraie.
P
n

S9 Théorème de Fubini pour les séries. Soit (amn )m,n∈N une série double telle
que la
P série de terme général m |amn | converge. Alors les séries m amn et
P P P

n amn sont convergentes et de même somme.Q U
E n

NI
P
m
H
TEC
P O LY
3.2 LE
VariablesOaléatoires discrètes
ÉC
Dans tout ce chapitre, l’espace Ω est fini ou dénombrable.

Nous supposons donnée une probabilité P sur Ω (muni de Ela tribu de ses parties
P(Ω)), caractérisée par les pω = P({ω}). Alors toute N I Q U définie sur Ω est une
application
H
Y T deCX (i.e.Lal’ensemble
variable aléatoire et l’ensemble F des valeurs E
ω parcourt Ω) est nécessairement fini ouLdénombrable.
des X(ω) lorsque
loi de X est une probabilité
E P Osavons que cette probabilité PX est caractérisée
L
sur F . Par la proposition 2.3.12, nous
par les nombres ÉCO
X
pX
i = PX ({xi }) = P({ω, X(ω) = xi }) = P(X = xi ) = pω , ∀xi ∈ F.
ω,X(ω)=xi
(3.2.1)
E
Ainsi, N IQU
T E CXHà valeurs dans un espace dé-
Proposition 3.2.1 La loi d’une variable aléatoire
Y
nombrable F est caractérisée par OL
LEP
{ (xi , pX
É CxO
i ), i ∈ F, avec pX
i = P(X = xi ) }.

Exemple 3.2.2 Une variable aléatoire de loi uniforme sur {1, . . . , n} a pour loi
{ (k, n1 ), 1 ≤ k ≤ n}.

La représentation graphique d’une loi de variable discrète en utilisant un diagramme
“en bâtons” est très parlante. Les valeurs xi sont placées en abscisse et les images pX
i
en ordonnée.

La représentation graphique ne donne pas d’information quantitative sur la loi. Dans
les paragraphes suivants, nous allons définir des nombres réels qui vont résumer en
un certain sens le comportement de la variable aléatoire.

54 Chapitre 3 – Espace fini ou dénombrable

3.3 Espérance des variables aléatoires discrètes

Nous supposons ici que F ⊂ R.

3.3.1 Définition

Motivation : Répétons n fois une expérience aléatoire,Eet notons X1 , . . . , Xn les
valeurs successives prises par X. Pour avoir uneN idée
U comportement de la variable
I Qdu
X, il est naturel de considérer leur moyenne H
E Carithmétique Mn = n1 (X1 + . . . + Xn ) .
(Pensez à vos propres calculs deO L Y T
E P moyennes en tant qu’élèves.) En regroupant suivant
L
les différents résultats ω de l’expérience, nous obtenons
ÉCO X
Mn = fn ({ω}) X(ω),
ω∈Ω

où fn ({ω}) est la fréquence de réalisation du singleton {ω} au E cours des n expériences.
Nous voulons faire tendre n vers l’infini. Si la propriétéI Q U
(2.1.1) intuitée au Chapitre
H N l’expression ci-dessus on peut
1 est vraie, c’est-à-dire si fn ({ω}) → pω , etEsiCdans
Y Ten particulier vrai si Ω est fini), alors la
intervertir la somme et la limite (ce quiLest
O
suite (Mn )n tend vers ω∈Ω pL E P : l’espérance mathématique, ou moyenne, est la
ω X(ω)
P

É C O
limite des moyennes arithmétiques lorsque le nombre d’expériences tend vers l’infini.
Nous justifierons cette assertion plus loin, dans l’un des théorèmes les plus importants
de la théorie des probabilités, appelé la loi des grands nombres.

Définition 3.3.1 Soit X une variable aléatoire réelle sur l’espace fini ou dénombrable
Ω (i.e. une application de Ω dans R). Son espérance (appelée aussi E
I Q U parfois moyenne) est
le nombre N
T E CH
Y
X
E(X) = pωLX(ω), (3.3.1)
E PO
O L ω∈Ω

pourvu que la somme
P
É Cpω |X(ω)| soit finie.
ω∈Ω

(Rappelons que, en vertu de (S6), comme la série de terme général pω X(ω) est
absolument convergente, la somme E(X) de la série ne dépend pas de la manière dont
les ω sont ordonnés.)

Remarque : E(X) est un nombre réel qui donne une valeur moyenne résumant la
variable aléatoire X.

L’espérance mathématique d’une variable aléatoire est l’un des concepts les plus impor-
tants de la théorie des probabilités. La dénomination d’espérance pour cette quantité fait

3.3 – Espérance des variables aléatoires discrètes 55

référence aux problèmes de jeux et d’espérance de gain. Cette terminologie imagée a été
introduite par Pascal.

Théorème 3.3.2 Considérons une variable aléatoire X satisfaisant ω∈Ω pω |X(ω)| =
P
E(|X|) < +∞. On a alors la formule fondamentale suivante :
X X X
E(X) = pω X(ω) = xi P(X = xi ) = xi pX
i . (3.3.2)
ω∈Ω xi ∈F xi ∈F
E
I QXUne dépend que de la loi de X.
En particulier, nous remarquons que l’espérance de
EC HN
LY T consiste
Preuve. La preuve de cette proposition
O juste à observer que la sommation
P
LE
par paquets est justifiée par (S8) puisque ω∈Ω ω |X(ω)| = E(|X|) < +∞, puis à
p
P
écrire
ÉC Å O
X X X ã X X X
E(X) = pω X(ω) = pω xi = xi P({ω; X(ω) = xi }) = xi pi .
ω∈Ω xi ∈F ω,X(ω)=xi xi ∈F xi ∈F

U E
NIQ


Y T ECH
Analogie avec une notion de mécanique
E POL : Le concept d’espérance est à rappro-
O
cher de la notion de centre de L
gravité d’un groupe de masses au sens de la mécanique.
Considérons en effet uneÉ Cvariable X de loi de probabilité {(xi , P(xi )), i ≥ 1}. On
montre que si les masses P(xi ), i ≥ 1 sont réparties sur une barre sans poids aux
abscisses xi , i ≥ 1, le centre de gravité, c’est à dire le point sur lequel la barre pourra
être posée et rester en équilibre, est d’abscisse E(X). En effet, il suffit d’établir que
la somme des moments des forces gravitationnelles par rapport au point d’abscisse
E(X) est nulle. En d’autres termes, il suffit de montrer que U E
H NIQ
T E Ci ),
X
0= (xi − E(X))P(x
P
i O LY
LE
ce qui est immédiat.
ÉCO
Exemple 3.3.3 Un nombre est choisi au hasard entre 1 et 10, et nous devons deviner
ce nombre en posant des questions auxquelles il ne sera répondu que par oui ou
par non. Calculons l’espérance du nombre N de questions nécessaires dans les cas
suivants :

• La ième question est du type “Est-ce i ?", i étant égal à 1, 2, ..., 10 :
Soit Ak l’événement : “le nombre k ∈ {1, ..., 10} a été choisi". Alors
1
P(N = k) = P(N = k|Ak )P(Ak ) = ,
10

56 Chapitre 3 – Espace fini ou dénombrable

et
10
X 11
E(N ) = k P(N = k) = .
2
k=1

• Avec chaque question, nous essayons d’éliminer à peu près la moitié des réponses
possibles, avec le protocole suivant : est-ce ≤ 5, ≤ 2 (resp. ≤ 7), ≤ 4 (resp. ≤ 9).
Alors
6 4 17
E(N ) = 3 × +4× = .
10 10 5
IQ UE
C HN
3.3.2 Y T E des variables aléatoires discrètes
Propriétés de l’espérance
POL
LE
Définition 3.3.4 É C Oappelons variable aléatoire
Nous P intégrable une variable aléatoire X
qui admet une espérance, c’est à dire telle que ω∈Ω pω |X(ω)| = E(|X|) < +∞. L’en-
semble de toutes les variables aléatoires intégrables est noté L1 . L’ensemble L1 dépend
de Ω et de la probabilité P.
U E
NIQ
Les propriétés suivantes sont immédiates :
TE CH
LY
Proposition 3.3.5 • L1 L PO
estEun espace vectoriel, et l’espérance est linéaire sur
∀a,Ob ∈ R,
L1 : ∀X, Y ∈ L1 , É C

E(aX + bY ) = a E(X) + b E(Y ). (3.3.3)

• X ∈ L1 ⇐⇒ |X| ∈ L1 , et dans ce cas,

|E(X)| ≤ E(|X|).
IQ UE (3.3.4)
C HN
• L’espérance est positive :
O LYTE
P
O L E≥ 0)
si X ≥ 0 (i.e. ∀ω, X(ω)
ÉC
et X ∈ L1 , alors E(X) ≥ 0. (3.3.5)

• Si X, Y ∈ L1 , telles que X ≤ Y (i.e. ∀ω, X(ω) ≤ Y (ω)), alors

E(X) ≤ E(Y ). (3.3.6)

• L1 contient toutes les variables aléatoires bornées.
(X est dite bornée s’il existe un réel b tel que |X(ω)| ≤ b pour tout ω).
• L’espérance d’une variable constante est égale à cette constante :

Si X(ω) = a pour tout ω, alors E(X) = a. (3.3.7)

• Si Ω est fini, L1 contient toutes les variables aléatoires réelles.

3.3 – Espérance des variables aléatoires discrètes 57

Exemple 3.3.6 Supposons que A soit un événement aléatoire et définissons la va-
riable aléatoire X de la manière suivante : X(ω) = 1 si ω ∈ A, et X(ω) = 0 si ω ∈
/ A.
Cette variable aléatoire est notée X = 1A et est appelée fonction indicatrice de A.
Nous remarquons alors que

E(X) = E(1A ) = P(A),

ce qui donne le lien entre la probabilité d’un événement et l’espérance d’une variable
aléatoire.
IQ UE
HN
TEC
3.3.3 O LY
Variance et écart-type
P
LE
ÉCO
Nous allons maintenant introduire un second ensemble de variables aléatoires , l’en-
semble L2 des variables aléatoires X réelles telles que le carré X 2 soit intégrable. Nous
dirons dans ce cas que X est de carré intégrable.

I Q UE
Proposition 3.3.7 2
Hde
L est un sous-espace vectoriel N L , et si X ∈ L2 on a
1

E C
|E(X)| ≤P O LY T ≤ »E(X 2 ).
E(|X|) (3.3.8)
L E
ÉCO
Preuve. Soient X et Y deux variables aléatoires réelles et a ∈ R. Si X et Y sont dans
L2 , et comme (aX + Y )2 ≤ 2a2 X 2 + 2Y 2 , nous déduisons de (3.3.3) que aX + Y ∈ L2 :
ainsi L2 est un espace vectoriel. L’inclusion L2 ⊂ L1 découle de |X| ≤ 1 + X 2 et de
la linéarité (3.3.3).
E
U la seconde, nous
I QPour
La première inégalité de (3.3.8) a déjà été vue en (3.3.4).
N
H a = E(X) et Y = X − a.
E Calors
pouvons nous limiter au cas où X est positive. Soit
D’après (3.3.3) il vient L Y T
E PO
L
E(Y )2
C O) − 2aE(X) + a2
= ÉE(X 2
= E(X 2 ) − a2 ,

et E(Y 2 ) ≥ 0 par (3.3.5). Donc a2 ≤ E(X 2 ), ce qui est le résultat cherché. 

Définition 3.3.8 Si X ∈ L2 , sa variance est définie par

V ar(X) = E((X − E(X))2 ) =
X
(xi − E(X))2 pX
i .
xi ∈F

En vertu de (3.3.5), V ar(X) est positive, et sa racine carrée positive σX s’appelle
l’écart-type de X.

le jeu peut rapporter beaucoup.84 .58 Chapitre 3 – Espace fini ou dénombrable 2 En développant le carré (X − E(X)) comme dans la preuve ci-dessus.8 10−2 + 94 × 9. qui vaut E(G) − 2 = −0.9 Un jeu de loto. 2 10−8 C T3E575 5 LY E 7.3. et le jeu est défavorable au joueur. 8 10−5 PO LE ÉCO 4 94 E 9. d’où son nom.9) L’écart-type est une grandeur qui mesure la moyenne (en un certain sens) de l’écart des valeurs de X à sa moyenne. est négatif. Les 6 numéros gagnants Le joueur coche 6 numéros sur O Lau ÉC sont déterminés par tirage sort. 3.4 Un résultat fondamental .2 que si E(|X|) < +∞. É C Le lecteur pourra vérifier que l’écart-type vaut 572. Ainsi le bénéfice moyen du joueur.8 10−5 + 2132885 × 7. Pour une mise de 2 Euros. nous voyons aussi que 2 σX = E(X 2 ) − E(X)2 . Soit N le nombre de numéros gagnants de la grille. . alors E(X) ne dépend que de la loi PX de X.3. 7 10−4 3 11 E 7.2 10−8 = 11 × 7.7 10−4 + 3575 P O LY OLE = 1. 8 10−2 Le gain moyen est UE X E(G) = g(n)P(N = n) IQ n HN T E×C7. IQ UE Exemple 3. La grande valeur de l’écart-type vient de ce que parfois (mais très rarement). C HN O LYTE P E une grille qui en comporte 49. on reçoit le gain G=g(N) suivant : n numéros gagnants gain g(n) E probabilité 6 QU 2 132 885HEN I 7.3.3. 16 E. (3.Moments d’une variable aléatoire Nous avons vu en Proposition 3.

On dit que la variable aléatoire X admet un mo- I Q U E vaut alors (en ment d’ordre p si la variable aléatoire X p ∈ L1 .  Définition 3. la variable aléatoire Y = f (X) U E aléatoire f sur (F. Dans ce cas.3.10) ÉC ω∈Ω xi ∈F Preuve.1).3.3. E POL L en utilisant cette fois (S8). Les dérivées auront leur interprétation en termes de moments de la variable aléatoire. Théorème 3. Sa loi est une probabilité sur N. les espérances de H et nous avons en particulier que L Y TEC X PO E(f (X)) = O L Ef (X(ω)) pω = X f (xi )P(X = xi ). elles sont donc Y la définition de l’espace L1 . Comme nous pouvons sommer par paquets par (S7) dans une série à termes Q U E de droite de (3.10) sont aussi égales pour f . ce Si ces propriétés sont réalisées. comme nous l’avons vu. nous avons donc f (X) ∈ L1 (Ω. D’après T E CH sont égales si nous remplaçons f par |f | . 1] et indéfiniment dérivable sur [0. P) ⇔ f ∈ L1 (F.3. Le but de ce paragraphe est de montrer qu’une telle loi de probabilité peut également être caractérisée par une fonction. qui montre la cohérence de la notion d’espérance. caractérisée par une suite de nombres compris entre 0 et 1 et de somme 1. 1[. xP O O L E ∈F i ÉC 3. . nous voyons de la même É C O de droite de (3. qui prend un nombre fini ou dénombrable de valeurs. définie sur [0. PX ).3. l’est également. achève la démonstration.10 Avec les hypothèses précédentes. P) est intégrable si et seulement si la cesNdeux variables aléatoires sont égales. nous voyons comme pour (3. Nous avons alors le résultat fondamental suivant. compte-tenu de (3. (3.11 Soit p ∈ N∗ . et ce moment utilisant la proposition précédente) : N T E CH iY xL X p p E(X ) = P(X = xi ). PX ) I Qvariable définie sur (Ω.4 Fonction génératrice d’une variable aléatoire à valeurs entières Considérons une variable aléatoire à valeurs dans N. nous considérons maintenant une fonction f de F dans R. Ainsi Y = f (X) est une variable aléatoire réelle. Elle est donc. PX ).3.4 – Fonction génératrice d’une variable aléatoire à valeurs entières 59 Plus généralement.3. Ce théorème s’appelle souvent le théorème de transfert dans la littérature.2) que les deux expressions I N finies simultanément.3. appelée fonction génératrice. manière que les deux expressions qui.10) positifs. Nous pouvons aussi considérer f comme une variable aléatoire sur l’espace de probabilité (F.

(3.4. donc la loi de X.1 La fonction génératrice GX de X est la fonction définie sur l’in- tervalle [0. 1[ . nous avons GX (s) − GX (1) X sn − 1 X = pn = pn (1 + s + . la fonction GX caractérise les pn . 1] par la formule suivante : ∀s ∈ [0.4. (3. on peut échanger la limite en s au point 1 et la somme en n : Y T X E P O LX limC O L un (s) = lim un (s). LY T E H Comme nous le voyons ci-dessus. ∞ X GX (s) = E(sX ) = p n sn . Rappelons d’abord un résultat facile sur les séries : si I UE Qles fonctions s 7→ un (s) H N EC sont croissantes et positives sur [0. Preuve. la fonctionCgénératrice ne dépend que de la loi de X. + sn−1 ). avec lims↑1 un (s) = n pn . s−1 s−1 n≥0 n≥0 et les fonctions un (s) = pn (1 + s + .4. Le résultat découle alors de (3.60 Chapitre 3 – Espace fini ou dénombrable Nous considérons une variable aléatoire X à valeurs dans N. La fonctionPGX est la somme d’une série entière qui E converge absolument U et N I au point 1. + sn−1 ) sont croissantes et positives. . Comme la dérivée nième en 0 est GX Y T E(0) = p n n! .4. . la même démonstration prouve que . Définition 3.4.3 Soit X une variable aléatoire à valeurs entières. et dans ce cas E(X) = G0X (1). .2 É CLaOfonction génératrice est continue sur [0. 1] et indéfiniment dérivable sur [0.  Plus généralement. 1[. Preuve. E PO L Proposition 3. de fonction gé- nératrice GX .1) E IQU n=0 N c’est à dire de la probabilité (pn )n . il faut et il suffit que GX soit dérivable à gauche en s = 1.2) É s↑1 n≥0 n≥0 s↑1 Si s < 1. 1].4. Les propriétés de continuitéQ de dérivabilité en dé- (n) C H coulent. . Pour que X soit intégrable . dont la loi est caractérisée par les nombres pn = pX n = P(X = n).  O L P  LE ÉCO Proposition 3.2). puisque n pn = 1. elle caractérise la loi de X.

.. (X − p)) = GX (1). si et seulement si GX est p + 1 fois dérivable à gauche en s = 1. ... appelons Xk le résultat du k-ième lancé.3.5 – Variables aléatoires discrètes usuelles 61 Proposition 3.4.5 Pour calculer les moments P O LYet simple d’une variable aléatoire (espérance.3) lorsque ce dernier existe. 3. L’espace des É O Nous lançons une pièce n C résultats de l’expérience sera donc Ω = {0. . d’où V ar(X) = G00X (1) − (G0X (1))2 + G0X (1). et PXk (1) = P(Xk = 1) = p . et nous avons alors (p+1) E (X(X − 1) .4 La variable aléatoire X(X − 1) . (3. Cela revient à dériver formellement p + 1 fois les deux E Q U et le signe espérance. E(X(X − 1)) = G00X (1).1 Variable aléatoire de Bernoulli Y T ECH E POL fois... 1}n. nous pouvons H formellement la série (3.4. 1[. va- O L E direct. .3. il peut être beaucoup plus rapide d’utiliser les dérivées de la fonc- É tion génératrice plutôt qu’unC calcul le verrons dans le paragraphe ci-dessous. n et le membre de droite ci-dessus est égal au membre de gauche de (3.4. .10).5. la pièce peut être truquée. .).5 Variables aléatoires discrètes usuelles E N IQU 3. membres de l’égalité GX (s) = E(sX ). . d’après (3.. Pour une pièce équilibrée. Xk peut prendre les deux valeurs 0 et 1.4. comme nous riance. (n − p). (X − p) est intégrable (et donc X admet un moment d’ordre p + 1). ce qui donne L E É CGOX (1) = (p+1) pn n(n − 1) .LNous associons 1 à Pile et 0 à Face.3) En particulier. n}. Nous supposons que les lancés sont indépendants les uns des autres. PXk (0) = 1 − p. en échangeant lesIdérivées N T E CH Remarque 3. • Pour tout k ∈ {1.1) terme E Cdériver Y T P O LX à terme p + 1 fois au point s = 1. ce qui nous conduit à supposer que la probabilité de Pile vaut p ∈]0. Par ailleurs. nous prendrons p = 21 . . E N IQU Pour retrouver cette formule.4.

U E (3.. Sa loi est la loi de Bernoulli de paramètre p. n}. Calculons sa loi.1) V ar(X) =H N−I Qp). et comme les lancés sont indépendants. Nous avonsÉCO E(X) = p × 1 + 0 × (1 − p) = p.  Il faut tenir compte des places des Piles dans la suite de résultats obtenus.5. U E NIQ Le calcul de GX est immédiat. IQ i=1 EC HN La variable aléatoire Sn peut prendre toutesL les T Yvaleurs entières entre 0 et n. k .5. E PX L Preuve. Il y a nk possibilités d’obtenir les k Piles parmi les n lancés. .. Xi (ω) = k}). nous E P O cherchons L ÉCO n X PSn (k) = P({ω ∈ Ω.5. Proposition 3. (par exemple les k Piles sont les k premiers). Si nous fixons une répartition précise. Une telle variable est appe- lée variable de Bernoulli de paramètre p. Ainsi. n UE X Sn = Xi .62 Chapitre 3 – Espace fini ou dénombrable Nous remarquons que chaque variable Xk a la même loi. i=1 Cela veut dire que les n lancés ont donné k Piles et n − k Faces.5. la probabilité de cette répartition est égale à pk (1 − p)n−k . nous obtenons que Ç å n k P(Sn = k) = p (1 − p)n−k . TE CH  LY PO É C OLE 3. p(1 (3. V ar(X) = p − p2 = p(1 − p).2) LY TEC et sa fonction génératrice vaut GO (s) = 1 − p + ps..1 L’espérance et la variance d’une variable aléatoire de Bernoulli de paramètre p valent respectivement E(X) = p .2 Variable aléatoire binomiale • Cherchons maintenant le nombre de Piles obtenus sur les n lancés. Pour tout k ∈ {0. prenant les deux valeurs 1 et 0 avec respectivement les probabilités p et 1 − p.

Ç å n k P(X = k) = p (1 − p)n−k . . Nous avions obtenu cette loi dans nos modèles d’urnes. GX (s) = (1 − p + p s)n U E (3. nous en déduisons que V ar(X) = E (X(X − 1)) + E(X) − E(X 2 ) = n p(1 − p).3 Soit X une variable binomiale de loi B(n. nous obtenons n Ç å X n k G00X (1) = k(k − 1) p (1 − p)n−k = E (X(X − 1)) .2 On dit que la variable aléatoire X est une variable aléatoire binomiale de paramètres n et p. . par (Elle correspond au choix d’un tirage avec remise. p). nous IQ N n Ç å T E CH n k Yn−k = G0X (1) = p n.5.5. E un raisonnement intuitif. p).5. puisque E(X) = np.5.5. Alors. si X prend ses valeurs dans {0. . . k k=1 et par suite.)I Q U EC HN Remarquons que la loi B(1. n}. n} et si pour k ∈ {0. V ar(X)L= (3.3) IQ E(X) = n p EC HN (3. p) P est LY T Ola loi de Bernoulli de paramètre p. (3. .4) YnTp(1 − p). ÉCO n Ç å X n k k GX (s) = p s (1 − p)n−k = (1 − p + p s)n . que l’on note B(n.5.6)  .5 – Variables aléatoires discrètes usuelles 63 Définition 3. .5) E PO L Preuve. . . p (1O−Lp) X E(X) = k P LE k ÉCO k=0 Si nous dérivons deux fois en 1 ce polynôme GX .3. k k=0 U E obtenons que En dérivant GX et en considérant la dérivée de GX en s = 1. LE ÉCO Proposition 3. k Sa loi est une loi binomiale de paramètres n et p.

01 = 0. Nous faisons l’hypothèse que le nombre de médailles remportées par pays est proportionnel à sa population. 9889. ÉC car nous avons supposé que nos lancés étaient indépendants (voir Section 2. p). P(T = +∞) = (1 − p)n . Xk = P ile} = p(1 − p) k−1 . n}. L ECH n.6. U = +∞ sinon.2). NIQ · . Elle vaut Cherchons la probabilité pour que le nombre de médailles C HN Y T E= 1) + P(X = 2) + P(X = 3).5. U E NIQ E C Hd’or. définissons la variable aléatoire T par T (ω) = inf{k ∈ {1. Pour 1 ≤ k ≤ n. · ·O k−1 = F ace. Ç å k Tous calculs faits.T · ·Y L’ensemble des valeurs de T est donc {1. 86. Remarquons que la France a remporté 2 médailles YT P O L LE 3. la loi de la variable aléatoire T de succès du premier Pile est alors une probabilité définie sur N∗ par P(T = k) = p(1 − p)k−1 . si cet ensembleEn’est pas vide . . 99)86−k . Soit X le nombre de médailles prévues pour la France.5.LXE P(T = k) = P(X1 = F ace. 2. Pour ce faire. nous trouvons P(X ≤ 3) = 0. +∞}. On appelle cette probabilité la loi géométrique de paramètre p. E I Q U soit inférieur à 3.3 deOsuccès et variable aléatoire géométrique ProbabilitéÉ C • Toujours sur ce jeu de n lancés de notre pièce. · · · . 01. 86 médailles d’or ont été mises en jeu. Si nous faisons (heuristiquement) tendre le nombre de lancés n vers l’infini. X va suivre une loi binomiale B(86. 01)k (0. intéressons-nous au premier temps où nous allons obtenir un Pile.4 Aux jeux olympiques de Vancouver (2010). pour k ∈ N∗ . Xk (ω) = P ile}. De même. population monde 6000 × 106 Ainsi l’espérance de X sera égale à 86 × 0. PO · . où population France 60 × 106 p= ≈ = 0.64 Chapitre 3 – Espace fini ou dénombrable Exemple 3. P(X ≤ 3) = P(X = 0) + P(X POL avec LE É C OP(X = k) = 86 (0.

5 Une variable géométrique de paramètre p ∈]0.5.8) POL (s) .3.5. IQ UE (3.10) k! Sa loi est une loi de Poisson de paramètre θ > 0. PO LY T O L E ∞ C = ÉE(X) X k p(1 − p)k−1 < +∞.5.7 Nous dirons que X est une variable aléatoire de Poisson de para- mètre θ > 0 si X prend ses valeurs dans N et si sa loi est caractérisée pour tout k ∈ N par θk P(X = k) = e−θ . Proposition 3.5. Il U E faut donc s’attendre à lancer 6 fois un dé équilibré avant d’obtenir le premier 1.5. (3.9) k=1 Calculons la fonction génératrice X ps GX (s) = p(1 − p)k−1 sk = .5. E(X) = 1 . en supposant que l’on répète des épreuves indépendantes de Bernoulli avec même probabilité de succès p (obtention d’un Pile par exemple). en moyenne.5.6 Soit X une variable aléatoire de loi géométrique de paramètre p sur N∗ . I Q EC HN Preuve. (3. P(X = k) = p(1 − p)k−1 . 1[ est une variable aléatoire à valeurs dans N∗ telle que ∀k ∈ N∗ .L E P  ÉCO 3.7) p C HN GXY T=E ps (3. (1−s+p s)2 O LYT Nous en déduisons que E(X) = 1p . jusqu’à l’obtention du premier succès. le nombre moyen des répétitions nécessaires est 1/p. k≥1 1 − (1 − p)s IQ UE Il est immédiat que G0X (s) = p 0 C et donc GE H N1 X (1) = p .5.5 – Variables aléatoires discrètes usuelles 65 Définition 3. 1 − (1 − p)s É C OLE En d’autres termes.4 Variable aléatoire de Poisson Définition 3. .

5. n))j∈N est l’extension naturelle sur N de la loi binomiale B(n. (3. il est facile de vérifier que pour tout j ∈ N.66 Chapitre 3 – Espace fini ou dénombrable Proposition 3. θj pj (an . En développant les combinaisons n j . la probabilité L É CÇOå n pj (an . d’où TEC retrouvons E(X) = θ. n) →n→∞ pj = e−θ . (pj (an . de telle sorte que nan → θ ∈ R+ . 1].12) GX (s) = eθ (s−1) . É CEO(X(X − 1)) = e−θ k(k − 1) θ ∞ X k = θ2 k! k=2 d’où V ar(X) = θ.  PO C OLE É que le nombre d’erreurs Y par page de ce livre suive une Exemple 3. pour an ∈ [0.5. an ) de paramètre an et de taille n.13) Preuve. 39. Soit X une variable aléatoire de Poisson de paramètre θ.14) Ainsi.5. Son espérance vaut θk Q U E ∞ k e−θ N I= X E(X) = θ. LY E P O sur N définie par Considérons. n) = (an )j (1 − an )n−j si j≤n j = 0 si j ≥ n + 1. (3.4.11) V ar(X) = θ. E I Q U au point s = 1.8 Soit X une variable aléatoire de Poisson de paramètre θ. vu que E(X) = θ. En dérivant deux fois. Calculons la probabilité qu’il y ait au moins une erreur dans une page donnée : 1 P(Y ≥ 1) = 1 − P(Y = 0) = 1 − e− 2 ≈ 0. alors E(X) = θ.5. C H k! YTE k=0 P O L LE Par ailleurs. UE H NIQ TEC La loi de Poisson comme limite de lois binomiales.5.3) nous pouvons aussi déduire la valeur deLVYar(X). (3. Supposons alors que la suite (an )n tende vers 0 quand n ∗ tend  vers l’infini. En dérivant N H donne E(X(X − 1)) = θ .5.2 nous Il est facile de montrer que GX (s) = eθ (s−1) . j! . (3. (3.9 Admettons loi de Poisson de paramètre 12 .

que nous pouvons supposer eux-mêmes finis ou dénombrables. • le nombre de centenaires dans une communauté ECH Y Tun bureau de poste en l’espace d’un jour.5. Il permet de remplacer la loi binomiale par la loi de Poisson. Comparons EC k P(X =Lk) O Y T P(Z = k) 0L E P 0. E N IQU 3.3660 0. et pYj = P(Y = yj ) pour yj ∈ G. muni de la probabilité P. .4231 É C O1 0. On peut citer beaucoup d’exemples de variables aléatoires qui obéissent à une loi de E : Poisson.6.3.0448 L’approximation est très bonne.4. Ce résultat est très utile pour les calculs numériques. Nous supposons que X et Y sont à valeurs respectivement dans F et G. ce qui conduit à des calculs beaucoup plus simples. nous considérons deux variables aléatoires X et Y définies sur le même espace Ω fini ou dénombrable. • le nombre de bactéries O C • le nombre deÉparticules émises par un gramme de matière radioactive.6 – Lois conditionnelles et indépendance 67 La loi de Poisson modélise donc la probabilité du nombre d’apparitions d’un évé- nement rare (an ∼ nθ est petit) dans une suite infinie d’événements (n grand).4213 0.1 Lois conditionnelles Nous rappelons ici que les notions de probabilités conditionnelles et d’événements aléatoires indépendants ont été introduites au chapitre 2. La variable aléatoire X peutQêtre I H N les probabilités : riable aléatoire Z de loi de Poisson P(0. • le nombre de clients entrant dans P OL L Edans un volume de liquide fixé. Dans ce paragraphe.1571 0. U Eapprochée par une va- Reprenons l’exemple 3. 86).1564 3 0. (parce que l’on approxime ainsi une loi binomiale) U N I Q humaine.5.0444 0. • le nombre d’objets défectueux trouvés pendant un contrôle de qualité.3639 2 0. dans le cas où l’on souhaite modé- liser les occurences d’un événement rare. Nous posons pX i = P(X = xi ) pour xi ∈ F .6 E C H aléatoires indé- Lois conditionnelles et variables Y T pendantes E POL L ÉCO 3.

zk ∈ F × G) la loi du vecteur aléatoire Z. Y |X=x La loi conditionnelle de Y sachant X = xi est donc caractérisée par { (yj . Y ) comme une variable aléatoire discrète à valeurs dans le produit cartésien F × G. Nous avons en fait les relations suivantes. yj ∈ G}.68 Chapitre 3 – Espace fini ou dénombrable La connaissance des deux lois PX et PY ne donne pas d’information sur les liens qui peuvent unir les comportements aléatoires de X et de Y .6. CO couple (X. Il est plus intéressant de considérer le couple Z = (X. yj ). les rôles de X et de Y pourront être échangés. Pour zk = (xi . E N I Q U loi conditionnelle Définition 3. pour chaque valeur fixée priori que X = xi . Ces lois conditionnelles sont a priori différentes pour chaque valeur de xi et différentes de la loi marginale P Y . Y ) de Évariables Considérons l’expérience suivante. Notons PZ = (pZ k . via . Y T OL PXPet PY de X et Y s’appellent les lois marginales du Définition 3. et les (pX i : xi ∈ F ) et (p j : y j ∈ G) pour xi ∈ F tels que pX i > 0. Par exemple.3 Il est équivalent de connaitre les (pZ k : zk ∈ F × G) avec zk = Y |X=xi (xi . Soit X le résultat du dé rouge. à la loi de Y avec l’information a valeurs supérieures ou égales à 4.Calors E T O xYi de X.2 Soit xi ∈ F tel que P(X = xi ) > 0.6. CO É Dans la suite de ce paragraphe.1) ÉCO pj = P(Y ∀yj ∈ G. ce quiLn’est pas le cas si X = 1.6. Nous lançons en même temps un dé rouge et un dé bleu. yj ) ∈ F × G E N I QU ECH i pZ = P(Z = zk ) = P(X k = x et Y = yj ). si X = 3.6. pj i ). Il est E possibles que peut Uvaleurs Q clair que la connaissance de la valeur de X va influer surIles H N Y ne pourra prendre que des prendre Y et sur sa loi. Il est donc naturel P LE de s’intéresser. et Y le résultat de la somme des deux dés.1 Les lois E L aléatoires X et Y . Proposition 3. On appelle ECH de Y sachant X = xi la probabilité sur G définie par YT P O L Y |X=xi L E= yj |X = xi ) (3.

En effet. (3. Y = yj } = {Z = (xi . yj )) pj = si P(X = xi ) > 0. (3. pj ). Y = yj ) = E(|Y |) i i j et le théorème de Fubini (voir (S9)). sa variance ou plus généralement ses moments. (3.2.6 – Lois conditionnelles et indépendance 69 les formules : X P(X = xi ) = P(Z = (xi . U dès que Y est intégrable.6.5. E U que si pXi = 0 nous Enfin si pX i = P(X = xi ) > 0. Remarquons tout d’abord que l’ensemble {X = xi } estElaPréunion (finie ou dénombrable) des ensembles deux-à- deux disjoints {X É=CxiO L .3.3.6. Nous pouvons lui associer son espé- E Par exemple. (3.4). yH avons a fortiori P(X = xi .2) découle immédiatement de la σ-additivité (2.1).2 Espérance conditionnelle Pour i fixé tel que pX i > 0.5 La série définie en (3.4) découle de (3.6.6. rance. la loi conditionnelle de Y sachant X = xi donnée par Y |X=i { (yj . yj )) = (3. donc (3. TE Y P O L intégrable.5) j j Remarque 3. dès qu’ils existent. . Il suffit de montrer les trois de l’énoncé. yj )} pour yj ∈ G. L’espérance conditionnelle de Définition 3. yj )).2) yj ∈F Y |X=xi P(Z = (xi .4) 0 UE IQ sinon N T Yformules ECH O L Preuve. nous pou- vons utiliser l’observation suivante X XX E(|Y | |X = xi )P(X = xi ) = |yj | P(X = xi .6.6. (3.6. Y = yj ) = P(Z = (x YT j )) = 0 d’après (2.  P O L LE É CO 3.6. ÉCO Y sachant {X = xi } est l’espérance c’est-à-dire Y |X=xi X X E(Y |X = xi ) = y j pj = yj P(Y = yj |X = xi ).6.2).6.3) N I Qtandis EiC.5) est bien convergente.4 Soit Y une variable aléatoire E L de la loi conditionnelle de Y sachant {X = xi }.6. son espérance conditionnellement N I Q à {X = xi } sera définie C H comme suit. yj ∈ G} définit une probabilité.6.3) P(X = xi ) P(X = xi ) P(Y = yj |X = xi ) si P(X = xi ) > 0 ( P(Z = (xi .3) vient de la formule (2.

Définition 3. elle hérite des propriétés usuelles de l’espérance : .3). LY que ci-dessus où on a remplacé yj par |yjO T E C en utilisant le même calcul grabilité de ψ(X) et du théorème de Fubini sont montrées  P LE ÉCO Ce résultat permet de calculer E( Y ) en conditionnant par une variable auxiliaire X : X E( Y ) = E(Y | X = xi ) P(X = xi ) i Il généralise la formule des probabilités totales (2.6.6. que nous noterons ψ(xi ). et E(Y UE EY ) . Nous avons ÉC OL X X E( ψ(X)) = ψ(xi ) pX (xi ) = y j pY | X=xi (yj ) pX (xi ) i i. Elle n’est définie que sur les valeurs possibles xi de X. dépendant de l’aléa “à travers” la E une ÉC variable aléatoire X.j j Q justification de l’inté- N ILa Nous avons utilisé ici le théorème de Fubini pour les séries.5. et Bi = {X = xi }.j X X = yj pX.70 Chapitre 3 – Espace fini ou dénombrable Cette espérance conditionnelle sachant {X = xi } est une fonction de xi . IQ UE EC HN L Y T qui est un nombre réel. E( ψ(X))Y=TE( CH E POL Preuve.Y (xi . UE i. Théorème 3. O L’espérance conditionnelle possède la propriété fondamentale suivante. et ψ(x) = 0 sinon. (3.6. l’espérance condi- ATTENTION : Contrairement à l’espérance O tionnelle de Y sachant X L est P variable aléatoire. yj ) = yj pY (yj ) = E( Y ). qui correspond ici à Y = 1A .7 Si Y est intégrable.6 On appelle espérance conditionnelle de Y sachant X la variable aléatoire E(Y |X) = ψ(X). Nous pouvons alors plutôt considérer la fonction ψ(X) elle-même.6. (3.7) L’espérance conditionnelle étant définie comme l’espérance de la loi conditionnelle.6) pour x tel que P(X = x) > 0. avec ψ(x) = E(Y |X = x). alors ψ(X) =N I Q| X) est intégrable. H |. On l’écrit souvent sous forme   E E(Y | X) = E( Y ).

2) de la proposition précédente montre que l’on peut calculer les lois marginales PX et PY de X et de Y à partir de la loi PZ de Z.3. comme le prouve l’exemple suivant. (X est fixée comme une donnée connueC aH N YTE priori. E (Y g(X) | X) = g(X) E (Y | X) (3. et (1.6. en général. à retrouver la loi de Z = (X. OLE pN (n) = e . la connaissance des lois marginales ne suffit pas. où p 6= 2 .6. −1) avec probabilité p2 . Chaque voiture décide de s’arrêter à la station avec probabilité p indépendamment des autres. D’après le théorème 3. Dans ce cas.3 Variables aléatoires indépendantes Remarque : La formule (3. −1) et (−1. On note K le nombre de voitures qui s’arrêtent à la station.6.6. De plus. Considérons une variable aléatoire Z qui vaut (1.6. IQ UE C HN YNTp)E = p E( N ) = p λ E( K) = E ( (E (K | N ))) = E( POL LE ÉCO puisque λ = E( N ).6 – Lois conditionnelles et indépendance 71 a) E (aY + bZ | X) = a E (Y | X) + b E(Z | X) b) E (Y | X) ≥ 0 si Y ≥ 0 c) E (1 | X) = 1.8 Le C LE O N de voitures passant devant une station d’essence en É nombre un jour suit la loi de Poisson de paramètre λ > 0. En revanche. NIQ Y T E CÇHå KO| NL n λ −λ n k pP =n p (1 − p)n−k . 1) et (−1. Cherchons E( K). 3.) P O L Exemple 3. 1) avec probabilité 1−p 1 2 .7. les variables aléatoires X et Y prennent . U E Solution : Nous avons par hypothèse. qui doit être considéré “ comme une constante ” dans le calcul deI Q U E conditionnelle sachant l’espérance X. (k) = n! k ÉC D’où X E(K | N = n) = k pK | N =n (k) = n p . au cas où a = g(X). Y ).8) est une généralisation de l’égalité a) ci-dessus. k soit E (K | N ) = p N .

Nous avons la propriété fondamentale suivante. Pour obtenir (i)⇒(ii) il suffit de prendre A = {xi } et B = {yj } dans (3.4). yj ∈ G.9). (3. et leur loi ne dépend donc pas du paramètre p ∈ (0. l’équivalence (ii)⇔(iii) provient de (3.  .9) ÉCO Remarque : la notation P(X ∈ A. E N I QU EC Remarque 3. Inversement.PY ∈ B) = P(X ∈ A) P(Y ∈ B). I Q UE Proposition 3.6. Enfin. supposons (ii). nous obtenons pour A ⊂ F et B ⊂ G : X P(X ∈ A.6.11 (iii) signifie que la loi conditionnelle H de Y sachant X = xi est L Y égale à la loi marginale de Y . ce qui correspond T bien à l’idée intuitive d’indépendance.6. généralisant ainsi la notion d’indépendance introduite pour les événements aléatoires. 1)) + P(Z = (1.6. yj )) (xi . 2 Il est très intéressant d’étudier le cas où l’information que l’on possède sur X ne change rien à la loi de Y .6. Y |X=xi (iii) On a pj = pYj pour tout yj ∈ G et tout xi ∈ F tel que pX i > 0. B ⊂ G elles vérifient OL P(XL∈EA. Y ∈ B) signifie usuellement P({X ∈ A} ∩ {Y ∈ B}) = P(X ∈ A et Y ∈ B).72 Chapitre 3 – Espace fini ou dénombrable les valeurs 1 et −1 avec probabilité 12 . −1)) = .yj )∈A×B X X X X = pX Y i pj = pX i pYj = P(X ∈ A) P(Y ∈ B). Pour le voir. Y ∈ B) = P(Z ∈ A × B) = P(Z = (xi . nous avons calculé par exemple 1 P(X = 1) = P(Z = (1.6. comme la définition 3.10 Il y a équivalence entre : C H N L Y TE (i) Les variables aléatoires X etPYO sont indépendantes. ÉC nous pouvons ci-dessus échanger les Preuve. xi ∈A yj ∈B xi ∈A yj ∈B et (i) s’en déduit.9Pde Ol’indépendance est symétrique en X et Y . E N IQU T E C HY sont dites indépendantes si pour Définition 3. de lois respectives pX et LE ÉCO Y p .6. O E L variables aléatoires X et Y .9 Les variables aléatoires X et Y toutes parties A ⊂ F . (ii) On a P(Z = (xi .3) et (3.6. yj )) = P(X = xi )P(Y = yj ) = pX Y i pj pour tous xi ∈ F . Bien entendu. 1) choisi. En sommant par paquets dans la série à termes positifs.

Soient f et g deux fonctions réelles sur F et G respectivement.6. telles que f (X) ∈ L1 et g(Y ) ∈ L1 . la variable aléatoire f (X) g(Y ) est intégrable.) Nous posons alors 1 si Ui < p ( Xi = 0 si Ui > p Il est facile de voir que les variables aléatoires Xi sont indépendantes et de loi de Bernoulli de paramètre p. (3. 1 ≤ i ≤ n) = Πni=1 pxi (1 − p)1−xi = p xi (1 − p)n− xi .6 – Lois conditionnelles et indépendance 73 Proposition 3. 1]. 1}.13 Considérons n variables O LYT aléatoires de Bernoulli (Xi )ni=1 indépen- dantes et de paramètre p ∈]0. . un paramètre p ∈]0.10). ÉC xi ∈F yj ∈G qui est fini par hypothèse.10) Preuve.3. Alors le produit f (X) g(Y ) est aussi intégrable et vérifie E (f (X)g(Y )) = E (f (X)) E (g(Y )) . En utilisant alors (S8). N IQ T ECH Nous souhaitons simuler ces n variables O P LY de Bernoulli indépendantes et de aléatoires L E un générateur de nombres au hasard.6. .yj )∈F ×G xi ∈F. .12 Supposons les variables aléatoires X et Y indépendantes. (3. vaut P P P (Xi = xi .yj ) = |f (x N IQ ECH (xi .e. nous pouvons écrire UiE) g(yj )| pXi pYj X X |f (xi ) g(yj )| pZ (xi . la même démonstration montre que les égalités ci-dessus sont E également vérifiées en enlevant les valeurs absolues : nous obtenons (3.E P L CO É i ∈ {1.6. . 1[. i. U  IQ EC HN Exemple 3. n}. Nous allons utiliser algorithme qui fournit une É C Ode nombres compris entre 0 et 1 ayant les mêmes suite caractéristiques que les tirages (Ui )ni=1 d’une suite de variables aléatoires indépen- dantes de loi uniforme sur [0. pour égale à x1 · · · xn .6. 1[.yj ∈G LYT !Ñ é P O X |f (xi )| pX X |g(yj )| pYj OLE = i . . Par suite.11) et nous retrouvons les résultats donnés au chapitre 2 (modèlesU E d’urnes).6. Exactement comme dans la démonstration précédente. (Voir le chapitre suivant pour la définition d’une loi uniforme. La probabilité que la suite X1 · · · Xn soit Soient xi ∈ {0.

6.6. le nombre de femmes X et celui des hommes Y parmi les clients quotidiens sont des variables aléatoires indépendantes. Pour (3.10.6. (3. et U = X + Y . L ÉCO j∈Z j∈Z (3. Soit p la probabilité qu’une personne entrant dans le bureau de poste soit une femme. P O = i − j) = E j)P(Y X X P(X + Y = i) = P(X = P(X = i − j)P(Y = j).12) U E NIQ j∈Z j∈Z onCa H LY TE En particulier si X et Y sont indépendantes.6. Y  E POL Remarque 3. le lecteur pourra utiliser les calculs de l’exemple 3.6. à va- leurs dans F = G = N.6. et suivent des lois de Poisson de paramètres respectifs λ p et λ (1 − p).4 Somme de variables aléatoires QU N I indépendantes Y T ECH P OlaLloi d’une somme de variables aléatoires indépen- Les résultats suivants concernent E L très utiles dans la pratique. E 3.12).6. i − j)) = P(Z = (i − j. de loi de Bernoulli de paramètre p. (3. (3. Nous avons alors pour tout s ∈ [0. 1] GU (s) = GX (s) GY (s). p) doit être interprétée comme la loi de la somme de n variables aléatoires indépendantes.74 Chapitre 3 – Espace fini ou dénombrable Exemple 3.14) .12) et de (ii) de la proposition 3. Y ). Preuve.17 Supposons les variables aléatoires X et Y indépendantes. la loi binomiale B(n. Dans ce cas. Y et U . En particulier.6. Y = j} pour j ∈ Z.13) La loi de X + Y est donc obtenue grâce à un calcul de convolution discrète.3. GY et GU les fonctions génératrices de X. Ainsi. p).6.6.6. Pour s’en assurer.6.8. Y = i − T E CH j} j ∈ Z. Proposition 3. Ce sont des résultats Proposition 3. Alors X X P(X + Y = i) = P(Z = (j. il suffit d’appliquer (2.6. et aussi des {X = i − j.4) et le fait que {X Q +UY E = i} est la réunion N Ipour des ensembles deux-à-deux disjoints {X = j.6.14 On admet que le nombre de clients dans un bureau de poste pen- dant une journée soit une variable aléatoire de Poisson de paramètre λ.15 Supposons que X et Y soient deux variables aléatoires à valeurs dans Z et notons Z = (X.16 Ces formules OL É C peuvent se généraliser à la somme de n variables aléatoires indépendantes.13) découle immédiatement de (3. ÉCO dantes. j)). Notons GX . (3.11) entraîne que la somme S = X1 + · · · + Xn de n variables aléatoires indépendantes de loi de Bernoulli de paramètre p suit une loi binomiale B(n.

3 Le nombre d’accidents N en une semaine dans une usine est aléatoire d’espérance m et de variance σ 2 . En appliquant encore (3.3. . nous en déduisons que X+Y suit la loi binomiale B(n + m.7. V ar(X).5. 1].7 – Exercices sur le chapitre 3 75 Preuve. . p) (avec le même paramètre p).2 Si X prend ses valeurs dans N. p) et B(m.3). Quelle est la loi de X ? Calculer E(X). 3. É CUO(s) = e G de sorte que X + Y suit la loi de Poisson de paramètre θ + ζ.  Ce résutat permet d’identifier dans certains cas très facilement la loi d’une somme de variables aléatoires. On suppose que les sauts que P(n-ième saut) = n1 . Le nombre d’individus X blessés dans . Exemple 3.5. . U = X + Y vérifie EP L θ(s−1) eζ(s−1) = e(θ+ζ)(s−1) . U = X + Y vérifie POL GUÉ (s) OLE C = (1 − p + ps)n (1 − p + ps)m = (1 − p + ps)n+m . .5. D’après O (3.10). et d’appliquer (3. É C O Soit X le dernier saut réussi.7. EXERCICE 3. k=0 EXERCICE 3.3) et la proposition 3. montrer que ∞ X E(X) = P(X > k). .6. n.7.6. D’après (3. p).2. et LE tées 1.1 Un sauteur tente de franchir O LY T Edes hauteurs successives numéro- P sont indépendants les uns des autres. . . GU (s) = E(sU ) = E(sX+Y ) et GX (s) = E(sX ) et GY (s) = E(sY ). .4. Il suffit de remarquer que pour s ∈ [0.7 Exercices sur le chapitre 3 IQ UE C HN EXERCICE 3. U E • 2) Soient X et Y des variables aléatoiresC H NIQ Y T E indépendantes de loi de Poisson de L paramètres respectifs θ et ζ.18 E I QU Nindépendantes E C H • 1) Soient X et Y des variables aléatoires de loi binomiale res- Y T pectivement B(n.13).

76 Chapitre 3 – Espace fini ou dénombrable un accident est aléatoire. 48)k−n 1 pk. Tous ces événements sont supposés indépendants. LE ÉCO Montrer que les variables aléatoires Z et X ne sont pas indépendantes mais que Y et X le sont. En déduire la valeur des espérance et variance de Y . Nous supposons que la probabilité qu’une famille ainsi ECH Y52)Tn (0. d’espérance µ et de variance τ 2 . µ et τ 2 . σ 2 . IQ UE C HN O LYTE P LE ÉCO I Q UE On note X (respectivement Y ).4 On étudie le flux de véhicules durant une tranche horaire donnée à un raccordement de routes. On appelle Xn le résultat du n-ième lancer et on suppose que P(Xn = 1) = p. qui associe 1 à Pile et 0 à Face. .7. en fonc- tion des fonctions génératrices de N et de X.6 Considérons un jeu de Pile ou Face. X = n) = L e−2 2k (0. Donner la loi conditionnelle de X sachant Z = k. EXERCICE 3. 1[. Les variables aléatoires X et loi de Poisson de paramètres respectifs E O L Y sont supposées indépendantes. EXERCICE 3. et donc S = XH+N Y véhicules empruntent l’auto- LY T E C par des variables aléatoires de route après le raccordement. X et Y sont modélisées P O λ > 0 et µ > 0. X le nombre de filles choisie possède k enfants dont n filles. Donner la fonction génératrice du nombre Y d’individus blessés par semaine. EXERCICE 3.7. ÉC Déterminer la loi de S et l’espérance conditionnelle de X sachant S.7.5 Soit Z le nombre d’enfants d’une famille . le nombre de véhicules empruntant la première (res- pectivement la deuxième) branche. où p ∈]0. O P n!(k − n)! {0≤n≤k} . décrit dans le dessin ci-dessous. est donnée par : N I Q UE et Y le nombre de garçons. En déduire l’espérance conditionnelle de X sachant Z. en fonction de m.n = P(Z = k.

Up . Xn−1 (ω) 6= Xn (ω)} si cet ensemble est non vide et T (ω) = +∞ sinon. 3) On désigne par XT la variable E O L Quand a-t-on É C P ((XT . Soit Q la probabilité sur N∗ définie par c Q({x}) = .7.7. IQ UE C HN 2) Calculer Q(Up ≥ n). 1)) ? UE EXERCICE 3. .3. EXERCICE 3.a. Cvariables 4) Calculer la fonction génératrice de la v. 0)) = P ((XT . x = Πp∈P pUp (x) . les É O L (Up )p sont indépendantes. Alors ai xi ai ψ(xi ) ÅP ã P ψ Pi ≤ iP . On T: NC sait que tout x ∈ N s’écrit de manière uniqueEcomme ∗ produit de puissances entières O L de nombres premiers de P. L Y P O aléatoire définie par XT (ω) = XT (ω) (ω). n}.Montrer que P(T < +∞) = 1. XT +1 ) = (1. Rappel : Considérons ψ une fonction strictement convexe. UE a .7 On note P l’ensemble des nombres H N I Qpremiers différents de 1. x2 1) Trouver la loi de Up . . IQ HN TEC b . i ai i ai . XT +1 ) = (0. pour chaque p ∈ P. des réels xi et des réels positifs ai dont l’un au moins est non nul.Calculer P(T = n). . (0 < c < ∞). et pour i ∈ {1.8 Probabilités de Gibbs sur un système fini. Il existe donc Y U ∗ → N telle que P p O LE É C ∀x ∈ N∗ . pour n ≥ 2. sont-ils indépendants ? Discuter selon p. O LYTE E P 3) Montrer que pour Q. En déduire son espérance et sa variance. . 2) On introduit la variable aléatoire T définie par T (ω) = inf{n. pour n ∈ N.7 – Exercices sur le chapitre 3 77 1) Les événements An = {Xn−1 6= Xn }.

U (ω) = maxΩ U }. où E ∈ ] minΩ U. On notera p une probabilité p = {pi . et pour 2) Considérons une variable aléatoire réelle U .1) β→+∞ Ω β→−∞ Ω 2-c) Montrer que l’application définie sur R par β 7→ ln Z(β) est de classe C ∞ et que ln Z)0 (β) = −hU iµβ . lim hU iµβ = max U.T ECH 1] → [0. nous noterons hU iTp E C espérance et Varp (U ) sa variance. i=1 IQ UE i=1 N :Y 1-a) Vérifier que la fonction φ L [0. En déduire que la fonction β 7→ ln Z(β) est strictement convexe. n} de cardinal n. . .78 Chapitre 3 – Espace fini ou dénombrable avec égalité si et seulement si tous les xi sont égaux. U (ω) = min E U }. i = 1. L E É CO 1-b) Montrer que H(p) = 0 si et seulement si p est une mesure de Dirac sur Ω. n} sur Ω. .LY TEC µβ devient une probabilité uniforme sur P O L l’ensemble Ωmin := {ω. son L Y E PO Nous appellerons fonction de partition associée à l’énergie U la fonction qui à chaque β ∈ R associe le nombre L É C O Z(β) = X n e−βU(ωi ) . i = 1. 1) Soit un espace de probabilité fini Ω = {ωi . ln Z)00 (β) = Varµβ (U ). 3) Notre but est de rechercher une probabilité µ sur Ω qui maximise l’entropie p → H(p) et telle que hU iµ = E. UE N I Q non constante. . On définit l’entropie de cette probabilité p en posant n X n X H(p) := − p(ωi ) ln p(ωi ) = − pi ln pi .7. +∞[. φ(t) = −t log t est strictement P O concave. . . supposée H p une probabilité sur Ω. . (3. . et que lorsque β → −∞. En déduire que Ω probabilité uniforme sur Ωmax lim hU iµβ = min U . i=1 La probabilité de Gibbs associée est alors définie pour chaque wi par µβ (ωi ) := e−βU (ωi ) Z(β) · IQ UE 2-a) Que vaut ln Z(0) ? HN 2-b) Montrer que quand β tend vers +∞. maxΩ U [ est donné. . µβ devient une É C:=O{ω. 1-c) Montrer que H(p) ≤ ln |Ω| = ln n.

3. 3-c) Montrer que la fonction p 7→ H(p) − βhU ip − ln Z(β) est négative ou nulle. E IQU H N∈ R tel que hU iµβ = E. et qu’elle est nulle si et seulement si p = µβ .7 – Exercices sur le chapitre 3 79 On acceptera que. . 3-a) Montrer qu’il existe un unique β =Cβ(E) E LY T P O l’entropie. . n}) 7→ F (p) := H(p) − β (hU ip − E) − λ pi i=1 où β est un paramètre à déterminer par la contrainte hU iµ = E et λ un paramètre à déterminer par la contrainte que µ est une probabilité. UE H NIQ LY TEC En déduire que µβ est bien un maximum et que c’est en fait l’unique maximum. Montrer qu’alors son entropie vaut 3-b) Supposons que µβ maximise LE ÉCO H(µβ ) = ln Z(β) + β E. i ∈ {1. par un théorème de Lagrange. . . E PO L ÉCO IQ UE C HN O LYTE P LE ÉCO . µ doit être un extremum de la fonction n ! X p = (pi . Ces paramètres sont les “multiplicateurs” de Lagrange.

IQ UE C HN O LYTE P LE ÉCO U E NIQ TE CH LY PO LE ÉCO IQ UE C HN O LYTE P LE ÉCO .

1 Les variables aléatoires réelles IQ UE C HN Les variables aléatoires que nous considèrons Y L TE maintenant peuvent être à valeurs dans R tout entier.. Une appli- cation X de Ω dans R est une variable aléatoire réelle si X −1 (B) = {X ∈ B} ∈ A pour tout B ∈ B(R). 81 . . Xn sont des variables aléatoires réelles et si f est une fonction continue de Rn dans R. .1.2 Si X1 . . définie en Définition 2. .5. Je crois au hasard avec une obstination constante . Cela nous conduit à poser : contienne la tribu borélienne B(R) de R.4. . Xn ) est une variable aléatoire réelle.. . c’est même cela qui fait que lorsque je vois. . alors Y = f (X1 . 4.1 L E É C O 4.Chapitre 4 IQ UE C HN O LYTE Variables Laléatoires E réelles et P ÉCO Vecteurs aléatoires U E NIQ Y T ECH P O Ld’autre. Nous avons alors le résultat très utile suivant : Proposition 4.3.1 Soit Ω l’espace d’état muni de la tribu A des événements. .1.2. Nous souhaitons que la P Otribu E définie dans la proposition 2. je vois commeL E personne ÉCO Nicolas de Stael. La justification de ce choix se trouvera au paragraphe Définition 4.1.

et X est une E variable aléatoire. yi. .6. il est clair que R est une tribu contenue dans B(R).3) n≥1 n≥1 (En effet. . où Yn = supi≥n Xi .1. l’intersection et le passage au complémentaire. .j < Xj < yi. O LY inf Xn . . (4. sont 1≤n≤p P des variables aléatoires.j }.1. nous E  PO LY T Comme application de cet O L E ou de la partie 1) de sa preuve. (4. . a]) appartient à la tribu A pour tout a ∈ R.j } ∈ A. sont des variables aléatoires. Xn ) ∈ A} = ∪i {(X1 . sont des variables aléatoires. et elle contient les intervalles ] − ∞.2) LE 1≤n≤p • ÉCO sup Xn .3 Soient X. et nous appliquons deux fois (4. .3)). et nous avons Ei ∩j=1 {xi. . Comme par hypothèse {xi. . il suffitLY de montrer que les ensembles {Y ≤ a}. même chose pour l’inf. 1) Montrons d’abord un résultat auxiliaire.j .) • Si Xn (ω) →n→∞ Z(ω). N IQU T E CH 2) D’après ce qui précède. sont dans A pour tout a ∈ R. Il s’écrit donc comme réunion dénombrableQA = ∪i∈N Ai d’ensembles Ai qui sont des “rectangles ouverts” de la forme Ai = nj=1 ]xi. si Y 6= 0. ∀ ω. XY. . à savoir que si X est une appli- cation de Ω dans R telle que {ω : X(ω) ≤ a} = X −1 (] − ∞. (4. a] par construction. • X X + Y. ou de E P O{Y > a}. Alors.3.1. Xn ) ∈ Ai } = ∪ N IQU C H en déduisons le résultat.1. Par la proposition 2. et appliquons la partie 1) de la preuve précédente . alors X est une variable aléatoire réelle. inf Xn . ce qui veut dire que X −1 (B) ∈ A pour tout B ∈ B(R). Pour cela. (4. nous avons les énoncé propriétés suivantes. nous avons donc R = B(R). Y et (Xn )n∈N? des variables aléatoires réelles.j [. A = {x É∈CRO n : f (x) > a} est un ouvert.1. Or f étant L manière équivalente les ensembles continue. É C Proposition 4. Comme l’image réciproque X −1 commute avec la réunion.4) (Nous avons en effet Z = inf n Yn . nous notons R l’ensemble des B ∈ B(R) tels que X −1 (B) soit dans A.1) E IQU Y N CH • T E sup Xn .j < Xj < yi.1. n {Y > a} = {(X1 . remarquons que {supi Xi ≤ a} = ∩i {Xi ≤ a} ∈ A par hypothèse.82 Chapitre 4 – Variables aléatoires réelles et Vecteurs aléatoires Preuve. alors la limite Z est une variable aléatoire .

4.5) (Il suffit de remarquer que Z −1 (B) est égal à ∅. T E C HN La propriété d’une fonction mesurable que nous retiendrons sera que si X est une P O LY LE É CO 4.1. A. ÉCO 4. {1}. Dans le cas où n = 1 (le cas général sera vu ultérieurement). a]. Rappelons que la tribu borélienne de R est engendrée par les intervalles de la forme ] − ∞.1.2 – Les lois de variables aléatoires réelles 83 • Z = 1A (indicatrice de A) est une variable aléatoire ⇐⇒ A ∈ A. Ac ou Ω selon que B ∩ {0. 1}). (4. H NIQ PX (B) = P(X ∈TB). {0} ou {0. Ces fonctions seront définies comme suit.4 Une fonction f de ECH YRT dans R est dite mesurable si l’image réci- O L proque par f d’un ensemble deP la tribu borélienne de R est un ensemble de la tribu LE borélienne.1. a]) est un ensemble de la tribu borélienne. 1} soit égal à ∅. C’est la probabilité définie sur R muni de la tribu borélienne B(R).2 à des fonctions f beaucoup plus générales.2. qui vérifie pour tout ensemble U Eborélien B ∈ B(R).2 implique qu’il suffit de montrer que pour tout a réel. avec a ∈ Q.1 Fonction de répartition 1) Définition Soit X une variable aléatoire réelle et PX sa loi. CO É La partie 1) de la preuve de la Proposition 4. f (X) l’est aussi.1.U E N IQ Définition 4.2 Les lois de variables aléatoires réelles Dès lors que la notion de variable aléatoire réelle est bien établie. Cette I Q U E le cadre de ce cours. définition est liée à la théorie de la mesure qui dépasse largement variable aléatoire réelle. nous pouvons généraliser la Proposition 4. . appelées fonctions mesurables.4. nous pouvons définir rigoureusement la loi PX de X introduite en Section 2. f −1 (] − ∞. Y EC O L L Nous sommes donc amenés à étudierEcePqu’est une probabilité sur R muni de sa tribu borélienne.

3. Cet ensemble contient R. x]) = P(X ≤ x). voir le livre de Jacod-Protter pour une preuve). ∅ et est stable par passage au complémentaire et par réunion finie (on dit que c’est une algèbre). +∞[) = 1 − F (x). Un résultat difficile de théorie de la mesure (que nous admettrons. 2) La croissance de F est immédiate. nous remarquons que si la suite xn décroît vers x. Mais nous avons vu (Proposition 2. 1) D’après (6. Puisque PX (]x. Nous verrons ci-dessous une caractérisation des points où elle est continue. Preuve.2. Définition 4.PyO X PX (B) = i ]) = (F (yi ) − F (xi )). notons plus simplement FX par F . LE ÉCO i=1 i=1 car les intervalles sont disjoints.2 Si PX est la mesureY deTDirac O L de répartition est la measure de Heaviside en si X = 0 presque-sûrement. Pour montrer (ii).84 Chapitre 4 – Variables aléatoires réelles et Vecteurs aléatoires Un résultat fondamental sur R.2. et lié à cette propriété de la tribu borélienne. objet mathématique que l’on connait beaucoup mieux. yi ]. UE Q Proposition 4.2. avec xi < yi < xi+1 .3. xn ] décroît vers ] − ∞.3. On appelle fonction de répartition de X la fonction suivante : FX (x) = PX (] − ∞. +∞[. montre que la connaissance de PX sur cette algèbre suffit à déterminer entièrement PX sur la tribu engendrée par cette algèbre. y] ou ]x. est que la probabilité PX est caractérisée par une fonction réelle de variable réelle. (4. E si B = ∪ni=1 ]xi . la Pfonction L E = 1 si x ≥ 0. y]) = F (y) − F (x) pour tous x < y.1) IQ UE C HN E en 0 (voir Exemple 2. x] et donc F (xn ) décroît .6) que cette tribu est la tribu borélienne. ∀x ∈ R. limx↑+∞ F (x) = 1. alors ] − ∞.2.14). c’est-à-dire Exemple 4. Par suite. Puisqu’il n’y a pas ambiguité. nous avons PX (]x. nous en déduisons finalement que F caractérise la restriction de PX à l’ensemble de toutes les réunions finies d’intervalles disjoints de la forme ]x.3 La fonction de répartition FX H NI caractérise la probabilité PX et elle T E C O LY vérifie les trois conditions suivantes : P LE • (i) elle est croissante • É CàOdroite (ii) elle est continue • (iii) limx↓−∞ F (x) = 0. OH(x) 0 : H(x) = 0 si x < 0 et ÉC Remarque : L’exemple ci-dessus montre qu’en général. une fonction de répartition n’est pas une fonction continue. nous avons IQU N TE CH LYX n n PX (]xi .5).1 Soit X une variable aléatoire et PX sa loi.

croît vers +∞). à savoir les “probabilités discrètes” que nous avons introduites aux chapitres précédents.Oy]) = P(x ≤ X ≤ y) = F (y) − F (x−). vérifiant les conditions (i)–(iii) de la Proposition 4. 2) Fonction de répartition d’une variable aléatoire X discrète Etudions la fonction de répartition d’une variable aléatoire discrète. (4.2) En particulier. Sinon. Y T c’est la fonction de répartition d’une O L borélienne. y]) = P(x < X ≤ y) = F (y) − F (x). PXC PX ([x.  Comme F est croissante. .3 admet une réciproque. Si F est une fonction H N réelle sur R. L Nous donc P O LE ÉCO Proposition 4. On ne peut pas.5 (non démontré). malgré la com- plexité que cela engendre.4.3. (unique) probabilité µ sur R muni de saPtribu E O L les parties de R. P O LY LE É ([x. En remarquant que ]−∞. il est nécessaire d’introduire les tribus en probabilités. d’un point de vue strictement mathématique. nous pouvons facilement obtenir que pour x < y.2.4 PX ({x}) = P(X = x) = 0 ⇐⇒ F est continue en x. PX (]x. elle admet une limite à gauche en chaque point notée F (x−). (iii) se montre de manière analogue. y[) = EC P(x <TX HN < y) = F (y−) − F (x). y[) = P(x ≤ X < y) = F (y−) − F (x−). cela reviendrait à prendre (sans le dire) la tribu P(R) et il n’existerait que très peu de probabilités sur R. y[= limn ]−∞.2. croît vers R) lorsque x décroît vers −∞ (resp. IQ UE PX (]x. en remarquant que ] − ∞. La proposition 4.2. UE IQ EC Théorème 4.2. en général.2 – Les lois de variables aléatoires réelles 85 vers F (x). U E PX ({x}) = F (x) − FH NIQ (x−) Y EC Tavons est le saut de la fonction F au point x. x] décroît vers ∅ (resp. qui est un des résultats les plus difficiles de la théorie de la mesure. yn ] si yn ↑ y.2. définir µ sur la tribu P(R) deCtoutes É Remarque : Le théorème ci-dessus explique pourquoi.

Nous voyons E L CO tinue. La fonction de répartition F de X est alors X F (x) = qi .2.3) Y avec la convention qu’une somme “vide” L P O que la fonction F est purement discon- dans le cas où E = N. E U de l’amplitude pn au point I Qsaute La fonction F est une fonction en escalier qui N n. ∀x < y. via est complètement formule caractérisée par ses sauts ∆F (x) = X F (x) = ∆F (y). discontinue en tout nombre rationnel. 1] et F (x) = 1 pour x ≥ 1. y ∈ [0. quoiqu’au plus dénombrable. . Corollaire 4.3) p0 + .∞[ (x). . 1]) désigne la tribu borélienne sur [0. 1] La fonction F . Nous obtenons alors le corollaire fondamental suivant.4) U E NIQ i∈E: i≤x CH T Evaut 0.6 Si B([0. la loi P(X = i). La loi PX de X est caractérisée par la suite pn = PX ({n}) = P(X = n). 1].86 Chapitre 4 – Variables aléatoires réelles et Vecteurs aléatoires 1) X est identiquement égale au réel a ∈ R. si qi > 0 pour tout i ∈ Q. y]) = y − x . (4. par exemple il peut être égal à l’ensemble des rationnels Q. x. Nous retrouvons bien (4.2. B([0. au sens où elle Éla F (x) − F (x−). 1])) telle que la fonction de répartition soit égale à l’iden- tité : λ(]x. N C Hdonne un exemple de fonction dans R.2. 1]. pour tout k ∈ N∗ . Dans ce E cas. 2) X prend ses valeurs dans N. la fonction FT nous Y P O Let continue partout ailleurs. 1].2. + pn si n ≤ x < n + 1. LE ÉCO 3) La mesure de Lebesgue sur [0. qui vaut F (x) = x sur [0. Puisque F (x) ∈ [0. nulle sur R− . F admet au C E H plus k sauts de taille supérieure à k1 . POLY T si E 3) Plus généralement. sa- tisfait les hypothèses du théorème 4.2. 1]. Alors sa loi est la mesure de Dirac en a et sa fonction de répartition est F (x) = 1[a. La fonction de répartition F de X vaut alors 0 si x < 0 ( F (x) = (4.5. L X prend ses valeurs dans une partie finie ou dénombrable É CPXOde X est caractérisée pour tout i ∈ E par qi = PX ({i}) = E de R. y≤x E peut être dense IQU Notons aussi que l’ensemble E. . il existe une unique probabilité λ sur ([0. n ∈ N.

cette probabilité ne charge pas les points : λ({x}) = 0. x]. ou Dans la suite de ce chapitre nous aurons continuellement à considérer des intégrales P LE de fonctions réelles sur R.5) −∞ Si f est comme ci-dessus. 1].2. TE C LY PO E f définie sur R est une densité de probabilité.2.2. et vérifie Z +∞ f (x)dx = 1. Dans ce qui suit nous parlerons de fonctions intégrables. C’est donc la fonction de répartition d’une probabilité. −∞ . la fonction IQ UE EC HN Y T(y)dy x Z F (x) = PO L f (4. et donc si pour tout réel x. si PX admet la densité f .7 Une fontion É C O Lréelle simplement une densité. le graphe de f .3.1.2. délimitée par l’axe y = 0. (4. On dit que X a une loi de densité f (ou par abus de langage “ est de densité f ”). iii) É de la Proposition 4. ii.6) OLE −∞ C vérifie les propriétés (i. Le paragraphe suivant est consacré à un exemple très important. non discrètes. ce qui implique R +∞ plus précisément que l’intégrale généralisée −∞ |f (x)|dx U est I Q HN R +∞ que l’intégrale généralisée −∞ f (x)dx existe. Z x P(X ≤ x) = f (y)dy.8 F (x) est la surface grise dans la Figure 4.2 – Les lois de variables aléatoires réelles 87 Cette probabilité est appelée mesure de Lebesgue sur [0. L’intervalle É CO parfois un intervalle de la forme ]−∞. sur R. Définition 4.4. Il existe bien d’autres probabilités. intégrable. Remarque 4.2. Cela signifie que la fonction f qu’on intègre est intégrable au sens de Riemann ou de Lebesgue (ce qui est plus général). et la droite verticale d’abscisse x. selon les connaissances préalables du lecteur. ou Définition 4.2 QU Variables aléatoires de loi à densité NI H TEC O LY d’intégration sera en général R tout entier.2. 1]. ∀x ∈ [0.9 Soit X une variable aléatoire . Il s’agit donc la plupart du temps d’intégrales “généralisées”. La fonction F étant continue. si elle est positive.2. Nous supposerons E finie. E 4. celui des variables aléatoires dont la loi a une densité.

6) et si nous posons g(x) = f (x) si x∈/ Q et g(x) = f (x) + 1 si x ∈ Q.2. Si en effet nous avons (4. 2) La fonction F est dérivable en tout point x où f est continue. et F 0 (x) = f (x). alors X admet H laN densité T EC fY F 0 (x) =L (x).10 Soit X de loi de densitéEfC N O LYT 1) Sa fonction de répartition FL E P est continue. une densité est définie à un ensemble de mesure de Lebesgue nulle près. nue partout et dérivable par morceaux.12 1) La fonction de répartition est. lorsqu’elle existe.2. entiè- rement déterminée par la probabilité PX .2.1 : Graphe de la densité f et de la fonction de répartition F . Eou seulement conti- IQU 3) A l’inverse. D’une manière générale.2. on a (si du moins f est continue en x) : PX ([x. I Q UE . H Proposition 4.11 Voici une est un “petit” accroissement de la quantité x.88 Chapitre 4 – Variables aléatoires réelles et Vecteurs aléatoires IQ UE C HN O LYTE P LE ÉCO Fig. x + ∆x]) F (x + ∆x) − F (x) f (x) ∼ = . alors g est encore une densité de PX . Si ∆x Remarque 4. (4. de manière évidente.2. ∀x ∈ R. si la fonction de répartition F de X est dérivable. 4.7) ∆x ∆x Remarque 4. . de sorte que É C OP(X = x) = 0. PO C OLE É interprétation “intuitive” de la densité f de PX . La proposition suivante se démontre immédiatement en utilisant des résultats bien connus d’analyse. Il n’en est pas de même de la densité.

4. 100]) = e dx = ≈ 0.13 La durée de fonctionnement d’un ordinateur avant sa première panne est une variable aléatoire positive de densité donnée par ß 1 − x 100 e 100 x≥0 f (x) = 0 x<0 Calculons la probabilité que cette durée de fonctionnement X soit comprise entre 50 et 150 heures. 50 100 e . Nous nous donnons d’une HN part une fonction f positive intégrableEetCd’intégrale strictement positive. Il existe des cas “mixtes”.15 0. tels que E P L É C O Z +∞ X f (x)dx + qi = 1.10 IQ UE HN 0.25 0. Elle vaut Z 100 √ 1 − 100 x e−1 P(X ∈ [50. et O Y la Lprobabilité PX associée n’admet pas de E P densité et n’est pas non plusLdiscrète. et L YT d’autre part une partie finie ou dénombrable O I de R non vide et des qi > 0 indicés par i ∈ I.20 0. −∞ i∈I Alors.5 2) Il existe des variables aléatoires qui n’ont pas de densité U E : c’est le cas des va- I Q riables aléatoires discrètes.8) F (x) = f (y)dy + N I H TEC −∞ i∈I:i≤x est une fonction de répartition.2 – Les lois de variables aléatoires réelles 89 0.5) − F (6))/0. 24. la fonction x E Z QqiU X (4.05 C 0.4. ÉCO Exemple 4.2 : f (6) ∼ (F (6.2.2.00 O LYTE 0 1 P 2 3 4 5 6 7 8 9 10 ÉC OLE Fig.

. modulo ECH PO E entendu. Uau I Q N déterministes par une ré- C H d’entier I = [0. 1]. Commun. up/10 ) devrait avoir les caractéristiques variables aléatoires de loi uniforme sur [0. 31. . • la méthode Math. a = 25214903917 et b = 11. . c’est-à-dire égale à m). . les entiers m. Actuellement. Ces générateurs n’ont donc en fait rien d’aléatoire et c’est pourquoi on les qualifie aussi de pseudo-aléatoires. La séquence (u0 . É CO Une valeur d’une telle variable a autant de chance d’appartenir au voisinage de chaque point de [0.L à partir d’une valeur initiale xO Bien É C soigneusement choisis (on exige au moins que la période p soit maximale.1] (x). 1[ (il est vivement conseillé de ne pas dé- passer le dixième de la période). pour une tous les générateurs sont fondés sur des procédés purement T E currence de la forme xn+1 = φ(xn ) sur un intervalle application φ de I dans I.2. good ones are hard to find. ACM (1988). les générateurs congruentiels linéaires sont produisent une suite d’entiers N xn+1 = a xn + b LY T m. 1]. . Random number generators. m[ ∩ N. Leur densité vaut Y TEC P OfL(x) LE = 1[0. Z 100 √ 1 − x e−1 P(X ≤ 100) = e 100 dx = ≈ 0. a et b doivent être 0 . a = 843314861 et b = 453816693 .random de Java utilise les valeurs m = 248 . Il n’est pas facile1 de trouver un “bon” générateur de nombres E hasard. Exemples de tels générateurs : • la fonction rand de Scilab utilise les valeurs m = 231 . u1 . Ils Sans être les plus récents. p.3 Variable aléatoire uniforme sur [0. 1 Park & Miller. Les valeursP LY Onormalisées un = xn /m sont comprises entre L E É C O statistiques d’une suite de tirages indépendants de 0 et 1. I Q U E très utilisés. 0 100 e 4. La suite (un ) est périodique de période p ≤ m.90 Chapitre 4 – Variables aléatoires réelles et Vecteurs aléatoires Calculons la probabilité que l’ordinateur fonctionne moins de 100 heures. 63. 1] et générateurs de nombres aléatoires UE Q à densité sont les variables uni- N Iloi Les plus simples des variables aléatoires réelles de H formes sur [0. 1192-1201.

} avec x1 < x2 < . x2 .2. Preuve. et F (G(u)) = u si 0 < u < 1OetLsi ÉC Proposition 4. ) une probabilité sur un ensemble dénombrableP{x1 .2. 1]. puisque U suit une loi uniforme sur ÉCO  Exemple 4. . La P P j<i j≤i proposition conduit alors à l’expression naturelle X X X = xi si pj < U ≤ pj + pi . de même que G donnée par G(u) = xi lorsque pj < u ≤ pj . on loiNquelconque. . P(X ≤ x) = P(G(U ) ≤ x) =Y POL P(U L E[0. Nous remarquons facilement que si x ∈ R.4. PO Ela fonction F est continue au point G(u). 1]. . . générée comme ci-dessus.9). F une fonction de répartition et G définie par (4. TEC P O LY Définissons la fonction O L E continue à gauche de “inverse” F par : ÉC G(u) = inf{x : F (x) ≥ u}. dans la mesure où elle vérifie NIQ G(u) ≤ x L ⇐⇒ ECH Y Tu ≤ F (x). .2. i≥1 j<i j<i 2 http ://fr. Elle joue cependant U le même rôle.15 Simulation d’une variable aléatoire discrète. C’est une fonction xi ≤x en escalier.wikipedia. .2 – Les lois de variables aléatoires réelles 91 • Par contre. (4.org/wiki/Mersenne_Twister .9) La fonction G n’est pas à proprement parler l’inverse (ou la fonction réciproque) de F .2. 4. . la fonction grand de Scilab est basée sur un générateur plus per- formant et plus moderne : le Mersenne twister2 de période colossale 219937 − 1. ∀u ∈]0.4 Simulation d’une variable aléatoire par inversion de la fonction de répartition E IQU A partir d’une variable aléatoire uniforme U sur [0. .14 Soit U une variable aléatoire de loi uniforme sur [0. La variable aléatoire Y = G(U ) est alors une variable aléatoire de fonction de répartition F . alorsN I Q UE CH T E≤ F (x)) = F (x). . 1].2. La fonction de répartition associée est F (x) = pi . Soit P = (p1 . 1[. p2 . peut simuler une variable aléatoire réelle X deH dès lors que l’on connaît sa fonction de répartition F . puisque celle-ci n’est pas nécessairement bijective de R dans ]0.E1[.

Remarque : Le choix de la valeur de X lorsque U = 1−p importe peu. car la probabilité que U = 1 − p exactement vaut 0.1) i=1 Nous allons maintenant définir l’espérance d’une variable aléatoire réelle X. nous voulons généraliser la notion d’espérance introduite au Cha- I Q pitre 3 à toutes les variables aléatoires réelles “suffisammentU Epetites” (en un certain N T E C H Nous allons nous contenter de sens). nous considérons une suite (Xn )n de variables aléatoires positives . 1]. disons a1 .1 Définition Dans cette partie. par exemple aux variables aléatoires bornées. et non pas Y T E de Riemann).92 Chapitre 4 – Variables aléatoires réelles et Vecteurs aléatoires qui définit une variable aléatoire X de loi P. nous posons X = 0. ap .3. L’idée natu- résultats partiels. Si X est une telle variable. Aussi. nous posons X = 1. une variable aléatoire de Bernoulli X de paramètre p sera simulée ainsi : • Si U ∈ [0. • Si U ∈]1 − p. elle admet donc une espérance donnée par p X E(Y ) = ai P(Y = ai ). . (4. les résultats complets Oprécédent LE relle est de se ramener au chapitre en approchant X par une suite de C O un nombre fini de valeurs.3 OL Espérance desPvariables aléatoires réelles L E ÉCO 4. . et à la base E Q U aléatoires par une de la théorie de l’intégration de Lebesgue. Construi- sons dans une première étape l’espérance des variables aléatoires positives. D’après (3.3. Ainsi.1 Nous appellerons variable aléatoire étagée toute variable aléatoire Y qui ne prend qu’un nombre fini de valeurs.1). variables aléatoires prenant É Remarque fondamentale : Il est important de comprendre ici que l’on connaît bien l’espace d’arrivée d’une variable aléatoire (ici c’est R) mais qu’on connaît très mal son espace de départ (l’espace abstrait Ω). 1 − p]. l’idée majeure que nous allons exposer ici. est d’approcher nos Ivariables N suite de variables aléatoires obtenues par un découpage CdeH l’espace d’arrivée.3. . POL de l’espace de départ (comme dans le cas de l’intégrale OL E ÉC Définition 4. E N IQU Y T ECH 4. P LYétant difficiles à démontrer.3. .

3) Pn→∞ OLE É Celle est positive.625 0.4.0 3.3. Celle-ci s’écrit X = X + − X − .3. N poser H E(X) = O lim TEC LYE(Xn ). (4. 0) et X − = sup(−X. mais elle peut être infinie.0 0.125 ÉCO 0.5 2. 0) sont les parties positive et négative de X.3 – Espérance des variables aléatoires réelles 93 1.0 1.5 1. et évidemment.375 P O L LE 0. Dans ce cas.500 IQ UE C HN YTE 0. de sorte que |X| = X + + X − .250 0.0 2.2 Nous dirons que la variable aléatoire X est intégrable si les valeurs E(X + ) et E(X − ) sont toutes les deux finies. Considérons maintenant une variable aléatoire X de signe quelconque.000 0.5 4. par É k2−n si k2−n ≤ X(ω) < (k + 1)2−n et 0 ≤ k ≤ n2n − 1 ( Xn (ω) = n sinon.3. où X + = sup(X.3: Découpage “à la Riemann”. 4.5 3. nous avons E(Xn ) ≤ E(Xn+1 ) par (3.000 0.6). montrer qu’elle ne dépend pas de la suite (Xn )n approximante choisie.875 0. (4. en 16 intervalles YT P O L L E C Oexemple étagées croissant vers X. Définition 4. pourvu que celle-ci soit composée de variables aléatoires positives étagées croissant vers X. X + et X − sont deux variables aléatoires positives. On peut Cette limite existe toujours. l’espérance mathématique de .750 0.0 U E NIQ E C H de même longueur de l’abscisse Fig.2) E I Q U et nous pouvons Comme Xn ≤ Xn+1 .3.

5 2.0 3. (4.3 lorsque Ω est fini ou dénombrable.4) Ω Nous appellerons L1 l’ensemble des variables aléatoires intégrables.5 1.250 0.0 1.500 IQ UE C HN YTE 0.625 0.0 U E NIQ E C H de même longueur de l’ordonnée Fig. 4.5 3.3. noté aussi X(ω)P(dω) . Nous pouvons vérifier sans peine que cette définition coïncide avec celle du paragraphe 3. Puisque |X| = X + + X − .5 restent vraies dans notre cadre général.000 0. P ) si l’on souhaite préciser l’espace de probabilité sous-jacent. Nous les rappelons ici : . (par passage à la limite).3.3 Soit X une É X ∈ L1 ⇐⇒ E(|X|) < +∞.000 0.375 P O L LE 0. que les propriétés données dans la proposition 3.875 0.94 Chapitre 4 – Variables aléatoires réelles et Vecteurs aléatoires 1. A.3. la proposition suivante POL LE C Ovariable aléatoire .125 ÉCO 0.0 2. Nous pouvons aussi montrer. Alors Proposition 4. que l’on pourra aussi E noter L1 (Ω. U IQ C HN Y T Eest évidente.5 4. en 16 intervalles YT P O L LE X est le nombre ÉCO Z E(X) = E(X + ) − E(X − ) .750 0.4: Découpage “à la Lebesgue”.0 0.

R Remarque : Cette notion d’intégrale X(ω)P(dω). b ∈ R.3. Définition 4.3. définie sur un espace abstrait muni E d’une mesure de probabilité.6) • Positivité : E N I QU ECH 1 si X ≥ 0 et X ∈ L .4 – Variables aléatoires de carré intégrable 95 • Linéarité : L1 est un espace vectoriel.9) C OLE • S’il existe un réel É b tel que |X(ω)| ≤ b pour tout ω. c’est-à-dire si son espérance E(X 2 ) est finie.5) • X ∈ L1 ⇐⇒ |X| ∈ L1 .4. alors E(X) ≥ 0.1 Variance et Covariance Outre l’espace L1 .4. s’appelle l’intégrale de Lebesgue et fait l’objet d’une im- portante théorie mathématique. Y ∈ L1 . alors X ∈ L1 et E(X) ≤ b. E(aX + bY ) = aE(X) + bE(Y ). (4. alors E(X) ≤ E(Y ).8) Q UE • L’espérance d’une variable constante (ou en fait presque-sûrement I constante) N est égale à cette constante : CHTE L Y O tout ω. (4. (4. comme au Chapitre 3. (4. LY T PO ÉC OLE 4. (4.4.3. alors Si X(ω) = a Ppour E(X) = a.3. Y ∈ L sont telles que X ≤ Y . alors X = 0 presque-sûrement. 1É C OLE • Si X.3. l’espace L2 des va- riables aléatoires X dont le carré X 2 est dans L1 . |E(X)| ≤ E(|X|). positivité) sont encore vraies dans ce cadre. Cette notation et cette terminologie N I Q U d’intégrale sont jus- tifiées par le fait que les propriétés qui étaient vraies pour H E C l’intégrale de Riemann (linéarité.7) Y T Remarquons de plus quePsiOXL≥ 0 et E(X) = 0. et ∀ X. et dans ce cas. nous définissons aussi.4 Variables aléatoires de carré intégrable 4. . ∀ a.1 Nous dirons qu’une variable aléatoire X est de carré intégrable si la variable aléatoire X 2 est intégrable.

3) var(X)var(Y ) Notons que. La linéarité de l’espérance donne immédiatement pour a. s’il n’y a pas d’ambiguïté. la variable aléatoire (X − E(X))(Y − E(Y )) I Q U E variable aléatoire.1) “La variance est égale à la moyenne des carrés moins le carré de la moyenne”.4. b.1) est un cas particulier de (4. ou σ 2 . (4. H NI LY TEC P O LE Nous avons évidemment encore ÉCO V ar(X) = E(X 2 ) − E(X)2 . en utilisant la linéarité de l’espérance. nous obtenons cov(X. b0 ∈ R : E((aX + b)(a0 Y + b0 )) = aa0 E(XY ) + ab0 E(X) + a0 b E(Y ) + bb0 . Y ) ρ(X. la variance peut être rapprochée du concept (par rapport à l’espérance). En effet. a0 . Elle est positive. UE De même que l’espérance a été comparée au centre H N IdeQ gravité d’un ensemble de L Y T E C mécanique de moment d’inertie masses. et si X ∈ L2 .4. Y ) : N ECH LY T − E(Y ))) .96 Chapitre 4 – Variables aléatoires réelles et Vecteurs aléatoires Proposition 4. Y ) = E(XY ) − E(X)E(Y ).7. La preuve est identique à celle de la proposition 3. (4. . (4.4).4.4. » |E(X)| ≤ E(|X|) ≤ E(X 2 ).2 L2 est un sous-espace vectoriel de L1 . Définition 4.4) et d’ailleurs (4.3 Si X ∈ L2 . On appelle covariance de X et Y l’espérance de cette et on la note cov(X. la variable aléatoire XY est dans L1 . sa variance est l’espérance de la variable aléatoire (X − E(X))2 .4.4. O P LE ÉCO Remarquons que si X et Y sont dans L2 . il suffit d’écrire |XY | ≤ 12 (X 2 + Y 2 ). est intégrable. Définition 4.4.3. et sa racine carrée positive σX s’appelle l’écart-typeQde E U X.4.4. Y ) = E ((X − E(X))(Y O (4. car V ar(X) = cov(X. Y ) = p .2) Le coefficient de corrélation O des E P aléatoires X et Y Lvariables est le nombre ÉC cov(X. X).4 Si X et Y sont dans L2 . cov(X. Nous pouvons alors définir la notion suivante. et on la note V ar(X) ou σX2 .

Y ). .4. POL LE ÉCO Remarque 4. d’espérance E(X) et d’écart-type σX > 0. . . E((Y − (aX + b))2 ) = E(Y 2 ) − 2aE(Y X) − 2bE(Y ) + a2 E(X 2 ) + 2abE(X) + b2 . alors il en est de même de la somme. Donc au vu de (4.4. (4. (4. É C O Proposition 4. Le calcul est immédiat.U E (4.6 Soient X1 . .4.4). alors la variable aléatoire E X − E(X) N IQU σX E C H O LYT P1.2 Approximation linéaire Nous considérons deux variables aléatoires de carré intégrable dont nous supposons que les variances et la covariance sont connues. Nous souhaitons trouver la meilleure approximation de Y par une fonction affine de X de la forme aX + b. + V ar(Xn ) + 2 cov(Xi .4. Xj ). . .7) N IQU 1≤i<j≤n H LY TEC P O ci-dessus. . grâce aux formules E L ÉCO 4. c’est à dire qui minimise la quantité E((Y − (aX + b))2 ). + Xn ) = V ar(X1 ) + . et si X est une variable aléatoire de carré intégrable. Or. et nous avons cov(aX + b. .4. Il s’agit de déterminer les constantes a et b telles que E((Y − (aX + b))2 ) soit minimale. par linéarité. V ar(aX + b) = a2 V ar(X).5) En particulier. Nous dirons que cette variable aléatoire est cen- LE est d’espérance nulle et d’écart-type trée et réduite. et E X V ar(X1 + . a0 Y + b0 ) = aa0 cov(X.6) IQ Nous en déduisons que les coefficients de EC HN corrélation de X et Y et de aX +b et a0 Y +b0 Y T 0 sont égaux lorsque aa > 0.4.4. la covariance est une forme bilinéaire sur l’espace vectoriel des variables aléatoires de carré intégrable.4 – Variables aléatoires de carré intégrable 97 E(aX + b) E(a0 Y + b0 ) = aa0 E(X)E(Y ) + ab0 E(X) + a0 b E(Y ) + bb0 . . Xn des variables aléatoires de carré intégrable.5 En vertu des règles énoncées ci-dessus.4. au sens des moindres carrés.

Proposition 4.8) Nous vérifions aisément que ces valeurs donnent bien un minimum pour E((Y −(aX + b))2 ). meilleure est l’approximation.5 Calcul de l’espérance pour une N IQU variable aléatoire C H à densité O LYTE P O LE 4. E 4. et une fonction mesurable h de R dans R. P). Y ) σ Y (X − E(X)) . Y ) (X − E(X)) = σY2 + ρ2 (X. et dans ce cas. Nous dirons que h est intégrable si h appartient à L1 (R. B(R).7 La droite d’équation y = ax+ b. Nous avons vu que Y = h(X) est une variable aléatoire sur Ω. h est intégrable si et seulement si h(X) appartient à L1 (Ω. et déterminent ainsi la meilleure approximation linéaire de Y basée sur X au E sens de la distance quadratique moyenne. Nous considérons une variable aléatoire X de Ω dans R. V ar(X) σX b = E(Y ) − aE(X).4. σY2 EC LY T O voisin de +1 ou −1. (4. Y ) σY a = = ρ(X.1 ÉC Un résultat général fondamental Le résultat suivant est l’analogue du théorème 3.98 Chapitre 4 – Variables aléatoires réelles et Vecteurs aléatoires L’annulation des dérivées partielles par rapport à a et b entraîne que les solutions a et b sont Cov(X. est presque nul : plus |ρ(X. PX ). OLE )+ σX C Le carré moyen deÉl’erreur vaut alors ÇÅ ã2 å σY E Y − E(Y ) − ρ(X. les espérances. IQU N Cette erreur vaut Y T ECH E(Y P L Oρ(X. de loi PX . Y )σY2 U E2 σX =H I Q N (1 − ρ (X.4.3.1 Sous les hypothèses précédentes. Y )σY2 − 2ρ2 (X. Y )).8) s’appelle la droite des moindres carrés de Y sur X. respectivement de h .10. A. Y ) est E Pproche de 1. où les coefficients a et b sont donnés par les formules (4.5. Y )|Lest ÉCO Définition 4. Y ) .5. le carré moyen de l’erreur Nous constatons que lorsque ρ(X.4.

R x rappelons que X Eadmet la densité f lorsque cette dernière admet une densité. (4.5. nous retrouvons que .1) est évident lorsque h ne prend qu’un nombre fini de valeurs.2) et nous en déduisons encore (4.5. (4.3. Z +∞ E (g(X)) = g(x)f (x)dx.1) et au fait que P(X −1 (B)) = PX (B). Nous si la fonction de répartition de PX est x → −∞ f (y)dy. (4.2 Soit X une variable réelle admettant la densité f . N I Q U Y T ECH L P Oaléatoire E Proposition 4.3) −∞ En particulier.4) −∞ .1). nous pourrons donc calculer L ÉCO E(h(X)) pour toute fonction h intégrable. Nous avons Z Z E (h(X)) = h(X(ω))P(dω) = h(x)PX (dx). soit g une fonction mesurableCdeORLdans R.  CH O L YTE E P Commentaire : Si nous connaissons la loi de X.2) −∞ et dans ce cas. et de h(X) relativement à P sont égales.5 – Calcul de l’espérance pour une variable aléatoire à densité 99 relativement à PX . Z +∞ E(X) = xf (x)dx. chargeant chaque entier k avec probabilité pk . par définition de la loi de X.5.5. grâce à (4.2 Calculs d’espérances dans le cas avec densité Nous allons voir dans ce paragraphe comment calculer l’espérance d’une variable aléatoire réelle. ou plus généralement d’une fonction d’une variable aléatoire réelle. Par exemple.5. Si h est une fonction positive. Alors g(X) ∈ L1 si et seulement si et É Z +∞ |g(x)|f (x)dx < ∞.5.5. nous l’approchons par une suite de fonctions étagées comme I Q UE en (4. (4.4. (4.5. si X est une variable aléatoire discrète.1) Ω R Preuve. U E Z h(k) pIkQ X h(x) PX (dx) = R EC k HN PO LY T É C OLE 4. les trois membres étant simultanément N finis ou infinis.3. Le résultat général s’en déduit par différence.

Nous nous donnons deux réels a < b. comme I Qg(X X(ω) pour tout ω.2) a b−a 2 12 .6.100 Chapitre 4 – Variables aléatoires réelles et Vecteurs aléatoires et Z +∞ Z +∞ ÇZ +∞ å2 V ar(X) = (x − E(X))2 f (x)dx = x2 f (x)dx − xf (x)dx . nous avons “autant de chances” de tomber au voisinage de chaque point de l’intervalle [a.2.6. Nous avons donc une probabilité nulle de tomber exactement en un point x fixé à l’avance. Cela explique le nom “uniforme”. Proposition 4. nous avons N Y T E H en Xn est une variable aléatoire discrète. 1].1 Soit X une variable aléatoire de loi uniforme sur [a. (4.1 É C Variable aléatoire uniforme sur [a. par le théorème d’approximation de Riemann.3. pour i ∈ Z. V ar(X) = .7) : i O Li g E PP i+1 X Åiã Åiã 1 X Å ã Å ã OL n E(g(Xn )) = ≤X< ≈ g f .(4.6.5) −∞ −∞ −∞ Nous n’avons pas les éléments permettant de démontrer ce résultat.2.7). mais l’argument “heuristique” suivant permet de comprendre pourquoi il est vrai : supposons f et g continues. et Z b x a+b (b − a)2 E(X) = dx = . b] f (b) = 0. b] Nous généralisons ici la notion de variable uniforme sur [0. b]. Remarquons aussi que PX ({x}) = 0 pour tout x (comme pour toutes les probabilités avec densité).10.1) 0 TE sinon.3) lorsque n → ∞. Posons Xn = i/n si i/n ≤ X < (i + 1)/n. Alors X est de carré intégrable. Au vu de l’interprétation exprime que si nous simulons une variable aléatoire selon la probabilité PX .6 Exemples fondamentaux LY T variables à densité P O O LE 4. le fait que f soit constante sur [a. n n n n n ÉC i∈Z Z i∈Z Z et le dernier terme ci-dessus tend vers le second membre de (4. Ainsi.2. C P O LY L Enous pourrions aussi bien choisir f (a) = 0 ou En vertu de la proposition 4. et par continuité de g. Xn (ω) → U En ) → g(X). b].5.1) et (4. É C O (4. I Q UE E HN Cde 4.5.6. De plus. et la probabilité PX admet la densité si a ≤ x ≤ b Q U E ( 1 f (x) = b−a H NI (4. nousCavons utilisant (4.

4 Si X suit la loi exponentielle de paramètre λ > 0. ÉC 3 4. Trouver la probabilité E qu’il doive attendre moins de 5 minutes.6. alors sa fonc- tion de répartition vaut 0 si x < 0 ( F (x) = (4.2 Variable aléatoire exponentielle I Q UE Définition 4. puis plus de 10 minutes.) Les calculs sont immédiats. Un usager se présente entre 7h et 7h30 à cet arrêt.6.5) λ λ2 .6. De plus.2 A partir de 7h. la probabilité d’attendre plus de T C 10Eminutes vaut Y POL OX P(0 < L E< 5) + P(15 < X < 20) = 1 . l’heure exacte de son arrivée étant une variable uniforme sur cette période. Solution : Soit X le nombre de minutes P O L sur [0.6.6. 10 30 U E25 30 3 H NIQ De même. (4.3 Nous dirons que X suit la loi exponentielle de paramètre λ > 0 si PX admet la loi de densité N T E C<H0 0 LY si x ( f (x) = P O (4. L’attente est inférieure à 5 mns si C’est une variable aléatoireEuniforme l’usager arrive entreC O Let 7h15 ou entre 7h25 et 7h30.4. b]. il est naturel d’obtenir comme espérance le milieu du segment.6. V ar(X) = . Exemple 4. 1 1 E(X) = . ÉC Proposition 4.4) 1 − e−λx sinon.6.3) O L E λe −λx sinon. 30].6 – Exemples fondamentaux de variables à densité 101 (Avec la même chance de tirer "un quelconque point" de l’intervalle [a. La probabilité d’attendre É 7h10 moins de 5 minutes est donc 15 30 1 1 1 Z Z P(10 < X < 15) + P(25 < X < 30) = dx + dx = . les bus passent toutes les 15 minutes à un arrêt donné. I Q U N T E CH Y s’écoulant entre 7h et l’arrivée de l’usager.

Par exemple. La loi exponentielle possède une propriété importante pour les applications : elle est sans mémoire. 4. et σ = E(X ) − intégrations par parties successives. Nous obtenons le résultat par 2 2 2 E(X ) = 0 x λe dx.6. Par exemple la durée de vie d’une bactérie. la loi exponentielle modélise souvent une durée de vie ou le temps d’attente avant l’arrivée d’un événement spécifique.368 10 10 et P(10 < X < 20) ≈ 0. Avec quelle É C Oplus de 10 mns ? entre 10 et 20 mns ? probabilité devez-vous attendre Solution : X désigne la durée de la conversation de la personne précédente.5: Graphe de la densité f (x) = e−x et de la fonction de répartition associée F (x) = 1 − e−x .102 Chapitre 4 – Variables aléatoires réelles et Vecteurs aléatoires IQ UE C HN O LYTE P LE ÉCO Fig. Z +∞ 1 −x P(X > 10) = e 10 dx ≈ 0. On dit aussi qu’elle satisfait la propriété de non-vieillissement. la durée d’une conversation téléphonique ou le temps qui nous sépare du pro- chain tremblement de terre peuvent être considérées comme des variables aléatoires de loi exponentielle.233. Vous arrivez à une cabine téléphonique L E et quelqu’un entre juste devant vous. Les calculs sont très simples.5 Supposons que la durée de vie T d’une HN E C conversation téléphonique me- LY P O exponentielle 1 surée en minutes soit une variable aléatoire de paramètre λ = 10 .P O L  LE ÉCO Dans la pratique. I Q U E R ∞ −λx R ∞ 2 −λx E C H2 N Preuve. E(X) = 0 xλe dx et Y T E(X) . . U E IQ Exemple 4.

5. T Eloi L Y Mais nous lui préférons E P O1 L ÉCO X = − ln U. où F est la fonction de répartition de X. Preuve.6 (Propriété de “non-vieillissement”) Soit X une variable aléatoire positive. UE N I Q aléatoire uniforme. de la forme G(t) = e−λt Y T pour un λ > 0. E G(t + s) = G(t)G(s) pour D’après (2. Comme G est décroissante et continue I Qà et tend vers 0 à l’infini. la Nous avons vu au paragraphe 4. E C H cela revient aussi à dire que c’est une exponentielle négative. EC HN LY T P O X de loi exponentielle de paramètre E Simulation d’une variable aléatoire L λ>0: CO É Sa densité est donnée par (4. Alors. et F (x) = 0 pour x < 0. t > 0 si et seulement si X suit une loi exponentielle.4 que si U est une variable H 0 variable aléatoire X = −(1/λ) ln(1 − U ) suit une C exponentielle de paramètre λ.6. Soit G(t) = P(X > t) = 1 − F (t).6.6.6 – Exemples fondamentaux de variables à densité 103 Proposition 4. E L’appareil fonctionne sans mémoire du temps d’usage déjà I Q Uécoulé. la loi de sa durée de vie à partir de là est la même que la loi de la durée de vie de l’appareil neuf.3 Variable aléatoire de loi gamma Rappelons tout d’abord que la fonction gamma est définie pour α ∈]0.4) et en utilisant le fait PO L E caractérise la loi à laquelle elle est associée. Le résultat s’obtientLalors en comparant à (4. λ qui suit la même loi que X 0 (car U et 1 − U ont même loi). (4. Nous savons que F (x) = 1 − e−λx pour x ≥ 0. telle que P(X > s) > 0 pour tout s ∈ R.2.6.4.3). La propriété ci-dessus signifie que si l’instrument fonctionne après t heures de service. et qui est moins coûteuse en temps de calcul.6.1). F −1 (u) = −(1/λ) ln(1 − u). +∞[ par Z ∞ Γ(α) = xα−1 e−x dx. Alors P(X > t + s|X > t) = P(X > s) pour tous s. la propriété de l’énoncé équivaut à dire que Udroite N tous s. 4. qu’une fonction de répartition  ÉCO Représentons-nous X comme la durée de vie d’un certain instrument.6) 0 . t > 0.

Soit θ > 0 et α > 0.7 Une variable aléatoire X suit une loi gamma de paramètre d’échelle θ et d’indice α. ÉC OLE Le changement de variable x 7→ θx montre que cette fonction est d’intégrale égale à 1. et on a de manière évidente Γ(1) = 1.8 Si X est de loi Γ(α.4 Variables aléatoires normales (ou variables gaussiennes) Nous introduisons ici les variables aléatoires les plus célèbres en probabilité. si sa loi admet la densité E  N I QsiU x ≤ 0 ECH  0 1Y T f (x) = (4.6. LE α É C O2 α Γ(α + β) 1 E(X) = .8) θ θ2 Γ(α) θβ Cette R ∞ β proposition se montre immédiatement en utilisant le fait que E(X β ) = x f (x)dx et (4. (4.6. En revanche si β ≤ −α. E Nous remarquons immédiatement que Γ(1. Tson P Osont données par l’espérance E(X β ) pour tout β > −α.104 Chapitre 4 – Variables aléatoires réelles et Vecteurs aléatoires Une intégration par parties montre que Γ(α+ 1) = αΓ(α). IQ C HN E espérance E(X). θ).11).6.1.9) 2π . (4. nous avons E(XE) = +∞. θ). que l’on note Γ(α. et LY Proposition 4.6. Définition 4. E(X β ) = .6.6). σX = . la loi gamma représente la loi du T temps HN E C d’attente avant la n-ième occu- O L Y rence d’événements indépendants de loisPexponentielles de paramètre θ (voir Exercice 6.9 Nous appelons variable aléatoire normale centrée réduite une va- riable aléatoire X de loi de densité 1 2 f (x) = √ e−x /2 .6.7)  L α α−1 −θx PO Γ(α) θ x e sinon. θ) est la loi exponentielle U de paramètre θ. avec la convention que 0! = 1. Il s’ensuit que Γ(n + 1) = n! pour tout entier n ≥ 0. sa variance σX2 .6. β 0 IQ U Lorsque α = n. Définition 4. O L E ÉC 4.6.

6. pour m ∈ R et σ 2 > 0. si cette variable a la loi de densité 1 (x − m)2 f (x) = √ exp − . (4. et les qualificatifs “centrée” et “réduite” proviennent précisément de (4.9) est bien d’intégrale 1.6 : La courbe É Définition 4.10 Soit X une variable Y E POL LE(X) ÉCO = 0 . V ar(X) = 1. −∞ −∞ 0 0 2π (en passant en coordonnées polaires dans l’intégrale double). Un calcul simple montre alors que I 2 = 1.11 On dit que X est une variable aléatoire de loi normale N (m.6. σ 2 ).6 – Exemples fondamentaux de variables à densité 105 Pour vérifier que la fonction introduite en (4.6. IQ UE C HN T E normale centrée réduite.6. pour calculer V ar(X) nous pouvons faireCune LY TE PO LE ÉCO IQ UE HN 1 C O LYTE P OLE deCGauss f et les proportions d’aire sous la courbe Fig. E(X) = 0 car c’est Il’intégrale d’une fonction im- H intégration par parties.6. 4.9).10). Le même changement de variable permet .6. (4. paire .11) 2πσ 2 2σ 2 Nous pouvons vérifier que f est une densité en nous ramenant par le changement de variable x 7→ x−m σ à la fonction (4.6. nous remar- R +∞ quons que I = −∞ f (x)dx vérifie +∞ +∞ 2π ∞ 1 −ρ2 /2 Z Z Z Z 2 I = f (x)f (y)dxdy = dθ e ρdρ. E N QU Cette proposition est immédiate.10) La loi de X est dans ce cas notée N (0.4. 1). Alors Proposition 4.

. E L Å É CO 1 ã P(|X| < 2) = 2 P(0 < X < 2) = 2 P(X < 2) − = 2 (0. Le tableau ci-dessous donne les valeurs de Π(x) = P(X ≤ x). 9544.Het en utilisant la symétrie de la fonction de répartition Π de la loi normale centrée réduite. pour une variable X de loiYN T P O Lnous aurons (0. pour certaines valeurs x. 5) = 0. X − 270 X − 270 Å ã Å ã P(X > 290 ou X < 240) = P >2 +P < −3 10 10 = 1 − Π(2) + 1 − Π(3) = 0. La distribution normale fut introduite par De Moivre en 1733. 1). 02411. densité et la table numérique ci-dessous. Ce théorème est l’un des plus importants de la théorie des probabilités et prouve que de très Q I U E phénomènes aléatoires nombreux N ECH suivent approximativement une loi normale. Nous pouvons citer à titre d’exemple la taille d’un individu choisi au hasard. σ 2 ). lorsque X suit la loi gaussienne centrée réduite. Bien-sûr.106 Chapitre 4 – Variables aléatoires réelles et Vecteurs aléatoires de voir que m et σ 2 sont l’espérance et la variance d’une variable aléatoire de loi N (m. L’un des pères possibles est en mesure absence du pays pendant une période s’étendant entre le N290-ième EC H Y T précédant l’accouchement.6. est de loi approximativement normale de para- E de prouver son I Q U et le 240-ième jour mètres m = 270 et σ 2 = 100.12 Lors d’un procès en attribution de paternité. 2 Exemple 4.10) n’admet pas de primitive explicite. 9772 − 0.6. Nous allons utiliser 10 la table ci-dessous. un expert témoigne que la durée de grossesse. Par exemple. qui sera démontré au Chapitre 6. LE ÉCO Pour les calculs sur la loi normale. Il est difficile de faire des calculs avec la loi normale car la densité définie en (4.Y L T les composantes de la vitesse d’une molécule de gaz ou l’erreur de mesure d’une POquantité physique. Ce résultat fut ensuite progressivement généralisé par Laplace et d’autres confrères pour devenir le théorème connu sous le nom de théorème de la limite cen- trale. les logiciels classiques de statistiques permettent d’obtenir les valeurs don- nées par la table. Quelle est la probabilité que la conception de l’enfant ait O L au pays ? pu avoir lieu pendant la présence de cetPhomme Cσ = Solution : Remarquons queÉX−m O L EX−270 suit une loi N (0. La table ci-dessous I Q U Edonne les valeurs de la N E C1). en jours. Aussi des tables numériques ont-elles été construites pour permettre aux utilisateurs d’obtenir très rapidement des valeurs numériques. Celui-ci l’utilisa pour approximer une variable aléatoire binomiale quand le paramètre n de celle-ci était grand.

lois remarquer que les densités sont paramétrées par des nombres réels (un ou deux dans 107 .5793 0.7324 0.9864 0.7673 0.9099 0.7054 0.9830 0.9332 0.8997 0.6 3.7881 0.9738 0.9964 2.3 0.9649 0.9972 0.9599 0.7823 0.5160 0.7486 0.9913 0.5596 0.9973 0.5675 0.7967 0.8708 0.9463 0.7734 0.9980 0.6406 0.9826 0.5438 0.5910 0.9608 0.9793 0.9934 0.9986 x 3.9554 0.6217 0.9978 0.7764 0.1 0.8289 0. il est intéressant de variance de la variable.9732 0.5 3.06 0.8 0.9713 0.9965 0.7422 0.9953 0.5398 0.9306 0.5 0.9834 0.9582 0.04 0.7642 0.9699 0.6255 0.9525 0.9761 0.6331 0.8621 ÉCO LE O 1.9929 0.9850 0.9909 0.9968 0.2 0.6368 0.6 0.9941 0.9726 0.9049 0.8238 0.4 0.9948 0.9147 0.8665 0.6736 0.8944 0.7123 0.9357 0.5714 0.9875 0.99865 0.9982 0.9505 0.9842 0.7 0.9 0.7939 0.6 – Exemples fondamentaux de variables à densité CH 2.13 Dans les exemples que nous venons de voir.9706 TE 1.9032 0.9977 0.8264 0.0 0.9961 0.5239 0.8461 0.9945 0.9936 U 2.9982 0.8749 0.6591 0.999928 0.9932 0.9406 0.9744 0.7357 0.4 0. x 0.9871 0.9898 0.9783 0.6 0.99966 0.7224 0.9279 0.9963 0.9925 0.5478 0.6141 0.8770 0.9943 0.9951 0.9772 0.03 0.8577 0.99977 0.3 0.8686 0.09 0.9911 0.9821 0.9236 0.9979 0.7 0.02 0.3 3.7611 0.5636 0.9015 LE 1.6628 0.9857 2.9916 HN 2.8554 0.9778 0.6664 0.7704 0.9370 0.5040 0.9959 0.9788 0. si nous savons a nos exemples).8531 0.7 0.6808 0.8186 0.9207 0.5 Π(x) 0.8643 0.9803 0.999968 0.9641 0.0 3.5871 0.9115 0.9767 HN YTE 4.2 0.6700 0.5000 0.9974 0.9861 0.9922 0.6985 0.9981 2.8365 0.99903 0.7995 0.8962 0.5517 0.9868 0.9967 0.9066 0.9983 0.9222 0.5987 0.99931 0.9292 0.9251 0.7549 ÉCO 0.7257 0.9985 0.6443 0.5120 0.6950 0.8133 LE 0.9808 0.8729 0.9846 0.999841 0.6772 0.6064 0.0 4.99952 0.6517 0.9938 0.7088 0.6480 0.9952 IQ E 2.9985 0.9382 0.9625 0.6293 0.9970 0.9838 0.9564 0. paramètres liés très directement aux valeurs de l’espérance et de la priori que la loi de X appartient à une certaine classe de lois (lois exponentielles.8869 0.9974 UE 2.9 0.9969 0.8212 0.8980 0.9656 0.9927 0.8340 0.8 4.9971 0.999997 Valeurs de la fonction de répartition Π de la loi de Gauss N (0.8 0.5359 0.05 0.9976 0.2 3.7157 0.5199 0.6.6915 0. C’est très important en Statistique.1 3.9495 0.9131 0.7794 0.8508 0.5 0.9854 0.8023 0.7580 0.08 0.8830 L 1.8159 0.9887 0.9893 0.9940 0.9319 P L 1.9671 0.8315 0.9082 0.3 0.9984 0.9484 0.9931 0.5832 0.9515 0.9345 0.0 0.9977 0.9798 0.8485 0.0 0.5557 0.9920 0.7910 0.8599 0.9756 0.6026 0.9956 0.9904 0.9535 0.9881 0.9429 0.7019 0.9975 0.8907 0.4 0.9591 0.8925 0.9878 0.9906 0.9474 0.9750 0.9162 0.9633 1.9 0.8810 0.9452 0.5753 0.00 0.9441 O Y 1.07 0.9616 0.9984 0.8389 ÉCO P 1.8106 0.010 0.9962 0.8051 0.5080 0.4 3.9812 0.9693 0.9966 0.9957 0.5 0.8888 0.8078 0.8 0.9884 0.6 0.9394 0. En effet.6103 0.5279 0.6179 0.9265 0.9979 0.8849 0.9949 0.6554 0.8790 0.7852 0.9664 0.8438 0.9573 0.1 0.7389 0.9192 0.7454 0.9418 YTE 0. 1) Remarque 4.6879 0.9918 0.9545 C L 1.7517 0.9955 0.9896 0.5948 0.5319 0.9817 IQ C 2.9986 0.8413 0.9686 0.9678 0.9890 UE NIQ 2.9719 0.9946 0.2 0.1 0.7291 0.9960 0.6844 0.9901 0.9177 PO 1.7190 0.9981 0.

c’est donc une P O variable aléatoire de fonction de répartitionLdonnée x ∈ R par L E É C≤Oarctan x) = arctan x 1 1 Z F (x) = P(X ≤ x) = P(θ q(θ)dθ = arctan x + .12) π(1 + x2 ) Par conséquent. Il existe des variables aléatoires qui n’ont pas d’espérance.6.6. 2 [. Exemple 4. L’abscisse X est donnée par X = tan θ.15 Une variable aléatoire réelle X suit une loi de Cauchy si elle admet la densité 1 f (x) = . π(1 + x2 ) .7. comme indiqué sur la figure O LYTE P LE ÉCO U E NIQ TE CH LY PO LE ÉCO Fig. −∞ π 2 La fonction F est de classe C 1 et a pour dérivée 1 f (x) = . 2 [} (θ). x∈R.6. Un gyrophare G envoie un flash lumineux dans une direction aléatoire uniforme d’angle θ.14 Variable aléatoire de Cauchy.108 Chapitre 4 – Variables aléatoires réelles et Vecteurs aléatoires normales). (4. Cherchons la distribution E N IQU de l’abscisse X du point d’impact du rayon lumineux sur un écran plan infini situé à C H4. Définition 4. la variable aléatoire X a la loi de densité f . 4. nous pourrons trouver laquelle en estimant ses paramètres en fonction des observations de X.7 : Gyrophare E L’angle θ est une variable aléatoire de densité q(θ) =H 1 NI π πQU C π 1{]− 2 . comme le montre l’exemple suivant. distance 1 de G. variable de loi Y T E pour π π uniforme sur ] − 2 .

La seconde découle de la première appliquée à X − E(X) et p = 2.7. la variable aléatoire X n’a pas d’espérance. (4.4.  ce qui donne la première formule (inégalité de Markov). UE H NIQ 4.7. n’est cependant pas très précise. V ar(X) P(|X − E(X)| ≥ a) ≤ . avec a = 10 σX . Pour cela il faut étudier la convergence de l’intégrale généralisée Z +∞ |x| dx.7. Nous avons les inégalités suivantes U E • Inégalité de Markov : soit X ∈ Lp .7 LY TEC Des inégalités fameuses E PO L 4. comme nous allons nous en convaincre ci-dessous. P O LY donc p L E E(|X|p )É≥CaOE 1[a. tout à fait générale. E(|X| P(|X|O (4.∞[ (|X|). −∞ π(1 + x2 ) 1 Cette intégrale diverge (car f (x) ∼x→∞ |x| ). .7. Une variable de Cauchy n’est donc pas intégrable. et surestime très souvent en pratique le membre de gauche de (4. Elle permet de mesurer la probabilité des grands écarts entre X et sa moyenne. comme nous le verrons par la suite.∞[ (|X|) = ap P(|X| ≥ a).1 ÉCO Inégalité de Bienaymé-Chebyshev Théorème 4.  Remarque 4. Cette inégalité. alors NIQ Y T E C Hp ) P ≥La) ≤ ap .7.01).2). Par exemple.2 L’inégalité de Bienaymé-Chebyshev est très utile dans la pratique. On a HN TEC |X|p ≥ ap 1[a.2) a2 IQ UE Preuve. Ainsi.7 – Des inégalités fameuses 109 Voyons si X est intégrable.1) OL E É C • Inégalité de Bienaymé-Chebyshev : soit X ∈ L2 . il en résulte qu’il est improbable qu’une variable aléatoire X dévie de E(X) de plus de 10 fois son écart-type (probabilité inférieure à 0.7.1 Soit p ≥ 1 et a > 0.

75 . σ). E IQ U HN TEC 4. σ2 P(|X − m| ≥ a) ≤ .7. de loi N (m. m + aσ[) ≥ 1 − 2 .88. (4.4 C É X et Y deux variables aléatoires de carré intégrable. pour tout a > 0. P(X ∈]m I Q 4 HN 9 TEC O LYmais très grossières.7.3) vérifie −1 ≤ ρ(X.110 Chapitre 4 – Variables aléatoires réelles et Vecteurs aléatoires Exemple 4. Le discriminant est nul si et seulement si il y a une racine double x0 et dans ce cas.2 O LY Inégalité de Cauchy-Schwarz P O LE Proposition 4. alors Soient XY ∈ L1 . m + 2σ[) ≥ 1 − ≈ 0.7. que le coefficient de corrélation défini par (4. Y (ω) = −x0 X(ω) pour presque tout ω. Son discriminant doit donc être négatif ou nul.7. nous Y avons ECH T XY ∈ L1 dès que X.3) si et seulement si les deux variables aléatoires sont presque- sûrement proportionnelles. P(X ∈]m − 3σ. m + 3σ[) ≈ 0. pour a = 2 et a = 3.4.7. Y ) ≤ 1. pour tout x ∈ R. a2 a En particulier.3). m + 3σ[) ≥ 1 − ≈ 0. ÉE(XY x2 E(X 2 ) + 2x Mais ceci n’est possible que si ce trinôme en x a au plus une seule racine réelle. Comme |XY | ≤ 12 (X 2 + Y 2 ).7. Soit X une variable normale Ces approximations sont universelles P L E la table numérique de la loi normale donnée ci-dessus. nous avons d’après LE C O ) + E(Y 2 ) = E[(xX + Y )2 ] ≥ 0. 4 9 Les renseignements ainsi obtenus sont beaucoup plus précis. De L P Ola linéarité et la positivité de l’espérance plus. 1 P(X ∈]m − 2σ. (4. Alors.4) . Y ∈ L2 . m + 2σ[) ≈ 0. a2 soit encore 1 1 P(|X − m| ≥ aσ) ≤ . nous avons respectivement : 1 E −U3σ. En utilisant nous obtenons ÉCO 1 1 P(X ∈]m − 2σ.997  1 − .  Nous déduisons en particulier de l’inégalité de Cauchy-Schwarz.3) Il y a égalité dans (4. d’où P(|X − m| < aσ) = P(X ∈]m − aσ.7. IQ UE N Preuve. et on a l’inégalité de Cauchy-Schwarz : » |E(XY )| ≤ E(|XY |) ≤ E(X 2 )E(Y 2 ). ce qui donne immédiatement (4.3 Posons m = E(X) et σ 2 = V ar(X).95  1 − .

E(u(X)) ≤ u(m). De même qu’en dimensionQ 1. oùLREest PO son bénéfice et u sa fonction de préférence. σ. la tribu boré- lienne sur Rn est la tribu engendrée par les ensembles de la forme ni=1 ]−∞. x u − K) est convexe. et f une fonction mesurable telle que f (X) soit intégrable. Supposons de plus que f soit une fonction convexe. E U dans une affaire Exemple 4. É C O que si u est une fonction concave. Preuve. Alors E (f (X)) ≥ f (E(X)) . f (x) ≥ f (a) + TE Y x = X(ω) et a = E(X).5 Soit X une variable aléatoire réelle intégrable.7.6 Un investisseur a le choix : soit il placeN I Qcapital son risquée rapportant une somme aléatoire X d’espérance Y T ECH m.3 Inégalité de Jensen Théorème 4.4. Puisque f est convexe. K ∈ R. Si par contre u est convexe. il existe λa ∈ R E tel que pour tout x.8 Vecteurs aléatoires Nous allons généraliser ici la notion de variable aléatoire en considérant maintenant qu’elle peut prendre ses valeurs dans Rn . centrée (E(X) = 0). Nous pourrons alors généraliser .7. xi ]. alors pour tout λ ∈ R. NIQ T ECH loiYnormale • Soit G une variable aléatoire de L centrée réduite. nous avons E P O L ÉCO 2 E( (xeσG−σ /2 − K)+ ) ≥ (x − K)+ . pour xi ∈ R. N I QU CλHa (x − a).a. Il va prendre sa décision de manière à maximiser l’espérance de u(R).8 – Vecteurs aléatoires 111 4. Il suffit alors de O Lpour Ce résultat est en particulier vrai prendre l’espérance pour L P E le résultat. nous avons U E E(eλX ) ≥ 1.7. le placement risqué est meilleur puisque E(u(X)) ≥ u(m). obtenir  ÉCO Applications : • Si X est une v. 4. Alors pour tous x. 2 car E(eσG−σ /2 ) = 1 et la fonction u → (x u − K)+ = sup(0. soit il le place en titres sans risques qui rapporteront m avec probabilitéL1. L’inégalité de Jensen nous montre ce qui rend le placement sûr préférable. nous savons que pour tout a ∈ R. Nous munirons dorénavant Rn de cette tribu.

R k Le Corollaire 4. dont découle aussi le résultat “mixte” suivant.1)  dx < +∞ ou R que R R |f (x. E N I Q U2 Y T E C H sur R .2) R×R ÉC R R R R Remarquons l’analogie avec le théorème de Fubini (S9) pour les séries.6 se généralise alors de la manière suivante. la théorie de l’intégration (de Lebesgue) permet de voir ces résultats comme issus du même théorème général.2. alors L E ! CfO XZ Z X k ÉR k (x)dx = fk (x) dx. où ai < bi . IQ UE HN T E C(fk )k telle que P R Théorème 4. alors N CH peut définir R×R f (x.. Une fonction mesurable f de Rn dans R (par exemple une fonction continue ou continue par morceaux). . dxn < +∞. . sera dite intégrable si Z +∞ Z +∞ .1 Soit f une fonction mesurable PO L L E 1) (Théorème de Tonelli) Si f est positive. . . . essentiel dans les calculs d’intégrales multiples. n}.8. y)dx dy. |f (x1 . y)dxdy = dx = f (x.1) R R R R R R  2) (Théorème de Fubini) R RSi f est de signe quelconque mais vérifie que R R |f (x. il existe une unique fonction d’en- sembles λ définie sur la tribu borélienne de Rn et à valeurs dans R+ . (4.8. Théorème 4.8. y)dxdy comme la valeur commune Tã E : LY PO O L E f (x. (4. −∞ −∞ Nous rappelons le théorème de Fubini. xn )|dx1 . y)|dx dy < +∞..3 Pour tout entier n ≥ 1 fixé. y)dx dy. En fait. . y)dy dx = f (x. · · · .8.2 Considérons une suite de fonctions |fk (x)|dx < L Y k R PO +∞. qui soit σ- additive. alors ÉCO Z ÅZ ã Z ÅZ ã f (x. y)|dy E Q U est encore vraie et on I(4. Théorème 4. bi ]) = Πni=1 (bi − ai ). i ∈ {1. Cette mesure λ s’appelle la mesure de Lebesgue sur Rn .8.8.112 Chapitre 4 – Variables aléatoires réelles et Vecteurs aléatoires la notion de fonction mesurable de Rn dans R de manière évidente et considérer les intégrales généralisées de telles fonctions. et qui coincide avec le volume sur les pavés : λ ( Πni=1 ]ai . y)dy Z Z ÅZ Z ÅZ ã f (x. .

dyn .. . .5 On dit que X admet la densité Rn . Xn ).5. b] est donc EC HN P O LY T 4. Le cas de la loi uniforme sur [a. X2 ≤ x2 . . .4 Un vecteur aléatoire X à valeurs dans Rn est formé de n variables aléatoires réelles. qui sont les composantes de X : X = (X1 . .8 – Vecteurs aléatoires 113 Nous pouvons alors généraliser la notion d’équiprobabilité vue dans le cas d’un en- semble fini ou sur [a.. E U IQ C HN O LY T E f si la fonction f est positive sur Définition 4. . intégrable et vérifie P LE Z Z É C OZ +∞ +∞ f (x)dx = .1 LE Vecteurs aléatoires ÉCO Définition 4.8..8.2. . xn )dx1 .8. Xn ≤ xn ) = . . 1] définie LY E PO L n ! . .. . . .O F (x1C Y (4. l’intervalle. le volume est la longueur de E I Q Ule cas particulier où V = [a. sa loi est caractérisée H T E Cpar n tition multidimensionnelle F : R → [0. Si n = 1 et A est un intervalle. . . dxn = 1. . .8. .8. i=1 De manière générale. . xn ) = P X ∈ ] − ∞.4. b]. b]. Nous allons plus particulièrement nous intéresser aux vecteurs aléatoires à densité. λ(V ) La probabilité que le résultat tombe dans une partie A de V est proportionnelle au volume de cette partie. est définie pour tout borélien A ⊂ V par λ(A) PV (A) = . caractériser les fonctions de répartition sur Rn est assez délicat. f (y1 .5) La proposition suivante généralise à la dimension n la proposition 4. f (x1 . . −∞ −∞ (4. de sorte que cette notion est rarement utilisée. La probabilité uniforme sur un ensemble borélien V de Rn de mesure de Lebesgue λ(V ) ∈]0. . xi ] . (4. . . UE N I Q par la fonction de répar- Comme dans le cas de la dimension 1. +∞[.3) É . yn )dy1 . .8.4) Rn −∞ −∞ et si Z x1 Z xn P(X1 ≤ x1 . .

. . .U (4.8.j = V ar ai Xi ≥ 0. . Xj ).j = cov(Xi .8.2 Moments d’un vecteur aléatoire U E NIQ Y T E C Haléatoire X = (X1 . xn ) dx1 .j ))1≤i. |g(x1 .114 Chapitre 4 – Variables aléatoires réelles et Vecteurs aléatoires Proposition 4. . . . xn )| f (x1 . . . . (4.8.8. . nous pouvons définir le vecteur P LE Si les composantes Xi du C O aléatoire X = (X1 .. xn ) f (x1 . Alors g(X) est intégrable si et seulement si Z +∞ Z +∞ .j ≥ 0 LY i. Soit A une matrice de taille m×n. i. E Proposition 4. . dxn . . intégrables. . La matrice de covariance de Y est alors AC t A. de matrice de cova- riance C. . “Non-négative” ai aj ci. nous écrirons g(x)f (x)dx. Xn ) sont Définition 4.7) IQ E(g(X)) = .8. 4.. . . . −∞ −∞ C HN O LYTE P L E aussi E(g(X)) = Pour simplifier. et soit g une fonction mesurable de Rn dans R. et Y le vecteur aléatoire m-dimensionnel Y = AX. avec les notations de R ÉCO Rn l’intégration. É vecteur la matrice de covariance de X est la matrice CX = ((ci.. U IQ HN T E Csignifie que Pn Preuve.E Z g(x1 . Un calcul simple montre que L n É CO n ! X X ai aj ci.9 Soit X un vecteur aléatoire n-dimensionnel. . .6) −∞ −∞ Dans ce cas nous avons Z +∞ +∞ . . xn ) dx1 .j=1 E PO pour tous réels ai . .j=1 i=1  Proposition 4. . . E(Xn )). . . La preuve provient d’un calcul immédiat..8. La symétrie est évidente.8. . . . dxn < +∞. . Xn ) sont de carré intégrable.6 Soit X une variable aléatoire à valeurs dans Rn admettant la densité f . .8 La matrice des covariances est symétrique non-négative.j≤n de taille n × n et dont les éléments valent ci. .7 Si les composantes Xi du vecteur O L espérance E(X) = (E(X1 ). où t A est la transposée de A.

4. Ce résultat se généralise sans peine à une dimension supérieure. Soit m ∈ Rn et C une matrice symétrique positive. 4. et nous notons X et Y ses deux composantes : Z = (X.8 : Densité ÉC en dimension deux. Nous considérons une variable aléatoire Z à valeurs dans R2 de loi à densité. Un exemple de vecteurs aléatoires est celui des vecteurs gaussiens.4. Y ). pour simplifier les notations. . Le vecteur X ∈ Rn est un vecteur aléatoire gaussien d’espérance m et de matrice de covariance C si sa densité s’écrit 1 » 1 −1 f (x) = det(C) e− 2 hx−m. i=1 C O LYTE On a alors E(X) = m ∈ RnEet CX = C. Comme dans le cas discret.8.10 Vecteur gaussien n-dimensionnel. P L ÉCO La densité gaussienne f a la forme suivante (pour n = 2) : U E NIQ TE CH LY PO LE 16 ÉCO 14 12 10 8 Z 6 4 2 0 −4 −4 −3 −3 UE −2 −2 −1 −1 IQ 0 0 1 1 HN 2 2 Y 3 3 X C 4 4 O LYTE E P O Lgaussienne Fig. (2π)n/2 IQ UE HN Pn où hx.8 – Vecteurs aléatoires 115 Exemple 4.3 Densités marginales et conditionnelles Nous allons nous limiter dans la suite de ce paragraphe au cas où n = 2. que nous étudierons en détail au chapitre 6. la loi des marginales X et Y peut s’obtenir à partir de la loi de Z. yi = xi yi . C (x−m)i .8.

L’abscisse X est distribuée selon la densité marginale 2 Z 1 fX (x) = f(X.Y L T Si ∆ = {(x. nous avonsOpar E OL É C∈] Z x Z +∞ å P(X ≤ x) = P(Z − ∞.8.8. y)dy. . y) ∈ R2 . nous obtenons P(X ≤ x) = −∞ fX (u)du. Notons que la réciproque de cette proposition est fausse : les variables aléatoires X et Y peuvent E I QaitUune. x) : x ∈ R} est la diagonale de R2 . O nous avons évidemment PZ (∆)P= 1. la densité d’un couple de variables aléatoires à densité n’est pas le produit des densités. il faut faire attention au fait que dans le cas général. Pour tout x ∈ R.1] (x).12 On lance une fléchette sur uneEcible HN C circulaire de rayon unité. nous aurions PZC O (∆) L E = E(1∆ (Z)) = R 1∆ (z)f (z)dz = 0 car ∆ a un volume nul 2 dans R .8.7) était valide pour PZ . −∞ −∞ Rx Donc si fX est définie par (4. v) dv . Alors. Y ) en E C HN Supposons par exemple que X = Y .Y ) (x. X et Y ad- mettent les densités fX et fY suivantes sur R : Z +∞ Z +∞ fX (x) = f (x. par hypothèse. Le LY Tle point E P Ola cible. lancés qui atteignent la cible Les coordonnées cartésiennes de M ∈ D = {(x. (4. y) dy = (1 − x2 ) 2 1[−1. tandis R que si la formule (4.8. y) = 1{x2 +y2 ≤1} π uniforme sur le disque. x] × R) = du f (u.  IQ UE Exemple 4. π La loi de Y a la même densité.8. ce qui montre que fX est la densité de X. É 2 En particulier. U E NIQ Y T ECH P L (4.11 Supposons que Z admette une densité f . x2 + y 2 ≤ 1} constituent un couple de variables aléatoires de densité 1 f(X.5) : Ç Preuve. (On décide joueur est suffisamment loin de la cible pour que M d’impact de la fléchette soit supposé uniformément distribuéL sur de n’observer que les CO É!). fY (y) = f (x. avoir des densités sans que le couple Z = (X. Le raisonnement est analogue pour Y .8) −∞ −∞ Les fonctions fY et fZ s’appellent les densités marginales de f .Y ) (x.8.116 Chapitre 4 – Variables aléatoires réelles et Vecteurs aléatoires Proposition 4. y)dx.8).

8. Par suite P(x ≤ X ≤ x + ∆x.10) R 2) L’espérance conditionnelle de Y sachant X est la variable aléatoire définie par : E(Y |X) = ψ(X). La preuve est immédiate puisque L ÉCO L’interprétation de (4.14 Soit Y une variable aléatoire intégrable. y ≤ Y ≤ y + ∆y).11) .6. mais elle se justifie heuristiquement ainsi : ∆x et ∆y étant de “petits”I Q UE accroissements des variables x et y. Définition 4.8. et lorsque C fH N est continue : L Y TE fX (x)∆x ≈ P(x E P O≤ X ≤ x + ∆x). y) fY |X=x (y) = . O L ÉC ≈ f (x. et généraliser ainsi E O L la notion d’espérance conditionnelle vue dans le C cas discret. nous pouvons P O L lui est associée. nous avons comme en (4. Cette fonction s’appelle densité conditionnelle Y T ECH E P OfLY |X=x est une fonction positive d’intégrale 1.8 – Vecteurs aléatoires 117 Donnons maintenant dans ce cadre une définition de la loi conditionnelle de Y sachant X = x. Proposition 4.1). comme nous l’avons fait dans le cas discret (Section 3. nous avons P(X = x) = 0 puisque X admet une densité.8.8. donc la phrase ci-dessus n’a pas réellement de sens. (4. Bien sûr. y)∆x∆y P(x ≤ X ≤ x + ∆x.4.9) est la suivante : la fonction fY |X=x est la densité de la “loi conditionnelle de Y sachant que X = x”. P(y ≤ Y ≤ y + ∆y|x ≤ X ≤ x IQ N ECH Y Ten particulier définir l’espérance qui Puisque fY |X=x est une densité. y ≤ Y ≤ y + ∆y) fY |X=x (y)∆y ≈ P(x ≤ X ≤ x + ∆x) ≈ U+E∆x). avec ψ(x) = E(Y |X = x).13 La formule suivante définit une densité sur R.2.8. (4. 1) L’espérance conditionnelle de Y sachant X = x est définie par Z E(Y |X = x) = y fY |X=x (y)dy. pour tout x tel que fX (x) > 0 : f (x. (4.9) fX (x) UE N IdeQY sachant X = x.7).8. dans le cas où YÉ est intégrable.

118 Chapitre 4 – Variables aléatoires réelles et Vecteurs aléatoires

Remarque 4.8.15

1)
R ψ(x) n’est défini que pour x ∈ / B = {u, fX (u) = 0}. Mais P(X ∈ B) =
f
B X
(u)du = 0. Donc (4.8.11) définit bien l’espérance conditionnelle ψ(X) =
E(Y | X) avec probabilité 1.

R ÄR f (x,y)
ä
2) Comme E (E(|Y | |X)) = R R |y| X,YfX (x) dy fX (x)dx = E(|Y |) (nous avons uti-
lisé le Théorème 4.8.1 (théorème de Fubini) ), l’espérance conditionnelle est bien
E
définie dès que Y est intégrable.
N IQU
T E CH
3) Les rôles de X et de Y peuventLY inversés dans tous les résultats.
O être
P
É C OLE
En remplaçant les sommes par des intégrales, nous pouvons adapter les preuves de
la Section 3.6.1 et obtenir dans le cadre des lois à densité les mêmes propriétés de
l’espérance conditionnelle résumées ci-dessous.
UE
N I Q Nous avons
Proposition 4.8.16 Soit Y une variable aléatoire intégrable.
TE CH
1) LY
PO
L E|X)) =
Z
E( Y ) = EO
(E(Y E(Y | X = x) fX (x)dx.
ÉC R

2) Supposons de plus que Z soit intégrable. Alors, pour a, b ∈ R,
E (aY + bZ | X) = a E (Y | X) + b E(Z | X).

IQ UE
HN
3) Si Y ≥ 0, alors E (Y | X) ≥ 0.
C
4) E( 1 | X) = 1.
O LYTE
E P
L
C Oou bornée,
5) Si g est mesurable positive
É
E( Y g(X) | X) = g(X) E (Y | X).

6) Pour toute fonction h mesurable positive ou bornée sur R2 ,
Z Z
E(h(X, Y )) = h(x, y) f (x, y)dxdy
R R
Z Z
= h(x, y) fX (x) fY |X=x (y)dxdy
ZR ZR
= h(x, y)fY (y) fX|Y =y (x) dxdy.
R R

4.9 – Variables aléatoires indépendantes 119

Exemple 4.8.17 Soit X et Y de densité jointe fX,Y (x, y) = x1 1T (x, y) où T est le
triangle T = {0 < y < x < 1}.

La densité de X est donnée par fX (x) = fX,Y (x, y)dy = 1]0,1[ (x) et pour x ∈]0, 1[,
R

1
fY |X=x (y) = 1]0,x[(y) .
x
Ainsi, X est uniformément distribuée sur ]0, 1[, et la loi de Y sachant X = x est
uniforme sur ]0, x[ (0 < x < 1). Pour un tel x, l’espéranceEconditionnelle E(Y | X = x)
I Q Uloi uniforme, et nous obtenons
Ncette
est donnée par le milieu x/2 de l’intervalle portant
X
EC H
YT
E(Y | X) = 2 .
P O L
LE
É CO
4.9 Variables aléatoires indépendantes

4.9.1 Indépendance de deux variables aléatoires
E
IQ U
HN
E C un couple (X, Y ) de vecteurs aléa-
LY Tdans Rm et Rn .
Dans la suite de ce paragraphe, nous considérons
toires. X et Y sont respectivement à O
valeurs
L EP
C O aléatoires X et Y sont indépendants si pour tous
Définition 4.9.1 Les vecteurs
boréliens A et B dans lesÉespaces correspondants,

P(X ∈ A, Y ∈ B) = P(X ∈ A) P(Y ∈ B). (4.9.1)

surUREm et Rn .
Considérons alors deux fonctions mesurables g et h définies Q
H NI
TEC
Y et si X et Y sont indépendantes,
POL
Proposition 4.9.2 Avec les notations précédentes,
les variables aléatoires g(X) et h(Y E) sont aussi indépendantes. Si de plus g(X) et
L
C O g(X)h(Y ) est aussi intégrable, et nous avons
h(Y ) sont dans L1 , alors le produit
É
E (g(X)h(Y )) = E (g(X)) E(h(Y )) . (4.9.2)

Preuve. La première assertion est évidente par définition même de l’indépendance.
Pour le reste, nous remarquons d’abord que (4.9.2) se réduit à (4.9.1) si g et h sont
des fonctions indicatrices. Comme les deux membres de (4.9.2) sont linéaires en g
et en h, nous avons aussi (4.9.2) lorsque g et h sont des fonctions étagées. D’après
(4.3.3), nous en déduisons (4.9.2) pour g et h positives quelconques. Si g et h sont
de signe quelconque, (4.9.2) est vérifiée pour |g| et |h|, donc si g(X) et h(Y ) sont
intégrables, nous en déduisons que g(X)h(Y ) ∈ L1 . Enfin, dans ce cas, par différence
(en considérant g = g + − g − et h = h+ − h− et en développant le produit), nous

120 Chapitre 4 – Variables aléatoires réelles et Vecteurs aléatoires

obtenons (4.9.2) pour g et h elles-mêmes. 

Si X et Y sont des variables aléatoires réelles, il découle alors de (4.4.4) et du résultat
précédent que :

Proposition 4.9.3 Si les variables aléatoires X et Y sont indépendantes et dans L2 ,
alors Cov(X, Y ) = 0 et ρ(X, Y ) = 0 (ρ(X, Y ) est le coefficient de corrélation).

Nous savons que |ρ(X, Y )| ≤ 1 par (4.7.4). Si lesI Q U E
variables aléatoires X et Y sont
H
indépendantes, le coefficient de corrélationC|ρ(X,N Y )| est donc nul ; au contraire si
|ρ(X, Y )| est proche de 1, nous avons
L T E remarqué que les variables aléatoires sont
Ydéjà
O
Ple nom de “coefficient de corrélation”. Attention cepen-
L E pas que X et Y soient indépendantes.
“fortement dépendantes”, d’où
C O
dant, ρ(X, Y ) = 0 n’implique
É
Le résultat suivant est un analogue de l’équivalence (i)⇐⇒(ii) dans la proposition
3.6.10. E
IQ U
HN
Caléatoires réelles admettant les den-
YTE
Proposition 4.9.4 Soient X et Y deux variables
sités fX et fY . Pour qu’elles soient O L
P suivante : il faut et il suffit que le couple
indépendantes,
la E
Z = (X, Y ) admette (sur R2 ) L densité
É C O f (x, y) = fX (x) fY (y). (4.9.3)

Preuve. S’il y a indépendance, il vient par (4.9.1) que
Z x
U E
Z y
P(X ≤ x, Y ≤ y) = P(X ≤ x) P(Y ≤ y) = XI
fN Q
(u)du fY (v)dv,

Y T E C−∞H −∞

PO
ce qui montre que PZ vérifie (4.8.5) avec fL
donnée par (4.9.3).
L E
O soit satisfaite. Le même
Inversement, supposons que É C(4.9.3) calcul que ci-dessus
montre alors que P(X ≤ x, Y ≤ y) = P(X ≤ x) P(Y ≤ y) pour tous x, y ∈ R.
Mais, comme dans la preuve de la proposition 4.2.3, nous pouvons montrer que ces
relations s’étendent en P(X ∈ A, Y ∈ B) = P(X ∈ A) P(Y ∈ B) pour tous boréliens
A et B, d’où le résultat. 

4.9.2 Suite de variables aléatoires indépendantes

Etant donnée une famille finie X1 , . . . , Xn de vecteurs aléatoires à valeurs respecti-
vement dans Rp(i) , 1 ≤ i ≤ n, tout ce qui précède s’étend sans difficulté, sauf que les

4.9 – Variables aléatoires indépendantes 121

notations deviennent plus compliquées. La seule chose pouvant prêter à confusion est
la notion d’indépendance ; nous la définissons donc ci-dessous :

Définition 4.9.5 Les variables aléatoires X1 , . . . , Xn sont indépendantes (ou, “mu-
tuellement indépendantes”) si pour tous boréliens A1 , . . . , An on a

n
Y
P(X1 ∈ A1 , . . . , Xn ∈ An ) = P(Xi ∈ Ai ). (4.9.4)
U E
NIQ
i=1

Y T ECH
E POL
La proposition suivante est extrêmement utile dans la pratique.
L
ÉCO
Proposition 4.9.6 Si les Xj , 1 ≤ j ≤ n, sont des variables aléatoires indépendantes
et de carré intégrable, les variances vérifient
n n
!
V ar(Xi ). U E
X X
V ar Xi = (4.9.5)
N IQ
ECH
i=1 i=1

O LYT
P
L E à savoir
Preuve. Nous utilisons ici (4.4.7),
O
XnÉ C !
X n n
X
V ar Xi = V ar(Xi ) + Cov(Xi , Xj ).
i=1 i=1 i,j=1;i6=j

Comme les Xi sont indépendantes, Cov(Xi , Xj ) = 0 si i 6= j, d’où le résultat. 

IQ UE
Considérons maintenant une suite infinie (Xn )n∈N∗ . HN
L Y TEC
O
Définition 4.9.7 La suite (Xn )n∈N dePvariables aléatoires est dite indépendante si

E
. .L, Xn est indépendante.
pour tout n, la famille finie X1 , .O
ÉC
Il est facile de vérifier (et intuitif aussi) que l’indépendance est préservée par certaines
transformations.

Proposition 4.9.8 L’indépendance de la suite (Xn )n entraîne celle de

1) toute sous-suite (Xik )k ,

2) toute sous-suite de vecteurs issus de (Xn )n ,

3) toute suite de la forme (f1 (X1 ), · · · , fn (Xn ))n , où les fonctions fi sont des
fonctions continues, ou même mesurables.

122 Chapitre 4 – Variables aléatoires réelles et Vecteurs aléatoires

Exemple 4.9.9 Nous considérons l’ensemble Ω = [0, 1[ muni de la tribu borélienne
restreinte à cet ensemble, et de la mesure de Lebesgue. A chaque réel ω, nous associons
son développement dyadique (unique si l’on impose que les wi ne soient pas tous égaux
à 1 à partir d’un certain rang) :
X wi
w= , wi ∈ {0, 1}.
2i
i≥1

L’application Xi : Ω → {0, 1}, qui à ω associe Xi (ω) = ωi est une variable aléatoire sur
E
Ω. En effet, pour xi ∈ {0, 1}, 1 ≤ i ≤ n,
NIQU
"Ci H
E
L[ T
Y X xj i
xj 1
"
PO
X
{Xi = xi } = , + i ,
OLE
2j 2j 2
ÉC
x1 ,··· ,xi−1 j=1 j=1

qui est bien un élément de la tribu borélienne de Ω = [0, 1[, et

1 X 1
2U E
P({Xi = xi }) = 1= .
2i
N
x1 ,··· ,xi−1 IQ
ECH
Y T (Xi)1≤i≤n . Nous avons
Montrons l’indépendance des variables aléatoires
O
P "n L
\ OLE n
"
C
É {Xi = xi } =
X xi X
,
xi 1
+ n ,
i=1
2i i=1 2i 2
1≤i≤n

si bien que Ñ é
\ 1
UE
P {Xi = xi } = ,
2n
IQ
HN
1≤i≤n
C
T E Cela démontre que1 les variables
qui est la mesure de Lebesgue de l’intervalle ci-dessus.
Ode
aléatoires Xi sont indépendantes et de Ploi LYBernoulli de paramètre 2 . Ainsi, nous
venons de construire sur Ω une O L Ede variables aléatoires telle que toute sous-suite
suite
É C aléatoires indépendantes. C’est donc une suite de
finie est constituée de variables
variables aléatoires indépendantes de loi de Bernoulli de paramètre 21 .

Nous citerons sans démonstration le théorème suivant répondant, dans un cadre gé-
néral au problème de la construction d’une suite de variables aléatoires indépendantes
de lois données.

Théorème 4.9.10 Etant donnée, pour chaque entier n, une probabilité µn sur Rp(n) ,
où p(n) est un entier non nul, il existe un espace Ω muni d’une tribu A et d’une proba-
bilité P sur lequel on peut définir une suite (Xn ) de variables aléatoires indépendantes,
chaque Xn étant de loi µn .

P ÉCO 2) Si il existe une fonction f telle que pour toute fonction continue bornée h.) Pour dérons une fonction h continue bornée P OR. Théorème 4. O L Y pour laquelle (4.10 – Calculs de lois 123 4. réciproque de (4.10 Calculs de lois 4.10.1 Un théorème d’identification Dans ce paragraphe. Z (4.4)). comment la calculer ? . Z E(h(X)) = h(x)f (x)dx. qui montre qu’il existe des variables aléatoires réelles qui ne sont ni discrètes. La loi de Y est égale à UE NIQ P(X ≤ a)δa + 1{]a. 4. Soit g une fonction mesurable. X). et si oui.10. nous allons utiliser le théorème suivant (que nous ne démontre- rons pas).10.10.4. CH E nous en convaincre. N E C Hnotation en (4. Soit X une variable aléatoire réelle. LE ÉCO Utilisons ce résultat dans l’exemple suivant. E(h(a)1{a≥X} ) + E(h(X)1{a<X} ) Z +∞ = h(a)P(X ≤ a) + h(x)f (x)dx. Est-ce que Y admet une densité. Soit X une variable aléatoire de loi de densité f et a ∈ R fixé.5. nous consi- LYetTnous calculons (Une partie à densité et une masse au point a.2 Recherche de densité Un problème important est le suivant.3).1) donne la fonction de ré- P partition de µ. N IQU T CH L’idée de la preuve repose sur le fait que lesE fonctions continues bornées peuvent approcher une fonction h = 1]−∞.1) YT E(h(X)) = h(x)µ(dx). ni à densité. sur LE E(h(Y )) É C O X)) = = E(h(max(a. a Nous utilisons alors le résultat ci-dessus.y] . admettant la densité fX . de sorte que Y = g(X) soit aussi une variable aléatoire.10.1 1) Si il existe une probabilité µ sur R telle que pour toute fonction E IQU continue bornée h. R E alors la loi de X admet la densité f .+∞[} f (x)dx. Considérons la variable aléatoire Y définie par Y = max(a. (voir R O L alors la loi de X est égaleLàEµ.3.

Plutôt qu’exposer une théorie générale. donnons des exemples. 1). Pour résoudre ce problème. ce qui donne L E P O C ZÉ+∞ O +∞ y−b 1 Z Å ã E(h(Y )) = h(ax + b) fX (x) dx = h(y) fX dy −∞ −∞ a |a| (on peut considérer séparément les cas a > 0 et a < 0). alors aX suit la loi Γ(α.124 Chapitre 4 – Variables aléatoires réelles et Vecteurs aléatoires Il convient d’abord de remarquer que cette densité n’existe pas toujours. L Si au contraire a 6= 0.3) implique E N IQU H h ◦ g(x)f +∞ Z C E(h(Y )) = E(h ◦ g(X))E= X (x) dx. qui n’a pas de densité. 2) Soit Y = X 2 . • Si X suit la loi Γ(α. (4.10. et il faut faire très atten- tion aux domaines où g est croissante ou décroissante.10. La fonction fY sera alors la densité cherchée. où a et bNsont des constantes. • Si X suit la loi normale N (0. • Si X suit la loi uniforme sur [α. Si par exemple g(x) = a pour tout x. . θ/a). a2 ). la loi de Y est la masse de Dirac en a. alors ÉCO X−m • Si X suit la loi normale σ suit la loi N (0. Le changement de variable y = x2 donne alors R0 R +∞ E(h(Y )) = −∞ h(x2 ) fX (x) dx + 0 h(x2 ) fX (x) dx R +∞ √ 1 R +∞ √ 1 = 0 h(y) fX (− y) 2 √ y dy + 0 h(y) fX ( y) 2 √ y dy. Cela nécessite que g soit dérivable et bijective “par morceaux”. aβ + b]. Si a = 0. θ).2 IQU 1) Soit Y = aX + b. Or. 1). β]. (4.10. Donc E . E nous avons alors Y = b et la loi de Y (sans C H densité) est la masse de Dirac en b. et une classe de R fonctions h suffisamment grande. IQU y−b 1 Å ã (4.5. l’idée consiste à essayer de mettre E(h(Y )) = E(h ◦ g(X)) sous la forme h(y)fY (y)dy pour une fonction convenable fY . σ2 ).3) fY (y) = fX H N |a| TEC a Par exemple : P O LY LNE(m. alors aX + b suit la loi N (b.2) O LYT −∞ E P É C OL Nous souhaitons faire le changement de variable y = g(x) dans cette intégrale. E Exemple 4.10. alors aX + b suit la loi uniforme sur [aα + b. nous faisons Y T le changement de variable y = ax + b dans (4. La fonction x → x2 est décroissante sur R− et croissante sur R+ .2).

10.10.10.6) ÉCO |J(g)(g −1 (y))| Lorsque g est simplement continûment différentiable. . . il existe souvent une partition finie (Ai )1≤i≤d de l’ensemble {x : fX (x) > 0}. variable y = g(x) dans l’intégrale n-uple qui remplace le terme N IQU Rappelons cette formule de changement de variable. H Y T EC vecteur aléatoire de densité fX sur Rn . et nous sommons. Nous obtenons alors d X 1 fY (y) = 1Bi (y)fX ◦ g −1 (y) . Soit g une fonction de Rn dans Rm .IDans N en dehors de A. avec g injective sur chaque Ai . Rappelons d’ailleurs queE1/J(g)(g −1 (y)) est Q U le cas où fX (x) = 0 le jacobien de la transformation inverse g −1 au point y ∈ B. 1). (4. où gi est la i ème composante de g.2).7) i=1 |J(g)(g −1 (y))| où g −1 est bien définie sur chaque Bi (comme image réciproque de la restriction de g à Ai ). . nous obtenons que Y admet la densité YT ECH O L P◦ g−1 (y) 1 L EX fY (y) = 1B (y)f . comme dans le cas unidimensionnel. . Nous avons alors 1 Z Z h ◦ g(x)fX (x)dx = h(y)fX ◦ g −1 (y) dy (4. dont les composantes LE jacobien est le déterminant J(g)(x) O sont les dérivées partiellesC∂g É i (x)/∂xj . Nous notons Bi = g(Ai ) l’image de Ai par g. Plusieurs cas sont à considérer : OLE É C Y n’admet pas de densité.10 – Calculs de lois 125 et nous avons donc √ √ 1 fY (y) = (fX (− y) + fX ( y)) √ . et Y = PO L g(X). alors X 2 suit la loi Γ(1/2. le changement de E de droite de (4.10. E U Soit X = (X1 . l’idée est la même.3 Si X suit la loi N (0. (4.10.4) 2 y Nous en déduisons le résultat suivant. nous appliquons (4. Proposition 4.4.10. .5) à chaque morceau.10. Xn ) un NIQ Dans le cas des vecteurs aléatoires.5) A B |J(g)(g −1 (y))| (attention à la valeur absolue de J(g)). a) m > n : Le vecteur b) m = n : Nous utilisons. Nous découpons alors l’intégrale selon les Ai . EC H Supposons tout d’abord que g soit une bijection continûment différentiableLY Tde A dans B (deux ouverts de Rn ). (4. Son O P de la matrice jacobienne. 1/2).

.10) 2π En particulier les variables aléatoires R et Θ sont indépendantes. . .11) Γ(α)Γ(β) . avec Z = U + V . V ) un vecteur aléatoire de R2 .9.9) implique 1 2 fY (r. z) = z α+β−1 y α−1 (1 − y)β−1 e−θz 1B (y. (4. . v) = Γ(α)Γ(β) u v e 1A (u.8) : Z Z fY (y1 . . fY 0 (y1 .10. qui a pour jacobien z.6) entraîne θα+β fY 0 (y.10. yn )dym+1 . . en essayant de construire une application g 0 de Rn dans Rn dont les m premières composantes coïncident avec les composantes de g. Nous obtenons ainsi la densité fY 0 de Y 0 = g 0 (X). Cette application est bijective de A =]0.8. ym ) = . ∞[2 dans B =]0. .première 2 I suit la loi de densité re−r /2 1]0. . ce qui cor- u respond à g(u. (4. θ) et Γ(β. 2π].9) PO L Par exemple si U et Ä VO L Eäindépendantes et de loi N (0. v). et nous avons g −1 (y. et (4. 1). Θ) ses coordonnées polaires. v = r sin θ. v) = u+v . V ) un vecteur O L E aléatoire de R . Quelle la densité de Y = U+VU ? Comme la dimension de Y est plus petite que celle de X.6) H NIQ fY (r.∞[ (r) 1]0.3) entraîne que sont 1 É Cu2 +v 2 fX (u. r sin θ)1B (r.10.126 Chapitre 4 – Variables aléatoires réelles et Vecteurs aléatoires c) m < n : On commence par “compléter” Y . θ) = r e−r /2 1]0. et la seconde estQ U uniforme 2π].7) s’appliquent. θ) Y EC = r fX (rTcos θ. E surla[0. u + v . ym+1 . ym . z) = (yz. z).6) ou (4. θ α+β α−1 β−1 −θ(u+v) Comme fX (u. U Eentraîne que Le jacobien de g −1 au point (r. et son inverse g −1 s’écrit facilement : u = r cos θ.2π] (θ).10. θ) vaut r. (4. donc (4. . (4. PO 2 LY T Soit X = (U. Soit X = (U. Nous prenons Ä par exemple ä Y 0 = (Y. . dyn .10.10.∞[ (r). La transformation g est un difféomorphisme de A = R2 \{0} dans B =]0. θ). . HN O LYT P O LE • Coordonnées É Cpolaires. Puis nous appliquons l’extension évidente de (4. ∞[. θ). 1[×]0.10. Z).10. z(1 − y)). EC HN • Loi bêta. avec U et V indépendantes de lois É Cest Γ(α. . ∞[×]0. et Y = (R. et pour laquelle (4.10. . v) = 2π exp − 2 . ...8) IQ UE EC Donnons les exemples importants suivants. il faut d’abord “com- pléter” Y . (4. Rn−m (4.

Nous verrons au chapitre 6 une autre preuve de ce résultat grâce à la fonction caractéristique.6. alors Z = U + V admet la densité Z +∞ Z +∞ fZ (z) = fU (u)fV (z − u)du = fU (z − v)fV (v)dv. σ 2 ) et N (µ. dont le jacobienI Q N conduit à : CH O LYTE Proposition 4.10.8. nous “complétons” Z en le couple T = (U. alors U + V suit la loi Γ(α + β. (4. σ 2 + τ 2 ). On appelle loi bêta de paramètres α et β la loi admettant P O L la densité de Z. E Nous obtenons aussiLfacilement O de fY (y) par la fonction le C fY 0 (y. Application : En utilisant ce calcul. • Produit de convolution.6)). Γ(α + β) I Q U EZ. u + v) sur R2 .10. Par suite (4.5 Si U etLVE P deux variables aléatoires indépendantes de sont CO densités respectives fUÉet fV .12) Γ(α)Γ(β) QU NI Y T ECH (utiliser (4.12) montre que cette densité. Là encore. θ) P O O L E et Γ(β.8) est la densité de la variable aléatoire démontré la : HN EC Proposition 4. .10.10. z) est É produit θα+β fZ (z) = z α+β−1 e−θz 1]0. Z) (par exemple). nous pouvons montrer que la somme de deux variables aléatoires indépendantes.10 – Calculs de lois 127 Il reste à appliquer (4.13) −∞ −∞ La fonction fZ est appelée le produit de convolution des deux fonctions fU et fV . v) = (u. Nous verrons intervenir de nouveau le produit de convolution dans le chapitre suivant. (4.10. θ).1[ (y) (4. θ) et est indépendante de U+V U qui É suit une loi bêta de C paramètres α et β. z)dz 0 ∞ θα+β Z = y α−1 (1 − y)β−1 1]0. de lois normales N (m.10. Nous avons en fait qui d’après (4.8) : Z ∞ fY (y) = fY 0 (y.10. Si U et V sont indépendantes de densités respectives fU et fV . correspondant à la E estU1.6) bijection g(u.∞[ (z). τ 2 ) est une variable aléatoire de loi normale N (m + µ. nous pouvons de la même manière trouver la densité de la somme Z = U + V .4. En effet.4 Si U et V sont L T Yindépendantes et de lois respectives Γ(α.1[ (y) z α+β−1 e−θz dz Γ(α)Γ(β) 0 Γ(α + β) α−1 = y E (1 − y)β−1 1]0.

ÉC OLE Proposition 4. . . Xn .1 La suite (Yn )n définie par Yn = G(Xn ) est une suite de va- riables aléatoires indépendantes. 5] en intervalles Ik .11 Simulation de suites de variables aléatoires in- dépendantes Un générateur aléatoire nous permet d’obtenir une suite X1 . .11. de loi donnée notée PY . λ(Ik ) n . . Ainsi.4. 1[. . 5]. Pour chacun d’eux.2. de variables aléatoires indépendantes et de loi uniforme sur [0. nous définissons laI Q U E “inverse” continue à fonction N gauche de F par : TE CH G(x) = inf{y O Y ≥ x}. . Xn de variables −x aléatoires de même loi de densité f (x) R ∞= e 1x>0 .128 Chapitre 4 – Variables aléatoires réelles et Vecteurs aléatoires 4. Comme au paragraphe 4. Yn . nous calculons la proportion de réalisations qui tombent dedans. potentielle- ment infinie. l’histogramme fˆn associé à cette partition et aux observations X1 . . . de variables aléatoires réelles indépen- dantes.4. suivant la méthode préconisée au paragraphe 4. . : FL(y) (4. . Le calcul de la loi a été fait au paragraphe 4. 1] et indépendantes. Supposons que l’on connaisse la fonction de répartition F des variables Yi . Nous partitionnons [0. . Xi ∈ Ik } fˆn (x) = pour x ∈ Ik . Preuve. Une manière commode de représenter les tirages est d’en tracer un histogramme.2. de loi PY .4. . Xn est la fonction en escalier définie par 1 card{i : i ≤ n. .2.11.11. . L’indépendance et le fait que les Yn suivent la même loi sont évidents. Remarquons que 5 e−x dx = e−5 est très petit et nous pouvons nous limiter aux valeurs des variables aléatoires appartenant à l’intervalle [0.1 T E Cde répartition Inversion de la fonction P O LY E Lintroduite ÉCO Généralisons la méthode au paragraphe 4. . IQ UE HN 4. X2 .4. . proportion que nous normalisons par sa longueur. . A partir d’une suite de variables aléatoires uniformes sur [0.  IQ UE C HN O LYTE P E aléatoires exponentielles indépendantes Simulation d’une suite de variables L ÉCO Nous souhaitons simuler n réalisations indépendantes X1 .2. nous pouvons simuler une suite de variables aléatoires réelles indépendantes de fonction de réparti- tion F . Nous voulons construire une suite Y1 . . . 1].1) P ∀x ∈]0. . . .

5] en intervalles Ik avec I1 .4.11.2 Méthode du rejet U E NIQ PYHadmet une densité f .11. puisque f et g sont deux fonctions positives ayant la mêmeI intégrale N CH O LY T Econtinue à support compact (donc Un cas particulier est le cas où f est une densité bornée). . . . intervalles consécutifs de [2. L E Cette observation sera justifiée au chapitre 5 par la densité f . pour la loi exponentielle de paramètre 1. et comme précédemment card(A) désigne le cardinal de l’ensemble fini A. O C loi des grands nombres. et Y = Zn si N = n. . telle queL P Oaléatoires O L E -il est possible de simuler des variables de loi ν (par exemple par la méthode précédente) . f (Zn ) > aXn g(Zn )} . . et même a > 1 si PY 6= ν. . É 4. . I20 intervalles consécutifs de [0. lorsque n augmente. I21 . Nous posons alors N = inf{n ∈ N? . . et d’autre part d’une suite (Zn )n potentiellement infinie de variables aléatoires indépendantes de loi ν et indépendantes des (Xn )n .2) pour une constante a connue (nécessairement a ≥ 1. É C . Les tailles des intervalles peuvent être adaptées aux valeurs prises par les variables Xi . La variable aléatoire Y suit la loi PY et N et Y sont indépendantes. (4.11. (4.11. Par exemple.2 La variable aléatoire N est à valeurs dans N? et suit une loi géométrique de paramètre a1 (et donc d’espérance a). nous pouvons choisir la parti- tion de [0. 5[ N IQU ECH T peut constater que fˆn "approche" la vraie Yon P O L Au fur et à mesure de la simulation. ∀x ∈ Rd .3) Proposition 4.ν admet une densité g telle que f (x) ≤ ag(x).11 – Simulation de suites de variables aléatoires indépendantes 129 Nous avons noté λ(I) la longueur de l’intervalle I. I35 E de longueur 1/5. 2[ de longueur 1/10. P LE ÉCO Nous supposons aussi que nous disposons. et lorsqu’on Cette méthode s’applique lorsque la probabilité Y T EC connait une autre probabilité ν. d’une part de la suite (Xn )n ci-dessus (constituée de variables aléatoires indépendantes de loi uniforme). E Q U 1). .

donc α = 1/a. Notons An = {f (Zn ) > aXn g(Zn )}. 0 < α < 1 et la variable aléatoire N est bien à valeurs dans N . E IQU n=1 N n Y T ECH Les variables aléatoires h(Zn )1A d’une part et 1{N >n−1} d’autre part sont indépen- P O L∞ dantes. si l’on connaît explicitement la fonction G = F −1 .11. nous obtenons que E(h(Y )) = h(z)f (z)dz. g et a.11. ÉC O La première est très simple à mettre en oeuvre. c] et est bornée par une constante C. Pour N E C Hla même procédure. ce qui est assez rare dans la pratique. L’indépendance est immédiate.4). mais cette deuxième méthode est malheureusement parfois longue à mettre en oeuvre (sa “longueur” est proportionnelle à N ). Ainsi. La première assertion entraîne que la variable Y est bien définie dans la seconde formule (4.130 Chapitre 4 – Variables aléatoires réelles et Vecteurs aléatoires Preuve. et aussi le fait que l’on sache préalablement simuler selon la loi ν. donc E O L )) = X E (h(Z )1 ) (1 − α)n−1 . La seconde nécessite la connaissance de f . il faut répéter YT P O L LE Nous pouvons comparer les deux méthodes. de sorte que P(N > n) = (1 − α)n . a O LY 0 P LE C Oexpression lorsque h = 1. L’idée est par exemple d’utiliser la première mé- thode pour cette loi. Les conditions sont assez souvent remplies. d’où le résultat. Les événements An sont indépendants et ont même probabilité.4) n=1 Enfin E (h(Zn )1An ) vaut E fQ I (z)U ÇZ 1 å N 1 Z Z Z H T E C ag(z) h(z)g(z) 1{f (z)>axg(z)} dx dz = h(z)g(z) dz = h(z)f (z)dz. Posons P(An ) = α (nous calculerons α plus tard). É CE(h(Y n A n (4.3). Pour toute fonction h nous avons ∞ X  E(h(Y )) = E h(Zn )1An 1{N >n−1} . En remplaçant E (h(Zn )1An ) par sa valeur dans (4. Un cas particulier : Supposons que la densité f est à support dans le compact [b. telles variables aléatoires indépendantes. R  E I Q Uobtenir une suite de Nous avons ainsi obtenu une variable aléatoire de loi PY . Alors la constante a de l’énoncé général .11. puisque f ∗est En particulier α égale cette É une densité.

Montrer que E((X − a)2 ) E atteint son minimum lorsque a = E(X). alors la variable aléatoire Y = UN . 0 On pourra en particulier voir ce que devient cette formule dans le cas où g(x) = x. E(N ) = C(c − b). d’espérance Remarquons que la loi de N est une loi géométrique de paramètre U N I Q pseudo-aléatoire est 2N . de carré intégrable. V ) de lois uniformes sur [b.1 Soit X une v. 1 E C(c−b) .12 Exercices sur le chapitre 4 EXERCICE 4.2 Soit X ≥ 0 une 1 OL E variable positive croissante de classe CC. Nous pouvons adapter la proposition 4. ou doit-on placer ce poste de façon à minimiser l’espérance de la distance entre le poste et l’incendie ? .C f (U ). IQU EC HN LY T P O aléatoire à densité.2 et montrer que si (Uk )k et (Vk )k sont des suites de variables aléatoires indépendantes et de loi respectivement uniforme sur le rectangle [b. C].a. Si les incendies se déclarent en des points uniformément répartis sur (0. C]. A < ∞. EXERCICE 4. Cet algorithme s’appelle l’algorithme du rejet.12. jusqu’à ce que V ≤ Tirer (U.11. et g une fonction EXERCICE 4. c] et sur le rectangle [0. A).12.3 1) Un poste à incendie doit être installé le long d’une route forestière de longueur A. avec N = min{k ≥ 1 : Vk ≤ f (Uk )}.12. V ) tels que V > f (U ). O É Ccouples f . Nous rejetons les (U. définit une variable aléatoire de densité f . telle que g(0) = 0. Montrer que É Z +∞ E (g(X)) = g 0 (t)P(X > t)dt. c] est bien ajustée. Poser alors X = U .11. LY T E PlaOvariable aléatoire X ainsi obtenue a pour densité L D’après la proposition 4. LY T laCdensité f par la constante C sur le l’algorithme sera efficace si la majoration de E O P LE ÉCO 4. E Nous allons en déduire l’algorithme suivant : N IQU E c]Het sur [0.12 – Exercices sur le chapitre 4 131 peut-être remplacée par a = C(c − b).2. Comme le nombre d’appels au générateur H support [b.4.

12.6 Soit X une variable aléatoire de loi N (0.12. 2) Calculer l’espérance et O ÉC 3) Quelle est la probabilité que la lampe fonctionne pendant 6 ans ? EXERCICE 4. a x Cette variable aléatoire décrit par exemple la répartition des richesses. E 3) Utiliser la forme intégrale de P(X ≥ a) pour obtenir l’encadrement N I QU 1 1 CH 1 e 2 ≤ P(XT≥Ea) ≤ √ e− 2 .5 Soit X une variable aléatoire de densité fX .Nc I>Q0). et T Etudier l’existence d’une densité pour Y Y donner CH E sa valeur en fonction de fX .7 Considérons deux paramètres a > 0 et α > 0. α) si X est une variable aléatoire de densité f définie par f (x) = 0 si x < a α  a α+1 f (x) = si x ≥ a.4 La durée de fonctionnement d’une lampe suit une loi de densité 1 −t f (t) = te 4 1t≥0 16 (l’unité de temps est l’année). E POL L ÉCO EXERCICE 4.12. s’étendant de 0 à l’infini. (α > 0. IQ UE EC HN 1) Vérifier que f est une densité de probabilité. Å ã −a2 a2 √ − √ a 2π a 2π3 OL Y a 2π P LE ÉCO EXERCICE 4.12. 1) Calculer E(eλX ) pour λ ∈ R. 1). On dira que X suit une loi de Pareto de paramètres (a. 1) Montrer que f est bien une densité de probabilité. . on a P(X ≥ a) ≤ e− 2 .132 Chapitre 4 – Variables aléatoires réelles et Vecteurs aléatoires 2) Supposons que la route soit infiniment longue. O L YT P L E la variance de cette durée de fonctionnement. où doit-on alors installer le poste à incendie ? EXERCICE 4. Si la distance entre un incendie et l’origine est exponentiellement distribuée avec un paramètre λ. a2 2) En déduire que pour a ≥ 0. Considérons la UE variable aléatoire Y = ce−αX 1{X>0} . Allure du graphe de f : on pourra prendre a = 1 et α = 3.

12 – Exercices sur le chapitre 4 133 2) Calculer P(X > x). N. 0 n! Donner les lois respectives de X et de Y . E si α > 2. H N )L EXERCICE 4. La loi du couple est donnée. Y ≤ y) = β e−(α+β)y dy.9 Soient X et YOdeux Y T L v.12.+∞[ (y). 1] et X à valeurs dans EXERCICE 4.8 Soit (X. 3) Soit y > 0 fixé. Qu’en conclure ? Cette propriété est-elle vraie pour une variable exponentielle ? 4) Montrer que X admet une espérance si et seulement si α > 1. O LYTE P E de loi uniforme sur [0. Trouver la loi de Z et donner une condition pour que la loi de Z admette une densité par rapport à la mesure de Lebesgue. On suppose que la densité condi- tionnelle de X sachant Y = y L E est laPdensité 1R (x)y 2 xe−xy et que la loi de Y est de densité y1 1[1. Calculer E(X) dans ce cas. avec X et Y indépendantes. É C O + 2 On pose T = XY . U E NIQ ECH 3) Quelle est la loi de X(1 + Y ) ? EXERCICE 4. y) = 2π |x|e 2 1) Calculer la loi de X et la loi de Y . EXERCICE 4. 1) Trouver la loi du couple (T.4.11 Soit α. On considère deux v.r. Calculer V ar(X) IQU 5) Montrer que X admet une variance si et seulement dans ce cas. par Z y (αy)n P(X = n. YO TEC unYcouple aléatoire de densité P .10 Soit Y une É C O Lv. β > 0.a. Allure de la fonction de répartion pour les paramètres ci-dessus.12.a. On considère Z = XY .12. . : X à valeurs dans N et Y à valeurs dans R+ . Est-ce que X et Y sont indépendantes ? 2) Est-ce que X et XY sont indépendantes ? Calculer la loi de XY . Y ).a.L E x 2 (1+y2 ) ÉCO 1 − f (x.12. IQ UE C HN 3) Calculer E(Y |X). Qu’en déduit-on ? 2) Trouver la loi conditionnelle de Y sachant X = x. Calculer limx→∞ P(X > x + y|X > x). pour n ∈ N et y > 0.

1≤k≤n 1≤k≤n IQ UE EC HN L Y TFX. Θ). de fonction de répartition F . . Xn . cov(X.12. . indépendantes et de même loi. de Y et de (X. . (X. V ar(X) et V ar(Y ).15 Soient X et Y deux variables aléatoires exponentielles in- dépendantes de paramètres λ et µ.12.134 Chapitre 4 – Variables aléatoires réelles et Vecteurs aléatoires EXERCICE 4. . Y ) − min(X. 1). Un = X 1 . On considère L E le couple (R. Y ) en coordonnées 1) Calculer la loi de (R. On pose : U 1 = X 1 . Y ). 2) En déduire le procédé pratique suivant de simulationEde variables aléatoires IQ U N indépendantes et de loi normale : si U√et V sont deux variables aléatoires indépen- H ) et Y = √−2 ln U sin(2πV ) dantes uniformes sur [0. . Un ). .12 Soient X1 . 1) Chercher la loi du n-uplet (U1 . . 1). Y ). Θ) de variables aléatoires É C Opolaires. . EXERCICE 4. . U 2 = X 1 X 2 .a. . Calculer E(X) et E(Y ). . . E P L É CO 2) Dans le cas où la loi des Zk est de densité f . Y ) et ρ(X. . On pose M = min(X. 1]. 2π[.12. 3) Nous supposons désormais que les Zk ont une loi uniforme sur [a.14 Soit Z1 . sont deux variables aléatoires indépendantes P LE É CXO? Y 3) Quelle est la loi de EXERCICE 4. indépendantes de loi uniforme sur [0.13 Cet exercice donne une méthode I Q U E(usuelle) pour simuler deux N variables aléatoires indépendantes et de loi normale. calculer les lois de X. .Y en fonction de F . Y ). Y T ECH P O L à valeurs R+ × [0. Y ). EXERCICE 4. . 1]. On pose X = min Zk . . de Y et de (X. Calculer les 1) Calculer la fonction de répartition jointe O fonctions de répartition FX et FY . Y ) et D = |X − Y | = max(X.12. b] pour a < b dans R. . . . Zn des variables aléatoires réelles. alors X = −2 lnEUC T cos(2πV O LY de loi N (0. Y = max Zk . Expliciter les lois de X. 2) Chercher la loi conditionnelle de Un sachant Un−1 = u. Θ) et celle de (R2 . obtenu en exprimant Soient X et Y deux variables aléatoires indépendantes de loi N (0. Xn des v.

4.12 – Exercices sur le chapitre 4 135

1) Calculez P(M > a, D > b, X > Y ) pour a, b ≥ 0.

2) Déduisez-en P(X > Y ), P(X < Y ), la loi de M , la loi de D conditionnellement
à X < Y , la loi de D conditionnellement à X > Y .

3) Montrez que M et X < Y sont indépendants.

4) Soient, pour 1 ≤ i ≤ n, des variables aléatoires
U E Xi indépendantes de lois
N Q
exponentielles de paramètre λi . Que dire de la loiIde min1≤i≤n Xi et de l’événement
{ Xk = min1≤i≤n Xi } ?
YT ECH
P O L
LE
ÉCO

U E
NIQ
TE CH
LY
PO
LE
ÉCO

IQ UE
C HN
O LYTE
P
LE
ÉCO

IQ UE
C HN
O LYTE
P
LE
ÉCO

U E
NIQ
TE CH
LY
PO
LE
ÉCO

IQ UE
C HN
O LYTE
P
LE
ÉCO

Chapitre 5
IQ UE
C HN
O LYTE
Convergences
LE et loi des grands P
ÉCO
nombres
U E
NIQ
CH
LYTE
Un coup de dés jamais n’abolira leOhasard
P
O LE
É C Stéphane Mallarmé.

Nous allons présenter dans ce chapitre l’un des résultats essentiels de la théorie des
E
probabilités, qui va justifier toute la théorie que nous avons
N IQU construite à partir de
l’approche heuristique du Chapitre 2. Ce résultat montre
T C H rigoureusement que, quand
El’infini,
le nombre de répétitions de l’expérience tend Y vers la fréquence de réalisations
P
d’un événement converge vers la probabilité O L de réalisation de cet événement. Ainsi,
L El’intuition. Ce résultat, appelé Loi des grands
notre modèle est bien cohérent
É COavec
nombres, a d’autres portées fondamentales. Philosophique tout d’abord, puisqu’il
permet de voir le monde déterministe comme la limite macroscopique d’une accumu-
lation de phénomènes élémentaires microscopiques aléatoires. Portée numérique aussi,
car nous verrons que ce théorème est à l’origine de méthodes de calcul numérique ap-
pelées Méthodes de Monte-Carlo, qui sont extrêmement puissantes et robustes.
Elles sont par exemple très utilisées en Physique ou en Mathématiques Financières.

Considérons un espace d’états Ω (muni de la tribu A et de la probabilité P). Nous vou-
lons étudier la répartition des valeurs d’une variable aléatoire X de loi PX , réalisées
au cours d’une succession de n expériences aléatoires indépendantes. Par exemple,
nous interviewons n personnes choisies au hasard et nous leur demandons si elles

137

138 Chapitre 5 – Convergences et loi des grands nombres

aiment les brocolis. Ici, la réponse sera 0 ou 1 et la variable aléatoire associée X sera
une variable de loi de Bernoulli PX .

Nous allons modéliser les résultats possibles de X au cours des n expériences par une
suite X1 , · · · , Xn de variables aléatoires indépendantes et de même loi PX . Nous nous
intéressons au comportement aléatoire de cette suite de résultats et en particulier par
leur moyenne empirique, quand le nombre n tend vers l’infini (n est le nombre d’ex-
périences analogues réalisées, par exemple la taille de l’échantillon dans un sondage).
La question est donc : comment définir UE
X1 +C· ·H
NIQ
lim Y T E
· + Xn
,
OL
n→+∞ n
L EP
CiOest une fonction de ω ?
sachant que chaque X
É
Pour ce faire nous allons, de manière générale, définir les notions de convergence de
variables aléatoires et voir que plusieurs définitions différentes sont possibles, non

I Q U E des comportements
équivalentes, ce qui enrichit mais complique aussi la description
asymptotiques.
C HN
LY TE
PO
LE
5.1 É C O de variables aléatoires
Convergences

Dans ce paragraphe, nous allons étudier des modes de convergence impliquant la
proximité des variables aléatoires elles-mêmes, contrairement au cas de la convergence
en loi qui sera étudiée ultérieurement. E
N IQU
probabilité (Ω, A, P), et à valeurs dans Rd . LY
Nous
E C H définies
Nous considérons une suite (Xn )n≥1 de variables aléatoires,
Tconsidérons
sur un espace de
également sur le même
O
espace une variable aléatoire “limite”EX.P On notera |.| la valeur absolue dans R ou la
L
ÉCO
d
norme dans R .

Définition 5.1.1 a) La suite (Xn ) converge presque sûrement vers X, ce qui s’écrit
Xn → X p.s., s’il existe un ensemble N ∈ A de probabilité nulle tel que

Xn (ω) → X(ω) quand n → ∞ pour tout ω ∈
/ N.

P
b) La suite (Xn ) converge en probabilité vers X, ce qui s’écrit Xn → X, si pour
tout ε > 0 on a

P(|Xn − X| ≥ ε) → 0 quand n → ∞. (5.1.1)

5.1 – Convergences de variables aléatoires 139

L1
c) La suite (Xn ) converge en moyenne vers X, ce qui s’écrit Xn → X, si Xn et X
sont dans L1 et si

E(|Xn − X|) → 0 quand n → ∞. (5.1.2)

Remarque : La convergence presque-sûre est la plus proche de la convergence simple
des fonctions. Mais ici, nous permettons à certains ω de neEpas vérifier Xn (ω) → X(ω),
IQU
si toutefois la probabilité de réalisation de l’ensemble de ces ω est nulle.
EC HN
P O LY T
OLE équivalentes,
Ces convergences ne sont pas comme le montre l’exemple suivant.
ÉC
Exemple 5.1.2 Soit (Xn )n une suite de variables aléatoires de Bernoulli telles que

P(Xn = 1) =
1
; P(Xn = 0) =I Q
1−U1E.
n HN n
Pour tout ε ∈]0, 1[, la probabilité P(|XL
TEC
n |Y> ε) = n tend vers 0 quand n tend vers
1
O
P X = 0 en probabilité. Comme E(Xn ) = n1 , elle
L
l’infini. Ainsi, la suite (Xn )n tendEvers
tend aussi en moyenne É CO
vers 0.

Mais considérons maintenant une suite (Yn )n de variables aléatoires de Bernoulli telles
que
1 1
P(Yn = n2 ) = ; P(Yn = 0) = 1 − .
n n
Par le même argument que ci-dessus, nous voyons que laI Q U E(Yn )n converge en
suite
probabilité vers 0, mais en revanche, E(Yn ) = E
N
n,CetHla suite ne converge pas en
YT
moyenne vers 0 (ni vers aucune autre limiteLfinie).
PO
Exemple 5.1.3 Soit U une
OLE
É Cvariable aléatoire uniforme sur [0, 1]. Posons Zn =
1{U≤ n1 } . Alors
1 1
P(Zn = 1) = ; P(Zn = 0) = 1 − .
n n
De plus, la suite (Zn )n converge presque-sûrement vers 0. En effet, si ω est fixé, alors
dès que U (ω) > 0 (ce qui est vrai avec probabilité 1), il existe n0 tel que U (ω) > n1 ,
et donc tel que Zn (ω) = 0, pour tout n ≥ 0.

Nous allons maintenant étudier les liens entre ces différentes convergences.

Le résultat le plus simple est le suivant.

IQ UE HN En particulier. LY TEC Attention : la réciproque est fausse.14 de Borel-Cantelli. fait la supériorité de l’intégrale de Lebesgue par rapport à celle de Riemann. E(Xn ) →n→∞ E(X).1.7. la suite ne peut pas converger vers 0. na Puisque a > 1.  N Nous avons vu dans l’exemple 5.4 Supposons que les Xn et X soient intégrables. Par ailleurs les événements An = {Xn > ε} sont alors indépendants. N I Q U Y T ECH Théorème 5.5.140 Chapitre 5 – Convergences et loi des grands nombres Théorème 5. 1 . la série de terme CO P(|X n | > ε) = n général P(|Xn | > ε) = n1 estÉdivergente. Ce résultat est un corollaire de l’inégalité de Markov (4. Preuve. considérons maintenant la suite (Vn )n avec. ε IQUE La convergence vers 0 découle alors de la convergence en moyenne de (Xn )n vers X. C’est ce résultat qui. elle implique que pour tout ε > 0. Ainsi. nous en déduisons que pour presque tout ω. Ce théorème s’appuie sur un certain nombre de propriétés de l’espéranceEque nous n’avons pas vues. ouP O de Lconvergence dominée) Si les variables aléa- L E ÉCO toires Xn convergent presque-sûrement sur Ω vers une limite X et si 1 ∀n. nous savons que pour presque tout ω. |Xn | ≤ Z avec Z ∈ L . en grande partie.2 Y que ECH Tla réciproque n’est pas toujours vraie. Par le théorème 2. alors Xn et X sont intégrables et on a E(|Xn − X|) →n→∞ 0. Alors la convergence en moyenne de (Xn )n vers X entraîne la convergence en probabilité. et donc toujours par le théorème de Borel-Cantelli. et nous l’énonçons donc sans démonstration. E POL ÉC OL L’un des résultats les plus importants de la théorie de l’intégration relie la convergence en moyenne et la convergence presque-sûre. la suite (Xn )n est bornée par 1. la série de terme général P(Vn ≥ ε) converge. Ainsi.1. DansOl’exemple 5.2. supposons PPuisque que les variables L E aléatoires (Xn )n soient indépendantes.1.1. pour a > 1 1 P(Vn = 1) = = 1 − P(Vn = 0).5 (de Lebesgue.1). E(|Xn − X|) P(|Xn − X| ≥ ε) ≤ . En revanche. une infinité de Xn (ω) seront supérieurs à ε. En effet. elle tend en moyenne vers 0 mais pas presque-sûrement. un nombre fini au .

E(Tn ) = n. Proposition 5.1.ε ≤ 1. Considérons la suite (Tn )n définie par 1 P(Tn = n2 ) = √ = 1 − P(Tn = 0).1. L ÉCO D’autres relations existent entre ces convergences. n n UE IQ N T E C H nous pouvons√montrer que la suite Par un argument similaire à l’argument précédent.5) entraîne que E(Yn.1.εH) = E(Yn. il y a cependant équivalence entre les deux modes de convergence. Supposons que Xn →n→∞ X presque-sûrement. comme nous l’avons vu dans l’exemple 5.4. et la suite (Tn )n E P ne peut pas converger en moyenne.5.ε ) ≤ P(N ∩ An. ce qui implique que les variables aléatoires Yn.ε ) + P(N ) = P(N ∩ AC c c →n→∞ 0. et soit N l’ensemble de probabilité nulle en dehors duquel on a Xn (ω) → X(ω). P LE Preuve. il suffit de montrer que la convergence en probabilité implique la convergence en moyenne. Comme nous avons aussi 0 ≤ Yn. Etant donné le théorème 5. Y T et nous en déduisons (5.ε ) →n→∞ 0. que nous allons explorer mainte- nant. Preuve. La suite (Vn )n converge donc presque-sûrement vers 0. alors ω ∈ / An. Mais E N IQU E n.1. Nous pouvons donc voir à travers ces exemples que ces notions sont délicates.ε ) P(An. lorsque |Xn | ≤ a.1 – Convergences de variables aléatoires 141 plus de Vn (ω) seront supérieurs à ε. P L1 il y a équivalence entre Xn → X et Xn → X. Soit An.ε = É CO {ω. O LY (Tn )n converge presque-sûrement vers 0. I Q UE N la convergence en probabi- T E CH Proposition 5. En voici un exemple. Remarque : L’hypothèse de domination est nécessaire.1.1).1. Si les Xn ne sont “pas trop grands”.2. |Xn (ω) − X(ω)| ≥ ε}.ε = 1N c ∩An. où n0 dépend de ω et de ε.7 S’il existe une constante a telle que |Xn | ≤ a presque-sûrement. En revanche. le théorème de convergence dominée (Théorème 5. .ε pour tout n ≥ n0 .6 La convergence presque-sûre entraîne O LY lité.ε tendent simplement vers 0 quand n → ∞. Si ω ∈ / N . E POL  L ÉCO La convergence en probabilité n’entraîne pas la convergence en moyenne.

1)) que lim supn E(|Xn − X|) ≤ ε. E(Xn ) = 1/n. Ainsi. et comme ε est arbitrairement proche de 0. et soit C H N T E ß Å P O LY 1 ã 1 ™ nj = inf n > nj−1 . La première de ces deux convergences E est H forte que la seconde d’après la Cplus LY T proposition 5.ε (avec la même notation que précédemment).8 Si ÉXn → X.14) appliqué aux ensembles Aj = {|Xnj+1 − Xnj | > 21j }.1.5. comme le montre le résultat suivant.6.1. où An est un intervalle de [0.142 Chapitre 5 – Convergences et loi des grands nombres Comme |Xn | ≤ a.ε ≤ H NIQ LY T E C 1.ε ). s ≥ n . mais “à peine plus”. nous avons {|X| > a + ε} ⊂ An. nous en déduisons que P(|X| > a + ε) = 0. Supposons que les An soient placés bout-à-bout.1.1. Déterminons les termes de la sous-suite. en recommençant en 0 chaque fois qu’on arrive au point 1. et donc P(|X| > a) = 0. L E(|X ÉCO Il s’en suit (par (5.ε |Xn − X| ≤ ε + (|Xn | + |X|)1An.  E I Q U en probabilité sont plus Les rapports entre convergence presque-sûre et convergence N subtils. elle E satisfait le critère de Cauchy : Xn − Xm converge en probabilité vers 0 quandI Q m. nous avons aussi U Eε + 2a 1An. En faisant tendre n vers +∞. qui est de probabilité E PnO− X|) ≤ ε + 2aP(An. c’est une conséquence du lemme de Borel- Cantelli (Théorème 2.1. Il est clair que l’on parcourt indéfiniment l’intervalle [0. il existe une sous-suite (nk ) telle que Xnk → X presque-sûrement quand k → ∞. et donc P(|X| > a + ε) ≤ P(An.  Exemple 5. Preuve. ÉCO 2 3 Il résulte alors de : j P(|Xnj+1 − Xnj | > 21j ) < j 31j < ∞ que la suite (Xnj )j≥1 P P converge presque-sûrement. (5. nous en déduisons (5. Soit Xn = 1An . Posons n1 = 1.ε ).1. P L|XE r − Xs | > j < j . Comme la suite Xn converge en probabilité vers X. 1] (car . et la suite Xn tend vers X = 0 en moyenne. En effet. Ceci est vrai pour tout ε. et donc en probabilité. PO CP OLE Proposition 5. Donc il vient sur l’ensemble {|X| ≤ a}. 1] de longueur 1/n. 1].3) Comme |Xn | ≤ a. pour r.Un → ∞.2).9 Soit Ω = R muni de sa tribu borélienne et P la probabilité uniforme sur [0.

en H N YT EC choisissant η suffisamment petit.4) implique : P O L L Eε} ⊂ {|X| > K} ∪ {|Xn − X| ≥ η}. a) Si Xn → X presque-sûrement. IQ UE P P b) Si Xn → X. et on n’a pas Xn → X presque-sûrement . {|f (Xn ) − f (X)| ≥ ε} ⊂ {|X| > K} ∪ {|X| ≤ K. Nous considé- rons une suite (Xn )n≥1 de variables aléatoires réelles indépendantes et de même loi.2. . Nous obtenons ainsi le résultat.5) la lim sup est nulle. et (5. {|f (Xn ) − f (X)| ≥ O É C P(|f (Xn ) − f (X)| ≥ ε) ≤ P(|X| > K) + P(|Xn − X| ≥ η).1. i. D’après l’hypothèse il vient lim sup P(|f (Xn ) − f (X)| ≥ ε) ≤ P(|X| > K). Proposition 5.1) n Notre objectif est de montrer que Mn converge vers l’espérance des variables Xn lorsque cette dernière existe (comme les Xn ont même loi.5) n Enfin limK→∞ P(|X| > K) = 0 (nous le montrons grâce N Q UE auIthéorème de convergence C H TE dominée) et donc dans (5. (5. cette espérance est la . Soit Mn . Ainsi la suite numérique Xn (ω) ne converge pour aucun ω.Edonc il existe η > 0 tel que |x − y| < η et |x| ≤ 2K. cependant comme la série 2 n 1/n converge. la moyenne des n premières variables aléatoires. alors f (Xn ) → f (X). |x| ≤ K entraîne |y| ≤ 2K. il s’en suit que Xn2 → X = 0 presque-sûrement.2 La loi des grands nombres Reprenons la modélisation présentée dans l’introduction de ce chapitre. (5. + Xn ).1. . (5.4) La fonction f est uniformément continue sur {x : |x| ≤ 2K}.e. Preuve.1.1. |y| ≤ 2K impliquent queI Q |f U (x) − f (y)| < ε. C HN O LYTE P LE É C O Pour (b) remarquons d’abord que si K > 0 et ε > 0.  P O LY LE ÉCO 5. Ainsi.10 Soit f une fonction continue de Rd dans R.5. |f (Xn ) − f (X)| ≥ ε}. Nous avons donc P la convergence presque-sûre de la sous-suite (Xn2 )n . (a) est évident. 1 Mn = (X1 + .2 – La loi des grands nombres 143 la série de terme général 1/n diverge). alors f (Xn ) → f (X) presque-sûrement.1.

prenons par exemple toutes n égales à une même variable aléatoire X. Comme E(|Y |)2 ≤ E(Y 2 ). .2. ÉCO Preuve.2.4. E((Mn − m)2 ) = V ar(Mn ) = .9. de même loi et de carré intégrable (Xn ∈ L2 ). U Alors la suite (Mn )n définie par NIQ Y T ECH OnL= X 1 + . + Xn (5. pour presque tout ω. .6).2.2. Elle utilise l’inégalité de Bienaymé- ÉCO nombres. Le résultat est peu informatif et permet d’obtenir certains contrôles d’er- reurs.1 Soit (Xn )n une suite de variables aléatoires indépendantes.2) PM OLE n ÉC converge vers m.2. (5. égale convergera L à m. Alors Mn = X. Sa preuve est plus délicate et utilise le lemme de Borel-Cantelli. U E (5. nous en déduisons que E(|Mn − m|) converge vers 0 quand n tend vers l’infini. presque-sûrement et en moyenne.5) et (4. Théorème 5. d’un des résultats essentiels de toute la théorie des probabilités. répétons-le.3) NIQ Y T ECH PO Le résultat prouvant la convergence enLmoyenne est appelé loi faible des grands E L immédiate. connu sous le nom de loi des grands nombres. Le résultat est plus fort et donne une information sur la trajectoire n → Xn (ω). Sa preuve est presque Chebyshev. Notons σ 2 la variance commune à toutes les variables Xn . à savoir que E((Mn − m)2 ) →n→∞ 0. Les hypothèses les plus générales sont données dans l’énoncé du théorème 5.4) n d’où (5.144 Chapitre 5 – Convergences et loi des grands nombres même pour tout n). E N IQU H aléatoires Xn soient in- ElesCX Remarquons également qu’il est nécessaire que les variables Y T dépendantes. En effet. nous avons σ2 E(Mn ) = m.2.3). Elle converge donc aussi en probabilité. Il s’agit là. bien définie puisque Xn est de carré intégrable. En vertu de la linéarité de l’espérance et de (4. Le résultat prouvant la convergence presque-sure est appelé loi forte des grands nombres. . Nous allons démontrer la loi des grands nombres pour des variables aléatoires de carré intégrable.2. quand n tend vers l’infini. et m = E(XEn ) leur moyenne commune. qui ne E P O L vers m que si X est constante. On a même un peu plus que la convergence en moyenne.

D’après l’inégalité de Bienaymé-Chebyshev (4.5. nous pouvons supposer que m = 0. Alors n p(n)2 UE 1 X IQ Mn − Mp(n)2 = Xp .5) ÉC 2 Montrons maintenant que la suite (Mn )n tend presque-sûrement vers 0. Quitte à remplacer Xn par Xn − m (donc Mn par Mn − m). si ω ∈/ N alors ω ∈ ∩q∈N∗ (Cq )c .4) implique que pour q ∈ N∗ .7. Montrons tout d’abord que la sous-suite (Mn2 )n converge presque-sûrement vers 0.q .3. HN n n EC p=p(n)2 +1 et puisque les variables aléatoires de la sommeL T indépendantes. (5.7). q N T E C H Pn≥1 P(An.14) nous montrons alors que P(Cq ) = 0. ÉC Par suite si nous posons N = ∪q∈N∗ Cq . Posons ensuite Donc si An. Ainsi.2. (5. PO LY O L EMn → 0 p.q ) < ∞.2. il vient Ysont ã2Eå P O O L ÇÅ p(n)2 n − p(n)2 2 E Mn − MC É p(n)2 = σ n n2 √ 2p(n) + 1 2 2 n+1 2 ≤ σ ≤ σ .q = lim supn An.q est décroissant en n).CH MNn2 (ω) → 0 si ω ∈/ N .s.2).q pour n assez grand (car Bn. Cela veut dire que pour tout ω ∈/ N . 1 σ2 q2 E Å ã InQ2 U P |Mn2 | ≥ ≤ . pour tout q ≥ 1 il Q I U E n assez grand tel que existe Mk2 (ω) ≤ q1 dès que k ≥ n. nous obtenons Y Bn.q = ∪m≥n Am. nous obtenons P(N ) ≤ ∞ q=1 P(Cq ) = 0 en P vertu de (2. En appliquant le lemme de Borel-Cantelli (Théorème E n≥1 O L2. Maintenant. donc aussi ω ∈ / Bn. En d’autres termes. Pour tout entier n.5.q = {|Mn2 | ≥ 1q }.q et Cq = ∩P OBLn. donc (par T E définition). Une nouvelle application de l’inégalité de Bienaymé-Chebyshev donne alors √ p(n)2 2 n + 1 σ2 Å. ω ∈/ Cq pour tout q ≥ 1.2 – La loi des grands nombres 145 La preuve de la convergence presque-sûre est beaucoup plus délicate. n2 n2 √ parce que p(n) ≤ n. notons p(n) l’entier tel que p(n)2 ≤ n < (p(n) + 1)2 .

.

ã P .

Mn − Mp(n)2 .

. ≥ a ≤ .

.

5) montre que p(n)2 Mn − Mp(n)2 → 0 p.s.2. n . le même raisonnement que ci-dessus pour (5. n n2 a2 P √ Comme la série n 2 nn+1 2 converge.

n Par ailleurs.146 Chapitre 5 – Convergences et loi des grands nombres Par ailleurs Mp(n)2 → 0 p. Donc (5. Chaque suite est en principe possible. . . on ne peut pas avoir convergence de Mn (ω) vers m pour tout ω. et p(n)2 /n → 1. . Soit alors Pp une probabilité sous laquelle les Xn sont indépendantes et de même loi de Bernoulli de paramètre p ∈]0. de 0 et de 1.e. + Xn ) = Mn . 1[. et notons m = E(Xn ) leur moyenne N empirique TECH O LY+ P X . 1}N . P O L É C O L Enous indique aussi dans quel sens il convient de En outre. la loi des grands nombres prendre la convergence dans (2. de même E I Q U commune. Pour sa preuve. Nous obtenons E sans en démontrer ainsi une justification a posteriori de l’approche par les fréquences. i.5). . c’est-à-dire une suite Xn de variables aléatoires ne prenant que les valeurs 0 et 1. . Nous définissons cette suite ∗ sur l’espace Ω = {0.2) implique que fn (A) converge vers P(A) presque-sûrement. xn .2.1). . Nous en déduisons que Mn → 0 p.s. d’après (5.1. Nous Revenons à “l’approche par les fréquences” du Chapitre I2. Théorème 5. Il faut remarquer que dans les théorèmes précédents. . et nous notons Xn la variable qui vaut 1 si A est réalisé n premières expériences est alors E P OL au cours de la nième expérience et 0 sinon. . E U un événement A. le lecteur pourra consulter le livre “Promenade aléatoire” de Benaïm et El Karoui.QSoit N Y T E C Haléatoire répétons l’expérience.6) ÉCO n converge presque-sûrement et en moyenne vers m.2. I Q au moins que E C H YT cette approche est compatible avec la théorie qui a été fondée dessus. + Xn LE 1 (5. Umontre N de manière rigoureuse la validité (c’est évidemment impossible). qui.2. . quand n tend vers l’infini.s. les Xi sont indépendantes et de même loi et E(Xi ) = P(Xi = 1) = P(A). un point ω est une suite numérique x1 . et donc aussi dans l’approche par les fréquences. . Exemple 5. Nous allons voir dans l’exemple suivant qu’il existe un ensemble négligeable sur lequel la convergence n’est pas réalisée.2.2 Considérons des variables aléatoires Xn indépendantes. La fréquence de réalisation de A au cours des L ÉCO 1 fn (A) = (X1 + .2. .3 Considérons un jeu de Pile ou Face infini. . à savoir au sens presque-sûr.  Enonçons la loi forte des grands nombres dans toute sa généralité. Alors la moyenne loi et intégrables.

Remarquons également que la probabilité de chaque suite particulière est nulle (elle vaut limk→+∞ pk1 (1 − p)k2 .1 Considérons une suite (Xn )n de variables aléatoires indépendantes qui suivent des lois uniformes sur [0. 1]. 1].3 – Méthode de Monte-Carlo 147 (Il est possible de construire une telle loi. . k1 + k2 = k).e. puisqu’on n’a généralement pas E la convergence simple (i. ce qui veut dire que P n’est pas une somme de mesures E de Dirac.5. l’ensemble de probabilité 1 pour Pp des suites (xn )n qui tendent vers p. Pour cela. la moyenne 1 n (x1 + . n n 0  En choisissant des variables aléatoires de loi uniforme sur [a. Il existe évidemment beaucoup de suites ne vérifiant pas cette propriété.3 Méthode de Monte-Carlo U E NIQ T CH Montrons comment nous pouvons appliquer laEloi des grands nombres au calcul d’in- tégrales. devient sous Pq un ensemble de probabilité nulle. . énonçons tout d’abord Corollaire 5. nous pouvons obtenir de même une approximation d’une intégrale définie sur l’intervalle [a. E Alors N I QU En H n . 1 f (X1 ) + · ·C · + f (X ) Z f (x)dx = lim Y T POL 0 n pour la convergence presque-sûre. LY E PO L É C O un corollaire immédiat de la loi des grands nombres. Si nous considérons maintenant la probabilité Pq définie de la même manière pour q 6= p. b]. Nous appliquons la loi des grands nombres aux variables aléatoires f (Xi ) qui vérifient bien toutes les hypothèses voulues puisque f est bornée. 1]. Nous avons alors Z 1 f (X1 ) + · · · + f (Xn ) lim = E(f (X)) = f (x)dx. et une fonction f mesurable bornée sur [0. U H NIQ L Y T ElaCconvergence des variables aléatoires. 5. par exemple xn = 0 pour tout n. L E ÉCO Preuve. b]. par exemple une fonction continue sur [0.Lpour ÉCO ω).3.) La loi des grands nombres nous dit que pour toute suite (xn )n en dehors d’un ensemble de probabilité nulle. . il est Cet exemple montre que lorsque l’on étudie O Ptout indispensable d’introduire la convergence presque-sûre.+ xn ) tend vers le nombre p quand n tend vers l’infini.

elle est peu sensible à la dimen- sion d.j : n ≥ 1. 5. le deuxième théorème Y fondamental de ce cours.1 Soit (un )n une suite de nombres réels tels que pour tout n ≥ 1.1) LY T O la densité g(x) = En effet la loi uniforme surEA Padmet 1 1 (x). que pour d petit. xd ) : |xi | ≤ α ∀i} de Rd . où f est une fonction mesurable R bornée et A est le cube {x = (x1 .4. . In = n H (f (X1 ) + EC (5. chacune selon la loi uniforme sur T CNous [0. le temps de calcul étant proportionnel à d. . Une suite de valeurs approchées de I est alors E (2α)d . et il s’ensuit que In converge vers I par la loi des grands nombres. tirer une variable X de loi uniforme H Nsur composantes. Cela revient à dire que si chaque Xn admet les composantes Xn. E à la puissance I QAUrevient à tirer ses d puisque ce temps de calcul est environ proportionnel à une constante d. nous pouvons simuler une suite X1 . Nous voulons calculer l’intégrale I = A f (x)dx.4 Exercices sur le chapitre 5 EXERCICE 5. va donner un contrôle É C OLE Un avantage de cette méthode est qu’elle reste valable si la fonction f est très ir- régulière (alors que les méthodes déterministes de type “méthode du trapèze” ne se justifient que si la fonction f est continue). . Xn de variables aléatoires indépendantes et de loi uniforme sur A. . verrons également que la O LY P vitesse de convergence de In vers I ne dépend pas non plus de la dimension. (disons d ≤ 3). . on ait 0 < un ≤ 1.j (1 ≤ j ≤ d). donc l’espérance OI L (2α)d A des f (Xi ) est égaleÉàC(2α)d . .E1]. α]. .N QU . du point de vue du temps de calcul. Soit (Xn )n une suite de variables aléatoires indépendantes telles . lesÉalgorithmes obtenus par méthodes de Monte-Carlo sont extrêmement utilisés dans toutes les situations nécessitant des temps de calcul très courts ou en grande dimension. Q UE L’inconvénient de cette méthode est que In est une approximation I “aléatoire” de I. chapitre suivant. à savoir le théorème L T Ede la limite centrale qui sera l’objet du P O de cette erreur. N Toutefois. . Pour calculer I. En outre. I+ f (Xn )) . donc on a un peu de peine à contrôler l’erreur InC−H I. . les variables aléatoires (Xn. Dans notre cas.3.148 Chapitre 5 – Convergences et loi des grands nombres Ce résultat se généralise à toutes les dimensions. C OLE Pour toutes ces raisons. alors que les méthodes déterministes ne sont possibles. 1 ≤ j ≤ d) sont indépendantes et uniformes sur [−α.

n P(Sn − nm ≥ a) ≤ e−ua (M (u)) . oû x ∈]0. En déduire que Xn → 0. la convergence est uniforme. + Xn QU Å Å ãã E f →n→∞ fN(x).r.4 Inégalité de Chernov Soit (Xn )n une suite de v. .2 Montrer que la loi forte des grands nombres reste vraie pour des variables aléatoires indépendantes positives de même loi. . .s. + Xn . 2) Montrer qu’en fait. E X1 + . On ÉCO les appelle polynômes de Bernstein. Calculer M (u). 1) Montrer que pour toute fonction continue de [0.4. EXERCICE 5. Ce résultat L Ela loi des grands nombres ? est-il en contradiction avec ÉCO EXERCICE 5. 1] dans R. P(Xn = 0) = 1 − x. QU n I HN n E C EXERCICE 5.4 – Exercices sur le chapitre 5 149 que pour tout n ≥ 1. NIQ Y T ECH p.3 Soit (Xn )n une suite de O L Y T variables aléatoires indépendantes. E à +∞. Montrer en fait que P p.5.s. P 2) On suppose que n≥1 un < +∞.4. POL X1 +···+Xn 3) Montrer que la suite n → 0 quand n tend vers l’infini. 1[. . σ). d’espérance commune égale p. Montrer que ∀a ∈ R. un 1) Calculer E(Xn ). .a. indépendantes de loi N (m.4. 1) On pose pour u ∈ R : M (u) = E(eu(X1 −m) ). P(Xn = 0) = 1 − un .s. UE Xn → 0 quand n tend vers l’infini. 1 Å ã P Xn = = un .I n CH O LYTE E P En déduire qu’il existe une suite deLpolynômes qui convergent simplement vers f . de même loi de Bernoulli P O LE C ÉP(Xn = 1) = x . 2) On pose Sn = X1 + . ∀u ∈ R+ . c’est-à-dire que l’on a X1 +···+X → +∞.

s.. • En utilisant l’inégalité de Bienaymé-Chebyshev ? I Q U E • En utilisant l’inégalité de Chernov ? EC HN O Prisqué) LY T EXERCICE 5. x1 +. P(Sn − nm ≤ a) ≤ e−ua (M (u))n . .6 Soit (Xn )n une suite de variables aléatoires N ECH même loi. 95 et ε = 0. Soit f une fonction R. ∞[ et d’espérance finie.. L’évolution de son placement à des échéances fixes n = 1. . où In = R  [0. Montrer que ∀ε > 0.1]n g n dx1 . −nε2 Å ã P(|Yn − m| ≥ ε) ≤ 2 exp ..+Xn 2) Montrer que E f  n →n→∞ f (a).5 (Placement O L E Un particulier place une somme S0 sur É C un placement risqué.4. L Y T E P Op. 05. avec α = 0. mon- trer que (−1)n−1  n n (n−1)  n  f (a) = lim F n→∞ (n − 1)! a a . où les intérêts aléatoires Rn forment une suite indépendante et de même loi à valeurs dans ] − 1.+xn Calculer limn In . dxn . IQ UE EC HN LYσ T= 10. Que pouvez-vous dire de l’évolution du placement Sn pour de grands n ? Que se passe-t-il si E(R1 ) = 0 ? E indépendantes de I Q U continue bornée sur EXERCICE 5. Sn 3) Soit Yn = n .. 2 4) On suppose que m = 1 et que O EP O L doit-on choisir pour obtenir Quelle taille d’échantillon ÉC P(|Yn − m| ≤ ε) ≥ α. On pose E(X1 ) = a. 1) Montrer que f X1 +. 1 4) En utilisant des variables aléatoires de loi exponentielle de paramètre a. intégrables. 1])..150 Chapitre 5 – Convergences et loi des grands nombres et que ∀a ∈ R. . 2.. 3) Soit g ∈ C([0. est donnée par Sn = (1 + Rn )Sn−1 .+X L  ÉCO n n → f (a) X1 +. . ∀u ∈ R− . 2σ 2 Cette inégalité est appelée inégalité de Chernov. .4.

2n i=1 ÉC 2n i=1 lequel est le meilleur pour calculer m ? Remarque : cet exercice se continue au chapitre suivant par l’exercice 6. y. U E −H 3) Montrer que (g(x) − g(y))(g(1 − x) − g(1 C NIQ y)) ≤ 0 pour tout x. V et W . L EBn = 1 g(Xi )O X An = (g(Xi ) + g(1 − Xi )) . . de loi uni- forme sur [0.6. W . Des estimateurs CH O LY TnE 2n P 1X . c’est-à-dire de densité x 7→ (n−1)! xn−1 e−αx pour x > 0. L Y T 2 PO LE É C O et la variance de U . On pourra montrer que la somme de n variables aléatoires indépendantes de loi exponentielle de nparamètre α suit une loi Gamma de paramètres α (n. On souhaite calculer m = 0 g(x)dx. 1] et E N IQU V = g(X)E CetH W = g(X) + g(1 − X) U = 1Y ≤g(X) . . V . On suppose dans la suite que g est monotone. 1) Calculer l’espérance 2) Proposer 3 méthodes de type Monte-Carlo pour calculer m. LY TE En déduire que PO LZE ÉCO 1 Z 1 E(g(X)g(1 − X)) = g(x)g(1 − x) dx ≤ m2 ≤ g(x)2 dx . EXERCICE 5. Soient X et Y des variables indépendantes et identiquement distribuées. E I Q U et de même loi 4) Soit (Xi )i≥1 une suite de variables aléatoires indépendantes N uniforme sur [0. α).2. R1 Soit g une fonction mesurable telle que 0 ≤ g ≤ 1.7 Réduction de variance dans une méthode de Monte Carlo.5. 0 0 Comparer les variances de U .4.4 – Exercices sur le chapitre 5 151 R∞ où F (t) = 0 f (x)e−tx dx. 1].

IQ UE C HN O LYTE P LE ÉCO U E NIQ TE CH LY PO LE ÉCO IQ UE C HN O LYTE P LE ÉCO .

Ballade du concours de Blois IQ UE HN 6. Donc si X est une variable aléatoire à valeurs dans Rn . et qui dans d’autres branches des mathématiques s’appelle aussi la transformée de Fourier.xi est continue.1. Science tiens à soudain accident. Obscur. fors en chose certaine .Chapitre 6 IQ UE C HN O LYTE Fonctions Lcaractéristiques. Si u ∈ Rn .1 La fonction caractéristique LY TEC E PO L ÉCO Dans ce paragraphe. la fonction (complexe) x 7→ ei hu. de module 1. E P ÉCO convergence en loi et théorème de la limite centrale NIQUE TE CH LY PO É C OLE Rien ne m’est sûr que la chose incertaine . fors ce qui est tout évident . 6. nous pouvons considérer ei hu. Doute ne fais. nous introduisons un outil important en calcul des probabilités : il s’agit de ce que l’on appelle la fonction caractéristique d’une variable aléatoire.1 Définition et premières propriétés Nous noterons hx. yi le produit scalaire de deux vecteurs de Rn .Xi comme une 153 . François Villon .

Il y a convergence simple de ei hup . Xi). Pour montrer la continuité. Xi)) ≤ E(cos2 hu.154 Chapitre 6 – Fonctions caractéristiques et convergence en loi variable aléatoire à valeurs complexes.Xi est E(ei hu.Xi ) = E(Y ) + i E(Z) = E(cos(hu.2 La fonction φX est de module inférieur N avec CH φX (0) = 1 . et donc |φX (u)| ≤ 1. pour une variables aléatoire à valeurs dans N.1. Xi)).1. Ainsi. donc elles admettent une espérance. Xi)) + (E(sin hu. de ce point de vue. Xi) sont des variables aléatoires réelles.1) YTE . P O L LφXE est définie de R dans C et vaut É C O ∀u ∈ R.1.1 Si X est une variable à valeurs dans Rn . considérons une suite up →p→∞ u. φ (u) = E eiuX  . C’est une notion qui. la fonction φX est continue. continue. Xi + sin2 hu.Xi vers ei hu. au sens où elle caractérise la loi Nous verrons que cette fonction porte E L É C O2. Définition 6. généralise la fonction génératrice que nous avons vue au Chapitre φX (u) = GX (eiu ).1. Xi)) + i E(sin(hu. Ces variables aléatoires réelles sont de plus bornées par 1.Xi . nous pouvons appliquer le théorème de convergence dominée (Théorème 5. H N I Q L Y TEC P Obien son nom. E U égal à 1. Si X est à valeurs réelles.  .Xi (6. Xi) et imaginaire Z = sin(hu. et obtenir que φX (up ) →p→∞ φX (u). φXL Y T E= φX (u). X (6. nous avons : 2 2 |φX (u)|2 = (E(cos hu. Comme ces variables aléatoires sont de module borné par 1. Comme E(Y )2 ≤ E(Y 2 ) pour toute variable aléatoire réelle Y .1. (−u) PO ÉC OLE Preuve.2) Remarquons que la fonction caractéristique ne dépend en U E que de la loi PX de fait X : c’est la “transformée de Fourier” de la loi PX . |z| désigne le module d’un nombre complexe z.5). I Qou Proposition 6. Elle vérifie PX . sa fonction caractéris- tique est la fonction φX de Rn dans C définie par E Ä NIQ äU φX (u) = ECeH i hu. Il est alors naturel d’écrire que l’espérance de ei hu. Ses parties réelle Y = cos(hu.

2 Exemples LE ÉCO 1) X suit une loi binomiale B(n. (6. O LY iu n P O LE Ainsi.ai ei h Au.1. E Il suffit alors de prendre les espérances pour obtenir leUrésultat.1.4) 2) X suit une loi de Poisson de paramètre θ E θk −θ NI QU θeiu H C X iu iuX iuk E(e ) = e e = eE e−θ = eθ(e −1) . (6. OL E ÉC iu φX (u) = eθ(e −1) .ai φX (t Au). Xi. b−a a b − a iu iu(b − a) Ainsi.1.3) où t A désigne la transposée de la matrice A. En effet. AXi = ht Au. a].  N IQ YT ECH P O L 6.Xi . hu. Nous avons ei hu. b] Z b 1 1 1 iux b eiub − eiua φX (u) = eiux dx = [e ]a = . t Preuve.6.a+AXi = ei hu.1.5) 3) X suit une loi uniforme sur [a. sin ua φX (u) = . a > 0.3 Si X est une variable aléatoire à valeurs dans Rn . si a ∈ Rm et si A est une matrice m × n.1 – La fonction caractéristique 155 Proposition 6. pour une loi uniforme sur [−a. k! Y T POL k≥0 Ainsi. ∀u ∈ Rm .1. p) nU E iu k n Ç å n Ç å iuk n I Q X X iuX k n−k (e p) (1 − p)n−k E(e ) = e k p (1 − p) = H N k k=0 TE C k=0 = (e p + 1 − p) . ua . É C φX (u) = (peiu + 1 − p)n . (6. nous avons : φa+AX (u) = ei hu.

1)Y T E POL É C OLE √1 2 Appelons g la densité normale (ou gaussienne) définie par g(x) = 2π e−x /2 . 2 puisque g(x) esx = g(x − s) es /2 .1. et donc que 2 φX (u) = e−u /2 . nous en déduisons les moments de g. . E (6. Z +∞ Z +∞ (2n)! x2n+1 g(x)dx = 0 .6) sont encore égaux. E(X 4 ) = 3.1. Nous constatons tout d’abord que pour tout réel s. λ φX (u) = .1. es /2 = .1. (6. Le rayon de convergence de la ÉC O ces résultats que si s est complexe. nous avons obtenu les moments d’une variable aléatoire X de loi normale centrée réduite.7) Remarque 6.6) reste vraie pour Y TdeE s les deux membres de cette égalité. x2n g(x)dx N I Q ECH −∞ −∞ 2 n! L Ce résultat peut aussi s’obtenir par intégration O Y Tpar parties et un calcul direct des P série entière étant infini. λ − iu IQ UE C HN 5) X suit une loi normale N (0. =U En . E(X 2n+1 ) = 0.156 Chapitre 6 – Fonctions caractéristiques et convergence en loi 4) X suit une loi exponentielle de paramètre λ > 0 Z +∞ Z +∞ λ λ φX (u) = λ e−λx eiux dx = λ e(iu−λ)x dx = [e(iu−λ)x ]+∞ 0 = .4 Au cours de la preuve précedente. Nous voulons s complexe. (2n)! E(X 2n ) = . 0 0 iu − λ λ − iu Ainsi. En développant en série O P L entière L Eque nous pouvons facilement justifier O Z +∞ C É X sn Z +∞ X s2n 2 sx e g(x)dx = xn g(x)dx .1.6) U NIQ −∞ H Cmontrer que (6. les développements de Taylor des deux membres de (6. Z +∞ 2 esx g(x) dx = es /2 . −∞ n n! −∞ n 2n n! Par identification des coefficients de sn . 2n n! Par exemple. nous déduisons de LE intégrales.

σ 2 ) Dans ce cas. Rn (2πσ ) σ et la même égalité reste vraie pour PY .xi fσ (u − v)PX (du) = 2 n/2 fσ (x)e σ dx PX (du) Rn n (2πσ ) Rn ZR 1 x −v = fσ (x) 2 n/2 φX ( 2 )eih σ2 . sa fonction caractéristique vaut alors 2 σ2 /2 φX (u) = eium−u . Introduisons. Nous avons (en utilisant le théorème de Fubini) que 1 Z Z ÅZ ã ih u−v2 . les fonctions caractérise cette probabilité. 1). Ainsi. ils ont même loi. σ2 ÉC Considérons deux vecteurs aléatoires X et Y de même fonction caractéristique. D’après (6. σ 2 ).1. . où Y suit la loi N (0. (6. E P L ÉCO Théorème 6. La preuve montre que la transformée deHFourier N d’une probabilité sur Rn T E Cσ > 0. .3 Propriété fondamentale IQ UE EC HN LYT L’intérêt majeur de la fonction caractéristique O réside dans le fait qu’elle caractérise la loi de la variable aléatoire.8) 6. la variable aléatoire X s’écrit X = m + σY .xi R OLE (2πσ2 )n/2 u−v (2πσ2 )n/2 Rn σ2 dx.xi dx.6.1 – La fonction caractéristique 157 6) X suit une loi normale N (m. Mon- trons qu’ils ont même loi : PX = PY . ÉC (2πσ 2 )n/2 Alors fσ (x) est la densité d’un vecteur aléatoire composé de n coordonnées indépen- dantes et de loi N (0. (6.9) Rn Rn . Rn Rn j=1 σ 2π 2σ 2 E Uj=1 IQ HN TEC par le théorème de Fubini.5 La fonction caractéristique φX caractérise la loi du vecteur aléa- toire X.1.1.xi fσ (x)e dx = √ exp + iuj xj dx1 . Nous avons Z Z Y n Å 2 ã n 1 −xj Y −u2 σ 2 /2 ihu. Nous en déduisons que Z Z g(x)PX (dx) = g(x)PY (dx). I Q UE Preuve. dxn = e j = fˆσ (u).1.Ypour OL 1 E P−|x| /2σ fσ (x) = O L 2 2 2 2 e et fˆσ (u) = e−|u| σ /2 .7).1.1. L 1 O ˆ Y P f (u) = u−v Remarquons ainsi que fσ (u − v) = 1 fσ (x)eih . si deux vecteurs aléatoires X et Y ont même fonction caractéristique.3) et (6.

alors ψX (λ) = GX (e−λ ).1. ce qui entraîne que pour tous boréliens Aj .9.9) reste vraie pour de telles fonctions. \ \ Y Y P( {Xj ∈ Aj }) = P( {Xj0 ∈ Aj }) = P(Xj0 ∈ Aj ) = P(Xj ∈ Aj ). (6. Un argument de théorie de la mesure montre que cela suffit pour en déduire que PX = PY . Ainsi.1. alors. .1. . Si de plus X est une variable aléatoire à valeurs dans N. en utilisant la condition nécessaire 0 j j et (6. C’est une fonction définie sur R+ .1.10) E PO O L j=1 où φX désigne la É C fonction caractéristique du vecteur aléatoire X. Si les Xi sontUindépendantes et comme Q P N I CH i hu. .6 Soit X = (X1 . et qui satisfait formellement ψX (λ) = φX (iλ). en utilisant (4. nous en déduisons que φX 0 = φX . SiÉX 0 = (X10 . .11)  λ ∈ R+ . . nous pouvons définir sa transformée de Laplace par ψX (λ) = E e−λX . Ainsi. . de fonction génératrice GX . Xi = nj=1 uj Xj . . .158 Chapitre 6 – Fonctions caractéristiques et convergence en loi pour toute fonction g de l’espace vectoriel des fonctions engendrées par u 7→ fσ (u−v). . . En particulier. E Preuve.10). elle caractérise la loi PX . pour chaque j. muni de la convergence uniforme.  Corollaire 6.Otelles C telles que φX = φX . .2).Y φX (u1 . il n’est pas étonnant que la transformée de La- place ait des propriétés analogues à celles de la fonction caractéristique. X et X 0 ont même loi. L’égalité (6. j j j IQ U Ej d’où l’indépendance cherchée.L Y . . Xn ) un vecteur aléatoire à valeurs dans Rn . ∞[. nous obtenons immédiatement (6. et φXj celle de la composante Xj . LY TE P O Nous pouvons alors construire des variables Supposons inversement qu’on ait (6. .1.1. Xn0 ). C HN YTE  P O L É C OLE La transformée de Laplace : Lorsque X est une variable aléatoire à valeurs dans R+ . Nous avons hu. un ) = φXj (uj ). (6.10). L E que Xj0 et Xj aient mêmes lois pour tout j et donc aléatoires Xj0 indépendantes. E Q U si pour tous u1 . . Nous pouvons appliquer le théorème de Stone-Weierstrass pour montrer que cet en- semble est dense dans l’ensemble des fonctions continues sur Rn qui tendent vers 0 à l’infini.10). un ∈ R NI Les composantes Xi sont indépendantes si et seulement C H TE n . indéfiniment dérivable sur ]0. .1.Xi Q i uj Xj e = je .

Soit X une variable aléatoire de loi Γ(α. et Z = X + Y : E N0 I0 2 QU E C H 1) X suit loi normale N (m.8 Si X et Y sont deux vecteurs aléatoiresU Eindépendants à valeurs CX dans Rn .13).13).1. il suffit d’appliquer (4.1.X+Y i = ei hu.13).2). de paramètre θ. Γ(α) 0 Γ(α) 0 (λ + θ)α (6.1.13) O L ÉC Preuve.1.1.1. É 2) X et Y suivent des lois de Poisson de paramètres θ et θ0 : alors Z suit une loi de Poisson de paramètre θ + θ0 .1. 3) X suit une loi binomiale B(n.1.1.4 Somme de vecteurs aléatoires indépendants I Q Proposition 6.9 Soit X.9. Alors. prise en λ. Cela découle de (6. Y T E POL Cela découle de (6. Comme ei hu.5) et (6. p) .8) C OL et (6. φX+Y (6.1. Y indépendantes. Cela découle de (6.1.12) IQ UE HN C variable aléatoire de loi exponentielle LθY T Ed’une En particulier la transformée de Laplace P Oλ+θ . p) et Y suit une loi B(m. vaut LE ÉCO 6. (σ ) ) : alors Z suit une loi 0 2 0 2 N (m + m .7 Transformée de Laplace d’une loi gamma. θ).1 – La fonction caractéristique 159 Exemple 6.Y i . +∞ +∞ θα Z Z 1 α −λx α−1 −θx 1 α ψX (λ) = θ e x e dx = θ e−(λ+θ)x xα−1 dx = .4) et (6. σ + (σ ) ) . .6. p) : alors Z suit une loi B(n + m. la fonction caractéristique de la somme HN + Y est donnée par LY TE E P O = φX φY .  Exemple 6.1. σ 2 ) et Y suit une loi N (m .Xi ei hu.

. . . 1.1 Un vecteur aléatoire X = (X1 .1. pour a = (a1 .  6. nous avons E(X) = −i φ0X (0). (resp.10 Soit X un vecteur aléatoire de Rn . . . 0. en restantHbornées N I Q en module par la T E C Donc par le théorème 5.cas Preuve. Xim (6. et pour tout choix des indices i1 . an ) ∈ Rn . . . Si la variable aléatoire |X|m (où |X| désigne la norme euclidienne du vecteur X) est dans L1 pour un entier m.Xi Xj ) quand t (de Lebesgue).1. . . Enfin.1. . .14). la fonction φX est m fois continûment différentiable sur Rn . .(0. Les variables E Ualéatoires (ei tp Xj − 1)/tp convergent simplement vers iXj .5 Fonction caractéristique et moments Proposition 6. . Xi. qui par hypothèse est intégrable.1.Xi e −1 Å ã = E e . . nous pouvons montrer comme dans la proposition précédente que cette dérivée est continue. 0) le j ième vecteur de base de Rn . nous en déduisons que (6. ∂m Ä ä φX (u) = im E ei hu.le. .5 variable aléatoire 2|Xj |.15) C HN LY TE PO Om. par récurrenceÉsur j . . Xim ) en fonction des dérivées à l’origine de φX . . im . .1. .16) t t Soit tp une suite de réels tendant vers 0. . Prouvons le résultat quand général se montrant de la même C manière. I U00XE(0) ).160 Chapitre 6 – Fonctions caractéristiques et convergence en loi 6. 0)).16) tend vers 0.1.L ESoit vm == 1. . Nous en déduisons O E première dérivée partielle de φX par rapport à queLla É C uj existe et est donnée par la formule (6. Nous avons i tXj φX (u + tvj ) − φX (u) i hu.14) E IQU ∂ui1 ∂ui2 .1.Xi Xi1 Xi2 . . si X est à valeurs réelles et est intégrable (respectivement de carré intégrable). Xn ) à valeurs dans Rn est appelé Pn un vecteur gaussien si toute combinaison linéaire j=1 aj Xj = ha. suit une loi normale (avec la convention que la masse de Dirac au point m est la “loi normale” N (m. Par exemple. P O LYconverge vers i E(ei hu.2 Vecteurs gaussiens Définition 6. YT ECH P O L É C OLE En prenant u = 0 ci-dessus. . 0.2.1. (6. . E(X 2 ) =Q−φ (6. cette formule permet de calculer E (Xi 1 Xi2 . ∂uim N (les Xj sont les composantes de X). .

mi− 2 ha. donc Y suit la loi N (ha. nous avons E P N IQU C H 2 i v hm. et ( X1 |XI1Q si N |≤1 UE X2 = H E Csinon. elle est de carré intégrable. où m ∈ Rn et C est une O L n × n symétrique positive . mi.mi− 2 hu. et pour v ∈ R.2 Si les Xi sont des variables aléatoires normales indépendantes.1) E P . Cai).Cai YTE φY (v) = φX (va) = e .Xi (1) = E(ei ha. et C est la matrice de covariance de X. sa fonction caracté- ristique est v2 φY (v) = ei v ha. a) Condition suffisante : supposons (6. Exemple 6.2.2. mi.2. d’où (6. mais X = (X1 . un calcul simple montre que E(Y ) = ha. dans ce cas. il se peut que X ne soit pas un vecteur gaussien.3 X est un vecteur gaussien si et seulement N ristique s’écrit CH TE eiY φX (u) =O L 1 hu.Cai . Si Y = ha.2 – Vecteurs gaussiens 161 Cela entraîne bien entendu que chaque composante Xj suit elle-même une loi normale.2. L Y T −X PO 1 0C gaussien.1).1. Notons que ces quantités existent. 1). Contre-exemple : Si les composantes Xi sont de loi normale mais pas indépendantes. X2 ) n’est pas un vecteur Alors X2 suit également < P(X1 + X2 = 0) < 1 (donc X1 + X2 ne suit pas une loi normale). puisque É O LlaE loi N (0. Prenons par exemple X1 de loi N (0. Par hypothèse. I Q U Esi sa fonction caracté- Théorème 6. m = E(X) É Cmatrice (i. car chaqueP composante Xj étant de loi normale. Mais φY (1) = φha. donc vu ce qui précède. Xi = nj=1 aj Xj avec a ∈ Rn . Preuve.  .1). mj = E(Xj ) pour chaque j). 1). le vecteur X est gaussien (cela découle de l’exemple 6. P O L LE É CO b) Condition nécessaire : Soit C la matrice de covariance de X et m son vecteur moyenne. Pour toute combinaison linéaire Y = j aj Xj = ha.ai− v2 ha.9 (1)). Xi.e.Cui (6.6. Y suit une loi normale. Cai.2. V ar(Y ) = ha.Xi ) = φX (a). ha.

Les composantes  ÉCO Proposition 6. .1) et le corollaire 6.2) HN fX (x) = p (2π)n/2 det(C) C O LYTE P LE O la proposition précédente : les λj qui y paraissent Preuve. et telle que la matrice de C HN existe une matrice orthogonale A et une matrice diagonale Λ dont les éléments diago- covariance de X s’écrive C = AΛt A. ou de valeurs propres toutes strictement positives). La variable aléatoire Z = hX. où Y = (Y1 .1.2. Si au contraire C n’est pas inversible. Preuve. U E Proposition 4. Attention : ce résultat peut être faux si X n’est pas gaussien (prendre le contre- exemple précédent). j=1 2πλj Comme X = m + AY . Cai = 0 et pour moyenne z = . λj ) avec λj ≥ 0C(si É+ AY . (x−m)i (6. Yn de lois normales LλjE= 0 on convient que Yj = 0) et une matrice orthogonale Il existe des variables aléatoires O N (0. et de moyenne nulle. E  U NIQ E CH Proposition 6. Yn ). A telles que X = m Preuve.2.2).6 Le vecteur gaussien X admet une densité sur Rn si et seulement si sa matrice de covariance C est non-dégénérée (ou inversible.2. P réelles indépendantes Y1 . le vecteur aléatoire Y admet la densité suivante sur Rn : n Y 1 2 fY (y) = p e−yj /2λj . Reprenons la preuve É Cde sont les valeurs propres de C. Si λj > 0 pour tout j. Comme C est une matrice symétrique positive (cf. . . Il suffit de combiner (6.8. Dans ce cas cette densité est donnée par 1 1 e− 2 hx−m. .2. Alors Y est un O L Y Tgaussien de covariance C 0 = t ACA = Λ vecteur P L E Yj de Y répondent à la question.162 Chapitre 6 – Fonctions caractéristiques et convergence en loi Corollaire 6.C IQ −1 U E.4 Si X est un vecteur gaussien.2. . nous en déduisons que X admet la densité donnée par (6. . ses composantes sont indépendantes si et seulement si la matrice de covariance est diagonale.8).2. de moyenne m. il existe a ∈ Rn tel que a 6= 0 et Ca = 0. Soit Y = t A(X − m). ai a pour variance ha.6. . il I Q E naux vérifient λj ≥ 0.5 Soit X un vecteur O L Y Tgaussien à valeurs dans Rn .

1) indépendantes. . σ 2 ).7 On appelle variable aléatoire de χ2 (chi-deux) à d degrés de liberté toute variable aléatoire positive qui a même loi que la somme de d carrés de variables aléatoires de loi normale N (0. E Cde L’intérêt de cette loi provient essentiellement puisqu’elle permet de construire unLtestY T(appelé test du chi-deux).10. 1/2) de densité définie sur R+ par IQ UE H. P(X ∈ H) = 1.  Définition 6. V = (X1 − X)2 + . . Considérons LY T E (XH Proposition 6.2. . . Or. (6. N IQU même loi normale N (m. nous aurions P(X ∈ H) = H f (x)dx. .8 Soient n variables aléatoires C 1 .3) pour une constante appropriée Cd .2. Xn ) indépendantes.6. nous obtenons immédiatement que la loi du χ2 à d degrés de liberté est la loi Γ(d/2. .10. O LY TEC O EP Lobtenons É En utilisant la définition. + (Xn − X)2 .e. R i. . . Xn ) est un vecteur gaussien.2 – Vecteurs gaussiens 163 hm. Comme les variables aléatoires Xi sont indépendantes et de loi normale.  X= n n Alors 1) X suit une loi normale d’espérance m et de variance σ 2 /n. le vecteur X = (X1 . .2. Preuve.N Cd exp(−y/2) y d/2−1 (6. . . avec une probabilité 1. si X admettait la densité f . donc P(X ∈ H) = 0 puisque le “volume” de l’hyperplan H est nul.4) E Nous pouvons alors montrer le résultat suivant. fondamental pour P Osi une variable aléatoire L Ealéatoires sont indépendantes. ai. alors E(Y ) = d .2.3 et 4.Cnous immédiatement que si Y suit une loi de χ2 à d degrés de liberté. + (Xn − X)2 est une variable aléatoire de χ2 à n − 1  degrés de liberté. . donc P(Z = z) = 1. V ar(Y ) = 2d.suit une certaine loi donnée “savoir” (statistiquement parlant) O C a priori ou si deuxÉvariables Grâce aux propositions 4. Ainsi. et il est donc immédiat que X . de PO X1 + · · · + Xn O L E 1 É C.4. 3) les variables aléatoires X et V sont indépendantes. E N IQU Hson utilisation massive en statistiques. 2) σn2 (X1 − X)2 + . le vecteur X est dans un hyperplan H orthogonal à a.

et de plus nous avons que i=1 ηi = i=1 ξi . TEC n L Y Considérons une matrice U . Elle signifiera que les lois sont asymptotiquement “proches”. .3 Convergence en loi Nous allons introduire maintenant une nouvelle notion de convergence de suites de variables aléatoires. soit Ñ é Ñ é η1 ξ1 . . sans que les variables aléatoires elles-mêmes le soient nécessairement. √ et dont la première ligne L É C O par ηj (1 ≤ j ≤ n) les coordonnées du vecteur aléatoire est formée de coordonnées toutes égales à 1/ n (les autres termes étant choisis arbitrairement). (Nous renvoyons au Chapitre 5 pour les définitions des différentes notions de convergence déjà introduites. et donc de X. . C H indépendante de η1 . ξi = Xiσ−m . σn2 V est bien une variable aléatoire de chi-deux N n − 1 degrés de liberté. de E P Otaille n × n. . 2 il en est de même pour η.) La convergence en loi définie dans ce paragraphe va concerner les lois des variables aléatoires. TE  P O LY LE ÉCO 6. Ceci entraîne que n n ! σ2 X σ2 X 2 V = ηi2 − η12 = η . Nous verrons également que toutes les convergences introduites au Chapitre 5 entraînent la convergence en loi. IQUE ηn ξnC H N LY TE Alors nous avons bien que η1 = E P√nO . Désignons obtenu en appliquant U au vecteur aléatoire (colonne) ξ. n i=1 IQ UE HN ξ1 +···+ξ où η1 = √ n . Puisque U est orthogonale et que ξ est un ξ +···+ξ 1 n O L deCvariables vecteur gaussien formé É Pn aléatoires 2 Pn indépendantes. Il est alors facile de montrer que n ! σ2 X V = ξi2 − η12 . Posons pour chaque 1 ≤ i ≤ n. Nous allons simplifier le problème en nous ramenant à des variables aléatoires centrées réduites. = U . orthogonale.164 Chapitre 6 – Fonctions caractéristiques et convergence en loi suive une loi normale d’espérance la moyenne des espérances des Xi et de variance la somme des variances divisée par n2 . . n i=1 n i=2 i UE à IQ Ainsi. .

σ 2 ). E(f (Xn )) P X LE ÉCO i=1 Au paragraphe 3. Définition 6.4. Nous l’infini.3. 1 ≤ i ≤ N }. si pour toute fonction f continue bornée sur Rd . E(f (Xn )) → E(f (X)). En effet.3 Soient (Xn )n et X des variables L Y TleEmême E P(σO N (0.3 – Convergence en loi 165 Considérons des variables aléatoires Xn et X.3. Alors.5. toutes à valeurs dans le même espace Rd . IQ UE HN C aléatoires de lois respectives Exemple 6. . La convergence en loi est plus faible que la convergence en probabilité. quand n tend vers converge en loi vers X. pas forcément définies sur espace de probabilité. quand n tend vers l’infini.2 Un cas très simple E L É C Osi ont un nombre fini de valeurs {xi . mais pouvant éventuellement être définies sur des espaces d’états différents. Nous avons 1 Z 2 2 E(f (Xn )) = f (y) √ e−y /2σn dy 2πσn 1 Z 2 2 →n→∞ f (y) √ e−y /2σ dy = E(f (X)). IQ UE HN L Y TEC P O est celui où toutes les variables aléatoires Xn Exemple 6. pour un bon choix des paramètres.3. Alors la suite (Xn )É nC OL supposons que la suite de réels positifs n )n converge vers σ > 0.1 Nous dirons que la suite (Xn ) converge en loi vers X.6. 2πσ Cette convergence est justifiée par le théorème de convergence dominée. σn2 ) et N (0. et nous L écrirons Xn → X. n U E NIQ Il suffit d’écrire TE CH N L Y =O f (xi ) P(Xn = xi ). soit f une fonction continue bornée sur R. la suite (Xn )n converge en loi vers X si et seulement lim P(Xn = xi ) = P(X = xi ) ∀ 1 ≤ i ≤ N. nous avons montré la convergence en loi d’une suite de variables aléatoires binomiales vers une variable aléatoire de Poisson.

il existe une fonction fp.6. alors Xn →n→∞ X.2) La fonction f est uniformément continue sur [a. É C taire est au plus dénombrable. donc il existe un nombre fini de points a0 = a < a1 < .b ≤ 1]−∞.3.10.1. Pour tout p ∈ N? et tout b ∈ R. Ainsi.b (Xn )) converge vers E(fp. b ∈ T avec F (a) ≤ ε et F (b) ≥ 1 − ε. Soit f une fonction continue bornée sur R et ε > 0. a) Supposons d’abord que Xn → X.1.b continue bornée sur R telle que 1]−∞. et son complémen- points où F est continue est l’ensemble LAinsi. < ak = b appartenant tous à T et tels que |f (x) − f (ai )| ≤ ε . l’ensemble des L Notons que puisque la fonction F est continue O O E P D = {x : F (x−) = F (x)}. P O p. nous déduisons d’abord que Fn (a) = P(Xn ≤ a) ≤ L Y T E(f (X 1 n )) et E(fp. donc   lim inf n Fn (a) ≥ F (a − 1p ) pour tout p.3. les convergences en moyenne et presque-sûre entraînent également la conver- gence en loi.5 Soient Xn et X des variables aléatoires réelles de fonctions de L répartition respectives Fn et F . b) Inversement. donc aussi lim inf n Fn (a) ≥ F (a) puisque F (a−) = F (a). Nous avons également que Fn (a) É ≥CE fp.166 Chapitre 6 – Fonctions caractéristiques et convergence en loi P L Proposition 6. Soit f une fonc- E la suite (f (Xn ))n converge tion continue bornée sur Rd . Ces deux résultats impliquent que Fn (a) → F (a). . .b+1/p] .1) Alors E(fp. et comme f est bornée. Soit a.3. en probabilité vers f (X). T E(f (X)). par la proposition 5. L Preuve.3.3. donc donc lim supn Fn (a) ≤ F (a + p1 ) pour aussi lim supn Fn (a) ≤ F (a). (6. b].b (X)) quand EnC tend NIQ H vers l’infini. Supposons que la suite (Xn ) converge en probabilité vers X. Preuve.a O L Etout p. où T est une partie dense de R. D’après la proposition 5. I QlaUproposition 5. De (6. POLY  ÉC OLE Proposition 6.b] ≤ fp.a (X)) ≤ F (a + p ) . supposons que Fn (x) → F (x) pour tout x ∈ T . Pour que Xn → X il faut et il suffit que Fn (x) → F (x) pour tout x en lequel F est continue. Soit a avec F (a−) = F (a).a−1/p (Xn ) et E fp.7 entraîne que N E C HEn particulier.a−1/p (X) ≥ F (a − p1 ) .1). E(f (Xn )) converge vers f (Xn ) converge aussi en moyenne vers f (X). U E (6.1. b]) = 1 − Fn (b) + Fn (a) ≤ 3ε. U E NIQ ECH Y T à droite et croissante. Il existe n0 tel que n ≥ n0 ⇒ P(Xn ∈ / ]a.4 Si Xn →n→∞ X. D est dense dans R.

3. Pour que Xn → X il faut et il suffit que E(f (Xn )) → E(f (X)).4) ÉCO 1 n ))] − E (g(X)) | ≤ ε.3 – Convergence en loi 167 si ai−1 ≤ x ≤ ai . (Mais pas Preuve.b approchant 1]−∞.7 Soient Xn et X des vecteurs aléatoires. et si la loi de X a une densité. et de même n (a N I Q vers F (ai) pour tout i. ce qui est immédiat.3) et (6.8 (Lemme de Slutsky). .3.  Théorème 6. Il suffit de montrer que dans la preuve de la proposition 6. b]. Soit (Xn )n et (Yn )n deux suites de vecteurs aléatoires.3. alors pour tous a < b. Supposons que (Xn ) converge en loi vers X et que Xn − Yn converge vers 0 en probabilité.4). P(Xn ∈]a.3. b]) →n→∞ P(X ∈]a. nous avons n ≥ sup(n0 . nous en déduisons que ET L Y résultat.3. Enfin E (g(Xn )) = ki=1 f (ai )(FU P Ei−1 ) − Fn (ai )). nous en H pour X. n1 ) ⇒ |E (f (Xn )) − E (f (X)) | U≤E 3ε + 5M ε. E PO  L ÉCO Corollaire 6. il vient alors |E (f (Xn )) − E (g(Xn )) | ≤ M P(Xn ∈ / ]a.3.3) et de même pour X. E N IQU XnT. H NIQ Cn )) converge vers E (f (X)). b]) + ε. Alors (Yn ) converge en loi vers X. (6. nous pouvons remplacer les fonctions continues bornées fp. Si M = supx |f (x)|.3.6 : Si la suite (Xn )n de variables aléatoires réelles converge en loi vers X. : La fonction de répartition de X est alors continue  P O LE ÉCO L Proposition 6. pour toute fonction f lipschitzienne bornée.3. Donc k X g(x) = f (ai )1]ai−1 . D’après (6.6. Comme Fn (ai ) converge déduisons l’existence de n1 tel que TEC P O LY n ≥ nL E ⇒ |E (g(X (6. (6.ai ] (x) i=1 vérifie |f − g| ≤ ε sur ]a. b]). d’où le (fE(X ε étant arbitraire.b] par des fonctions lipschitziennes bornées.3. par définition de g.) nécessairement celles des variables aléatoiresLY E C H en tout point. Preuve.2).5.

168 Chapitre 6 – Fonctions caractéristiques et convergence en loi Preuve. PO OLE É C simplement vers une fonction (complexe) φ sur Rd . .3. X suit B(m. pour des constantes k et C. qui est assez difficile). d’où  Y T ECH PO Une généralisation de ce lemme estLdéveloppée dans l’exercice 6. E N IQU H = E(gu (Xn )) TEC Pour obtenir (a). L E ÉCO Le théorème suivant caractérise la convergence en loi à l’aide des fonctions caracté- ristiques. X suit N (m. σ 2 ). et λn → λ. plus les formules du premier paragraphe donnant les fonc- L tions caractéristiques des lois usuelles. Nous écrivons |E(f (Yn )) − E(f (Xn ))| ≤ E(|f (Yn )) − E(f (Xn ))|) ≤ C ε + 2k P(|Xn − Yn | > ε). il suffit de remarquer que φX (u) n et φX (u) = L Y E(gu (X)). et θn → θ. σn2 → σ 2 . petit. et pn → p. CH E alors φXn converge simplement vers a) Si la suite (Xn )n converge en loi versTX.6.3. 4) Xn et X suivent des lois exponentielles de paramètres λn et λ.3.xi gu (x) = e et d’appliquer la définition 6.9 (Théorème de Lévy) Soit Xn des variables aléatoires à valeurs U E NIQ dans Rd . impliquent immédiatement que Xn → X dans les cas suivants : 1) Xn suit B(m. Grâce à la proposition 6. et mn → m. où gu est la fonction continue bornée i hu. L Y φX . (Nous ne démontrons pas (b). p). σn2 ).1 (en séparant parties E P Oet imaginaire). Soit ε > 0 donné. Preuve. Le deuxième terme du membre de droite tend vers 0 quand n tend vers l’infini. pour toute fonction bornée lipschitzienne f . alors c’est la fonction caractéristique d’une L variable aléatoire X et Xn → X. pn ). car I Q U Ele résultat. réelle  L ÉCO Exemples : Ce théorème. Nous avons alors |f (x)| ≤ k et |f (x) − f (y)| ≤ C|x − y|.7. 2) Xn suit N (mn . nous en Xn − Yn converge en probabilité vers 0. 3) Xn et X suivent des lois de Poisson de paramètres θn et θ. C’est un critère extrêmement utile dans la pratique. Théorème 6. Comme ε est arbitrairement N déduisons que limn→∞ |E(f (Yn )) − E(f (Xn ))| = 0.6. il suffit de montrer que limn E(f (Yn )) = E(f (X)). b) Si les φXn convergent et si cette fonction est continue en 0.

et il est naturel de chercher la vitesse à laquelle cette convergence a lieu. U il apparaît souvent sous l’abréviation TCL.1 les relations entre les différents modes de convergence. LE ÉCO 6. et Sn = X 1 + . Nous considérons É C Oet de carré intégrable. c’est-à-dire trouver un équivalent de Snn − m.1).4 – Le théorème de la limite centrale 169 En conclusion de ce paragraphe.2. et elle va “exploser” si α est “grand”.1 : Fig. cette suite converge vers une limite qui n’est ni infinie ni nulle. + X n (6. On peut espérer que pour une (et alors nécessairement une seule) valeur de α. NI Q T E CH O LYune suite de variables aléatoires Xn La situation est la même que dans le chapitre précédent concernant la loi des grands P LE nombres (Théorème 5. . Nous avons vu que Snn converge vers m. presque-sûrement et en moyenne. nous pouvons résumer dans la figure 6. Relations entre modes de convergence si dominée Convergence Convergence presque-sûre en Moyenne IQ UE EC HN LY TProbabilité Convergence PO en LE ÉCO Convergence en Loi U E NIQ Y T ECH PO L 6.6. de même loi.4.1) (ainsi Mn = Snn ). Ce théorème est aussi connu sous le nom de théorème central limite. Notons m et σ la moyenne 2 indépendantes. et la variance communes aux variables Xn .4 Le théorème de la limite centrale E Plus simplement. Pour évaluer cette vitesse. nous sommes amenés à étudier la limite éventuelle de la suite nα ( Snn − m) pour différentes valeurs de α : si α est “petit” cette suite va encore tendre vers 0. . .

alors les variables ÉC S − nm n √ σ n convergent en loi vers une variable aléatoire de loi N (0. qui peut sembler miraculeux. 2 Comme φ(0) = 1 et que φ est continue en 0. Ce résultat. (6.14) entraîne  u2 σ 2 φ(u) = 1 − + u2 o(|u|) quand u → 0.6.2) OLÉC σ n Comme E(Xn − m) = 0 et E (Xn − m)2 = σ 2 . Il montre le caractère universel de la loi normale (d’où son nom !). il est facile de voir que pour u fixé et n assez grand.1 Si les Xn sont L Y variables aléatoires réelles indépendantes et de des Omoyenne P LE même loi.7. Nous donnons ici une preuve fondée sur le théorème de Lévy. pour aucune valeur de α. appelé théorème E central limite.3). de carré intégrable. . E I Q U caractéristique de Comme les Xn sont indépendantes et d’après (6. au sens de la convergence en loi. (6.8). et Yn = (Sn − nm)/σ n. n( n − m) converge N (0. la fonction N Yn est CH Å YTE Lu φn (u)E =P O ãn φ √ . et toujours vers une loi normale. ou de la limite centrale : N IQU T E CH Théorème 6. (Voir l’exercice 6. E POL ÉC OL Preuve.170 Chapitre 6 – Fonctions caractéristiques et convergence en loi Il se trouve que la réponse à cette question a un aspect “négatif” : la suite nα ( Snn − m) ne converge au sens presque-sûr. Une autre preuve sera donnée dans l’exercice 6.1. a été énoncé par Laplace (1749-1827) et dé- montré beaucoup plus tard par Lyapounov (1901). σ 2 ).1. ou même en probabilité.4. O de m et de variance σ 2 avec σ 2 > 0.4. pour la même valeur α = 1/2 quelle que soit la loi des Xn . U E NIQ CH Y TenE loi vers une variable normale de loi √ Sn En d’autres termes. √ Soit φ la fonction caractéristique de Xn − m.6. Il fait l’objet du théorème suivant. Elle a aussi un aspect “positif” : cette suite converge. 1).

Å .

u ã .

.

.

φ √ − 1.

.

. ≤ 1/2.

(Voir un cours d’analyse complexe. σ n Il est possible de généraliser la notion de logarithme aux complexes z tels que |z − 1| ≤ 1/2.) La fonction ln z définie sur le disque .

4. 1). si les Xi sont de loi Exemple 6. Nσ2 = p(1 − p).9. P(Xi = 1) = p I Q . Nous savons alors que m = TE CHp et L Y P Ox fixé et n grand. .6. nous utilisons les théorèmes précédents : IQ UE → p. Nous voulons calculer P(Sn ≤ x) pour E L É C Oque θ = np ne soit pas trop grand (en pratique. Ainsi. ÉQ. Dans les autres cas.3) n LY PO OLE É CpSn − np L → N (0. Le théorème de la limite centrale E P O réduite est la seule probabilité Q sur R telle que implique que la loi normaleL centrée C Oil en est de même de (Sn − nm)/σ√n.2 Convergence des lois binomiales.6. il vient Ç å x − np P(Sn ≤ x) ' Π p . alors n − Sn suit à son tour une loi proche de la loi de Poisson de paramètre θ. θ ≤ 5 Si p est très petit. u2 1 Å ã φn (u) = exp n ln 1 − + εn (u) . (6.1 suivent des lois N (0.4. Supposons que Sn suive une loi binomiale B(n. 1). 2n n où εn (u) tend vers 0 quand n tend vers l’infini. et P(Xi = 0) = 1 − p. T E C Sn P HN (6. de sorte que θ = n(1 − p) soit comme ci-dessus.5) np(1 − p) Rappelons que la fonction de répartition Π ci-dessus est "tabulée". de sorte convient).3. Cela revient à dire que Sn a la même loi qu’une somme X1 + U E p). Si p est très proche de 1.  IQ UE HN (Sn − nm)/σ n suit une loi N (0.4 – Le théorème de la limite centrale 171 {z ∈ C : |z − 1| ≤ 1/2} admet le même développement limité au voisinage de z = 1 que le logarithme réel. (6. 1). p). nous pouvons utiliser l’approximation par une loi de Poisson. + Xn de n variables aléatoires Xi indépendantes de loi B(1. Le résultat découle alors du théorème 6. et nous en déduisons immédiatement que φn (u) converge vers exp −u2 /2. obtenue au Chapitre 3. et une table de cette fonction est fournie au chapitre 4.e. . alors Remarque :√Si les Xi de l’énoncé du théorème 1)Ypour tout n. .4.4.L T E C 6.4) np(1 − p) Si nous désignons par Π la fonction de répartition de la loi N (0.4. i.

à un pourcentage d’erreurs près fixé a priori. 'T P(Sn > 545) Y 1− POL LE ÉCO Le théorème 6. le calcul exact utilisant les lois binomiales serait rébarbatif et extrêmement lourd.e.3 Lançons 1000 fois une pièce (que l’on suppose non truquée).172 Chapitre 6 – Fonctions caractéristiques et convergence en loi Exemple 6. on effectue un sondage afin de déterminer la proportion p de votes pour un des candidats. Nous avons ainsi un vecteur moyenne m = E(Xn ). nous obtenons IQ UE C HN E Π(2. Nous utilisons le théorème de la limite centrale et écrivons Ç å Z +∞ Sn − n/2 45 1 −x2 P(Sn > 545) = P √ > √ ' √ e 2 dx.5 La vitesse de convergence est toujours en √1n . de preuve similaire. On pourrait considérer plus généralement tout problème de sondage avec réponses . LY TEC Théorème 6. et une matrice de covariance C = (cij ) avec I Q UEcij = la covariance des H N composantes i et j de Xn . nous allons voir comment la loi des grands nombres et le théorème de la limite centrale permettent d’estimer un paramètre inconnu et de donner. É(i.4. indépendante de la dimension d. 84) ' 0.4 Les vecteurs E P O S −nm aléatoires n√n convergent en loi vers un vecteur L C O de moyenne nulle). de matrice de covariance C. 1000/2 1000/2 √ 90 1000 2π En utilisant la table numérique. Cher- chons la probabilité d’obtenir plus de 545 fois le côté Face.4.1 Sondages A la veille d’une élection portant sur le choix entre deux candidats. Cette remarque est fondamentale pour les applications numériques et justifie l’importance des méthodes de Monte-Carlo dans le cas des grandes dimensions. 0023. dans quelle fourchette d’estimation se trouve ce paramètre.1 admet une version multidimensionnelle. appelé AA.5. indépendants et de même loi. IQ UE C HN 6. 6.4. aléatoire gaussien centré Remarque 6. Nous pouvons alors énoncer le TCL multi-dimensionnel. Consi- dérons des vecteurs aléatoires Xn à valeurs dans Rd .5 Intervalles de confiance O LYTE P O LE ÉC Dans les deux exemples suivants. Bien sûr.4. dont les composantes sont de carré intégrable.

On note Xi = 1 si le ième individu interrogé vote pour AA. calculée sur notre échantillon (un ω particulier). il est clair que la valeur de l’estimation va changer. Xn ) sachant Sn = k ne dépend pas du paramètre inconnu p. et que choisir un échantillon est un choix particulier ω de Ω. La valeur de l’estimateur X̂n .49). . . Nous dirons alorsQqu’il N loi des grands nombres nous apprend que cet estimateur T E C Hau sens X̂ n asymptotique- O LYp. IQU N Les variables aléatoires Xi . vaut 0. . on évite d’interroger deux fois un même individu (tirage sans remise). . C’estEla probabilité uniforme sur les nk suites (x1 . i ≤ n. n Cet estimateur est “bon” en moyenne. cette valeur 0. il y a peu de différence entre les tirages avec remise et sans remise. la valeur de Sn contient toute l’information E T C H dans le sondage sur p. La loi conditionnelle des observations (X1 . sont supposées indépendantes et de même loi de Bernoulli P(Xi = 1) L =Yp = 1 − P(Xi = 0). et comme la taille n de l’échantillon est .2. aucune information sur p n’est le problème statistique suivant : estimer le paramètre p inconnu au vu des observations ÉC O X contenue dans l’ordre des réponses. Xn par le nombre d’intentions de vote Sn = X1 + .5 – Intervalles de confiance 173 binaires. . . nous connaissons la loi de la variable aléatoire X̂n définie sur l’ensemble Ω des échantillons de taille n. Nous nous trouvons avec P Ocomment L1 . définies sur T E C HΩ. Mais nous avons vu au chapitre 2. où il converge. . et il suffit de résumer le sondage X1 . + Xn . Nous nous placerons donc dans cette hypothèse.3 que lorsque la taille de la population totale est grande. Xi = 0 sinon. . . appelée estimateur de p. les Xi sont dépendants. Ce raisonnement heuristique peut d’ailleurs se quantifier ainsi. Le sondage porte sur n = 2500 individus choisis au hasard dans le corps électoral (excluant les abstentionnistes). ÉCO Sn X̂n = . En pratique. . xn ) comportant k “uns” etNnI− QkU“zéros”). Il faut bien comprendre qu’ici. et le choix naturel est la L EP proportion X̂n de vote pour AA dans l’échantillon. de sorte que a priori. en probabilité et presque-sûrement. Peut-on quantifier la confiance à donner à cette estimation numérique ? Plus précisément. . La I estUaussi que nous cherchons à estimer : E(X̂n ) = p . Nous contenue cherchons alors à estimer p en utilisant Y O Lune fonction X̂n de Sn . au sens où son espérance est égale au paramètre Eest sans biais.52 est-elle significativement différente de 0. La réponse dépend alors de l’am- plitude ε des fluctuations de X̂n autour de p. ap- pelée estimation p̂n de p. (Nous pou- vons par exemple imaginer que sur un autre échantillon de 2500 personnes interrogées. . quand n tend vers l’infini.52. . Par conséquent.5 ? Il faut tenir compte des possibilités de fluctuations dues à l’échantillonnage : si l’on change d’échantillon. ment “bon” (lorsque l’échantillon est de grande taille). . Xn ? Intuitivement. . vers le paramètre à P estimer É C OLE Le sondage donne 1300 intentions de votes pour AA et 1200 pour son adversaire. .6. l’espace d’états Ω est l’ensemble de tous les échantillons de n E individus. et supposerons ainsi les Xi indépendantes.E. Toutefois. . l’estimation vaut 0.

p(1−p) Cette probabilité sera environ égale à 0. de 99% environ. 1[. nous obtenons le résultat suivant (en remplaçant 1.) H NIQ Ce résultat nous dit que l’erreur p̂n − p T Y E C en prenant p̂n comme approximation commise de p ne dépassera pas. Section 4.96 et à 0. l’intervalle L Y T nE PsO sα ï ò Iα = p̂L α − √ . p̂n + √ (6. ce seuil sera égal à 2s√αn .5.96 p p 2. p̂n + √ .99 si a = 2. Plus généralement. mais la fonction = σ(p) est majorée par sa valeur maximale 1/2. U deEsorte qu’en remplaçant p p(1 − p)p I Q H N nous ne ferons qu’augmenter le facteur p(1 − p) par 1/2 dans les seuils précédents. (Voir la E table numérique de la fonction de répartition de la loiUnormale.6. avec unePO L probabilité de 95%.95. où sα E CO est tel que 2(1 − Π(sα )) = α. est l’intervalle de confiance de p de niveau asymp- totique α. E I Q Ude confiance asymp- Soit α ∈]0. resp. E Cnous notre quasi-certitude.96 par 2). n n Ce seuil dépend malencontreusement du paramètre p inconnu. np et n(1 − p) ≥ 5 en pratique).6. Proposition 6.4. Dès que n est assez grand (n ≥ 50. le seuil L E O p(1 − p) É C1.5. X̂n + √ = α. p(1 − p) p(1 − p) −a √ nε où g est la densité de la loi normale centrée réduite et a = √ . au sens où sα sα Å ï òã lim P p ∈ X̂n − √ . proche de 1 dans la pratique et appelé le niveau N ECH totique de l’intervalle. L É En conclusion. Y L T si nous donnons a priori la probabilité P α que l’erreur p̂n − p ne dépasse pas O un seuil donné.6 p(1 − p) √ .1) n n .174 Chapitre 6 – Fonctions caractéristiques et convergence en loi grande. n 2 n 2 n Ainsi 1 1 ï ò p̂n − √ . √ .1 Intervalle de confiance pour l’estimation de p. nous pouvons alors utiliser l’approximation normale (Théorème 6. si a = 1. R sα ÉCO 2 n 2 n où sα est tel que −sα g(x)dx = α. resp.1) Ç√ √ å Z a Ä ä n|X̂n − p| nε P |X̂n − p| ≤ ε = P p ≤p ' g(x)dx .

2 Précision dans la méthode de Monte-Carlo I Q UE N que le calcul analytique de CH d Soit fZ une fonction intégrable de R → R.2) n n celui de niveau 99%. Nous avons vu que la moyenne et C X1 . deOdensité p. . La loi des grands nombres entraîne que Iˆn converge vers I (en probabilité. .5.6. usuelles. lorsque E ϕ(X1 )2 < ∞. Xn indépendantes É 1 Iˆn = (ϕ(X1 ) + . f est intégrable et cela entraîne T que HN E Cϕ(X) ∈ L1 . P O LY L E nous savons générer des variables aléatoires Si p est une densité facilement simulable. Les instituts de sondage annoncent d’ailleurs leurs résultats ainsi (sous forme de fourchette d’estimation).5. 3 1. 3 ï ò p̂n − √ . de la forme 1. U E H NîI Q T EC ó X̂n − 2s√αn . 0. et I s’écrit donc comme Rd Rd p(x) E I = E(ϕ(X)) avec ϕ = f /p . Soit p une densité de probabilité sur RdZ. 54].2 On dit souvent que l’intervalle L E P Oasymptotique valle de confiance de p de niveau α. Iˆn + √ . X̂n + 2s√αn est l’inter- Y Remarque 6. p̂n + √ (6. et presque-sûrement)lorsque n → ∞ et le théorème de la limite centrale nous renseigne. 96σ ï ò Iˆn − √ .3 une mé- P L E Comparée aux méthodes d’intégration numériques Rd thode probabiliste par simulation. Il faut bien faire attention au fait O L ÉC que cet intervalle est aléatoire. l’intervalle de confiance à 95% pour p est [0. . X de densité I Par hypothèse. Nous avons vu au Chapitre 5. En procédant comme dans le paragraphe précédent. 50. sur la distribution de l’erreur Iˆn − I. Alors I = f (x)dx = p(x)dx. telle T E O LY I = f (x)dx soit compliqué ou impossible. . n n . QU p . .5. dont le support contient celui de f (f (x) 6= f (x) Z 0 ⇒ p(x) > 0). nous obtenons un intervalle de confiance pour I avec un niveau de confiance de 95%. + ϕ(Xn )) n constitue une approximation (en fait.5 – Intervalles de confiance 175 est l’intervalle de confiance de niveau 95% et 1. 6. la méthode deÉ CO Monte-Carlo est surtout intéressante en grande dimension. Dans notre exemple. 96σ 1. . une estimation au sens statistique du terme) de I.

6.7 du chapitre 5 concer- nant les méthodes de réduction de variance.3) Rd p(x) est le plus souvent inconnu. P2Oa même loi que X et Y . P LE connaît les valeurs numériques de I É C O d’estimation de la méthode.4. Nous Y T ECH pouvons vérifier que cet intervalle L (aléatoire) constitue encore un intervalle de confiance pour I de niveau 95%. d’après la loi des grands nombres. f (x)2 Z σ 2 = V ar(ϕ(X1 )) = dx − I 2 (6. calculées à partir des valeurs simulées. 05. de sorte qu’il faut aussi estimer sa valeur. de même loi et centrées.3. Si l’on ˆnOet Σ̂n . variables sont nécessairement EXERCICE 6.2 Reprenons les notations de l’exercice 5.1 Soient X et Y deux variables aléatoires indépendantes de carré Y intégrable. Montrer que ces On suppose que la variable aléatoireEX+Y √ L É CdeOloi normale. Ici. Soit φLleur fonction caractéristique commune. nous obtiendrons la fourchette 6.4) n n E N IQU où l’on a remplacé σ par l’estimateur Σ̂n . . 96Σ̂n ˆ 1. EXERCICE 6.6. Nous ÉC utilisons alors le lemme de considérer l’intervalle de confiance (Théorème 6. déterminer pour chaque estimateur An et Bn combien de simulations sont nécessaires pour obtenir une préci- sion relative de l’ordre de 1% sur le calcul de m avec probabilité 95%. Nous définissons alors l’estimateur !1/2E 1X n IQU 2 N ˆ2 ϕ(X1H n i=1T E C Σ̂n = ) − In .176 Chapitre 6 – Fonctions caractéristiques et convergence en loi Cela veut dire que la probabilité que la simulation ω obtenue ne donne pas un résultat appartenant à cet intervalle vaut 0. 1) Calculer la fonction caractéristique de X. In + √ .6 Exercices sur le chapitre 6 E N IQU TE CH EXERCICE 6. (6.5.5.8) pour montrer que l’on peut alors ñ ô ˆ 1.3 Soit X une variable aléatoire de Cauchy. Commenter. qui converge vers σ quand nEtendP O LY O LSlutskyvers l’infini. 2) Montrer que φ2X = (φX )2 .6. 96Σ̂n In − √ . Pour g(x) = x2 .

Montrer que les ensembles A(θ).6.5 Soit X un vecteur gaussien un sous-espace POL vectoriel de Rd . L E É C Oest de montrer que P(X ∈ F ) = 0 ou 1. Soit une suite (Xn )n de variables aléatoires indépendantes de carré P intégrable. 1) La loi de X a pour densité a2 e−|x|a . y). . centrées et de variance 1. X1 sin θ − X2 cos θ −X2 3) Montrer que P(A(0)) = 0. X1 cos θ + X2 sin θ X1 a même loi que .6. Soit F EXERCICE 6. 1). définis pour θ ∈ [0. On montrera que pour tout θ.6 Généralisation du théorème de Slutsky. E IQU d X Calculer la fonction caractéristique de Y .6. respectivement vers X + y et Xy. X Justifier que Y est définie presque-sûrement. LY PO O LE ãÉ C = P(A(0)). É C OLE En déduire que Xn + Yn et Xn Yn convergent en loi. Préliminaire : Montrer que Tn converge en loi vers T dès que E(f (Tn )) converge vers E(f (T)).6. E EXERCICE 6. en loi vers (X. Nous voulons prouver que la suite Tn = √1n ni=1 Xi converge en loi vers une variable aléatoire T de loi N (0. Å Å 2) Montrer que P(A(θ)) pour tout ã θ. EXERCICE 6.6 – Exercices sur le chapitre 6 177 EXERCICE 6. En déduire le résultat. pour f bornée de classe C 2 avec dérivées première et seconde bornées et uniformément continues.6. Le but de l’exercice 1) Soient X1 et X2 deux vecteurs indépendants de même loi que X. X1 (ω) TE CH sont disjoints pour des θ différents. N Y T E C H centré de R . Yn ) converge POL y.7 Une autre preuve du théorème de la limite centrale (due à Lin- deberg).4 Soient X et Y deux variables aléatoires indépendantes et a > 0. X1 (ω) cos θ + X2 (ω) sin θ ∈ F . N I Q UMontrer que si deux EC suites de variables aléatoires (Xn )n et (Yn )n sont tellesHque Xn converge en loi vers X et Yn converge en probabilité vers une constante Y T alors le couple (Xn . π2 [ par UE Q θ − X2 (ω) cos θ ∈/ F } N Isin A(θ) = {ω. Quelle est la fonction caractéristique de X ? 1 2) La loi de Y a pour densité y 2 1y≥1 .

4) Conclure. indépen- dantes de la suite (Xn )n .6.n .1) Y POL i=1 LE 2) Montrer que ÉCO 1 f (Wi.n = i−1 Xi Pn 1) Notons Xi. .n + f 00 (Wi. de carré intégrable. Nous savons qu’alors Tn0 = √1n ni=1 Yi est de loi N (0. E IQU EXERCICE 6.178 Chapitre 6 – Fonctions caractéristiques et convergence en loi Soit (Yn )n une suite de variables aléatoires indépendantes Pde loi N (0. 2 U E et que pour tout ε > 0.n |≤δ ÉC OLE 3) En déduire que Ä ä |E(f (Tn )) − E(f (Tn0 ))| ≤ 2ε + ||f 00 ||∞ E X12 1|X1 |>δ√n + Y12 1|Y1 |>δ√n .n )2 ε1|XY T E+C||f 00 L  ||∞ 1|Xi.n + j=i+1 Xj.6. PO i.n )) .n ) + f 0 (Wi.n )(Xi. Yi. et σX = σ > 0. Sn 1) Montrer que √ n ne converge 2) Montrer que (nα .n ) = f (Wi. il existe δ > 0. X f (Tn ) − f (Tn0 ) = (f (Wi. POL n OL E É C pas en probabilité. 1). quand n tend vers l’infini. avec E(X1 ) = 0. et Wi. Le but est de montrer que |E(f (Tn )) − E(f (Tn0 ))| → 0.n )2 + RX. P n Montrer que IQ UE n HN T E+CXi.n . tel que H NIQ |RX.n | ≤ (Xi.8 Soient (Xj )j des variables aléatoires E C H Nindépendantes et de même T Pn Y1 2 2 loi.n = √Yin .i.n + Xi.i.n (6.n ) − f (Wi.n )Xi. Soit S = i=1 Xi .n + Yi. pour toute fonction f bornée de classe C 2 avec dérivées première et seconde bornées et uniformément continues. 1).n = √ j=1 Yj.n |>δ .

Snn − m.

(respectivement .)n converge en probabilité vers 0.

.

quand α < 1/2. Ne voulant pas procéder à un recensement complet de la population. On définit une variable aléatoire X̄n . fréquence observée dans l’échantillon des ménages concernés par la télévision câblée. dont la réalisation est x̄n . on se propose d’es- timer cette proportion à partir d’un échantillon de taille n prélevé au hasard dans la population du département. EXERCICE 6.9 On veut évaluer la proportion p de foyers d’un département dis- posant d’un poste de télévision et désireux de recevoir les émissions par câble. (respectivement α > 1/2). vers +∞). .6.

9.6. 9 en utilisant la borne supérieure du produit p(1 − p).6 – Exercices sur le chapitre 6 179 1) Préciser l’espérance et la variance de X̄n . 2) Justifier que X̄n converge en un sens à préciser vers p. UE IQ N YT ECH P O L LE ÉCO U E NIQ TE CH LY PO LE ÉCO IQ UE C HN O LYTE P LE ÉCO . 64. 3) Soit n = 100 et x̄n = 0. En déduire une fourchette d’estimation pour p au niveau de confiance 0. Déterminer un intervalle de confiance pour p au niveau 0.

IQ UE C HN O LYTE P LE ÉCO U E NIQ TE CH LY PO LE ÉCO IQ UE C HN O LYTE P LE ÉCO .

mais les relations de récurrence qui les définissent vont nous permettre d’en déduire des informations sur leur comportement asymptotique.. quand n tend vers l’infini. les variables aléatoires que nous étudierons ne seront pas indépendantes. C Y E dans de très nombreuses ap- pour lesquelles la loi des états futurs du processusTne dépend du passé que par l’état du processus au présent. (Voir par exemple les livres de Benaïm-El Karoui. mais nous allons donner quelques exemples de tels processus qui sont très importants en probabilité. Ce chapitre.. Mein Weltbild . Nne l’a pas éprouvé ne sait plus T s’émerveiller ou se laisser surprendre. Celui qui Epour dire mort et ses yeux sont éteints. fondamental pour les applications. Un exemple fondamental est celui des chaînes de Markov. berceau de l’art et de la science. Graham. ilYest C Hainsi mental. Plus précisément.1934. 181 . en Mathématiques financières.LE en Informatique. Pardoux). Soulignons que jusqu’à présent. Ces processus sont O P L fondamentaux plications.Chapitre 7 IQ UE C HN O LYTE ModèlesCOdynamiques LE aléatoires P É E le sentiment fonda- UC’est I Q Le mystérieux éveille en nous les plus belles émotions. nous avons surtout étudié des suites de variables aléatoires indépendantes. nous nous intéresserons à des suites I Q U Ed’un système aléa- de variables aléatoires (Yn )n qui décrivent à chaque instant n l’état H N toire défini par récurrence. en Biologie. en Physique. P O L LE ÉCO Albert Einstein. Nous allons dans ce chapitre développer quelques exemples de phénomènes aléatoires qui évoluent au cours du temps. Dans ce chapitre. ÉCO Nous n’aborderons pas de manière systématique cette notion extrêmement riche. peut ainsi être vu comme une introduction à un cours sur les chaînes de Markov.

. il reçoit 1 euro de son adversaire. Donc n X Sn = k + Xi (7. . La marche peut se déplacer sur un réseau régulier ou sur des E Ugraphes plus complexes. et d’innombrables autres phénomènes aléatoires.182 Chapitre 7 – Modèles dynamiques aléatoires 7. notée par Sn . n ≥ 1. . . sont supposées indépendantes. Imaginons une particule qui se déplace sur ce réseau.1. SnC. n Remarquons que les variables aléatoires E Y T E P O Limportance fondamentale : elles modélisent le dé- L Ces marches aléatoires sont d’une É C O la promenade d’un individu. Problème de la ruine du joueur : Un joueur lance une pièce (éventuellement biaisée) de manière répétée.1) i=1 . . Quand la pièce tombe sur Pile. . Les variables Xn .1. i=1 où les variables aléatoires réelles (Xi )i∈N sont indépendantes et de même loi. −e1 . on a Sn+1 = Sn + Xn+1 avec Xn+1 = +1 avec probabilité p (probabilité que la pièce tombe sur Pile) et Xn+1 = −1 avec probabilité 1 − p.1 Nous appelons marche aléatoire la suite (Sn )n définie par n X Sn = S0 + Xi = Sn−1 + Xn . Sa position à l’instant n. et quand la pièce tombe sur Face. N IQ YT ECH Marche aléatoire simple sur Zd P O L O LE Cette marche modéliseÉlaCdynamique de particules sur le réseau Zd . . Notons (e1 . la taille placement d’une particule. la taille d’une file d’attente. et la fortune initiale du joueur est une constante. O LYTE P LE CO La marche aléatoire est diteÉsymétrique si la loi des Xi est uniforme. . Elle est très utilisée en physique statistique par exemple. ed . Sn+1 = Sn + Xn+1 . il lui donne 1 euro. est définie par la relation de récurrence aléatoire S0 = 0 . ed ) la base canonique de Zd . Notant Sn la fortune du joueur après n lancers. S0 = k. . E N IQU H∈ N sont des variables dépendantes. . d’une population. un cours de la bourse. . .1 Marche aléatoire Définition 7. E IQU où les variables aléatoires Xi H N et de même loi sur sont indépendantes C {e1 . −ed }.

Si le poisson atteint l’un des filets. Remarquons que m − k est la fortune initiale de l’adversaire. en position N C H et reste immobile. D’après . La formule (7. après quoi Sn reste constant. un pas en arrière avec probabilité p2 . Ainsi cette marche aléatoire est dite absorbée aux points 0 et m. dans le problème d’argent mise en jeu est fixée et le jeu s’arrête dès que le joueur est ruiné. PO LE É C Oparticulier de la ruine du joueur. nous allons déterminer sa probabilité µk = Pk (R) lorsque le joueur démarre avec une fortune initiale k. Probabilité de ruine : Notant R l’événement “ le joueur est finalement ruiné ”.1. (Sn = 0) ou que son adversaire l’est. Il est commode de représenter la É CO dynamique de cette marche par le diagramme suivant qui indique la probabilité des différents sauts possibles. . (Sn = m).1.1: Cas à uneCdimension : la marche peut faire un pas vers la droite avec probabilité p.7.1) peut aussi décrire le mouvement d’un poisson qui se déplace E transversalement dans une rivière. telles que p1 + . il est capturé O LYTE P LE L’arrêt du jeu correspond à des barrières absorbantes aux points 0 et m. un pas sur le côté avec probabilité p3 . . Deux filets de pêche sont placés en traversI Q deU la rivière. 7. + p4 = 1. L’indice k de Pk fait référence au point de départ de Sn .1) n’est vraie que jusqu’à la fin du jeu. la somme totale m En réalité. Cas à deux dimensions : un pas en avant avec probabilité p1 . E U IQ C HN LY TE est une marche aléatoire. un pas de l’autre côté avec probabilité p4 .1 – Marche aléatoire 183 IQ UE C HN O LYTE E P É OL Fig. Le modèle (7. un pas vers la gauche avec probabilité 1 − p. 0 et m.

avec d’autres conditions aux limites (µ0 = Procédant de même pour l’événement G : " le joueur finit par gagner ".1. p p (7. r2 = (1 − p)/p. D’où µk = p µk+1 + (1 − p) µk−1 (7. Nous obtenons donc l’équation de récurrence linéaire avec second membre Vk = p(1 + Vk+1 ) + (1 − p) (1 + Vk−1 ) (7. Deux cas se présentent alors. Alors r1 = r2 = 1. nous constatons que PkÉ C satisfait (G) 0. les solutions de (7.2). Nous trouvons alors que Pk (G) = 1 − Pk (R).4) T−E1 C Pk (R) = 1−p m Ä ä P O LYp O L E (7.3) est une récurrence linéaire. la fortune du joueur devient k + 1 et le jeu se déroule alors comme s’il était parti de la fortune k + 1. Nous obtenons 1−p m 1−p k Q UE Ä ä Ä ä − I H N.1.1. .1. nous conditionnons suivant les valeurs de X1 Ek (ν) = Ek (ν | X1 = 1) P(X1 = 1) + Ek (ν | X1 = −1) P(X1 = −1) et nous remarquons que cette fois Ek (ν | X1 = ±1) = Vk±1 + 1 puisqu’une unité de temps s’est écoulée. avec probabilité 1.3) sont de la forme µk = α + β k et en tenant compte des conditions limites nous obtenons E k N IkQ. L’équation U E d’abord les solutions de (7. ii) p = 1/2 (jeu équitable).1. U ECH m Pk (R) = 1 − . Les deux racines sont différentes. . Vk = Ek (ν) avec Durée du jeu : Déterminons ν = min{k ≥ 1 : Sn = 0 ou m}.5) m Y T POL et ici encore le jeu finit par s’arrêter. µm = 0. et Ek désigne l’espérance sous Pk .3). . . µm = 1).1.2) Si le premier lancer donne Pile. (7. si bien que le jeu s’arrête en un temps fini.184 Chapitre 7 – Modèles dynamiques aléatoires les formules de conditionnement (voir Chapitre 2). PO dont les solutions sont O LE É C r1 = 1. Comme dans (7. avec les conditions aux limites µ0 = 1. m − 1}. Pk (G) = (7.3) pour k ∈ {1.1. Pk (R) = Pk (R | X1 = +1) P (X1 = +1) + Pk (R | X1 = −1) P (X1 = −1) . les solutions de (7. i) p 6= 1/2 (jeu biaisé).1.1. LE É ClaOdurée moyenne du jeu.6) .3) sont de la forme µk = α r1k + β r2k et nous déterminons α et β par les conditions aux limites.1. 0 ≤ k < m. pour laquelle on cherche NIQ la forme µk = rk : r doit satisfaire l’équation caractéristique −Yr T p r2L ECH + (1 − p) = 0 .

puis parie une unité à chaque jeu. dont ils décrivent l’évolution. Déterminer Vk . ici p < 1/2.1. avec V0 = Vm = 0.2 – Processus de branchement 185 pour 1 ≤ k ≤ m − 1. Dans un premier temps. Il joue à un jeu défavorable contreÉ CunOadversaire (presque) infiniment riche. Lque qui d’arrêter le jeu. 7. E nous supposons que le joueur Q U H N I quand a un oncle très riche qui lui garantit de ne pas perdre : lorsque Sn = 0. Notons que. puisque le jeu est I Q UE défavorable. Nous résolvons cette équation en trouvant solutions générales et solution particulière : 1−p k Ñ Ä ä é 1 1 − p Ek ( ν) = k−m si p = 6 1/2 . Si le joueur a une fortune initiale de k unités. L’adversaire n’est Odécideplus nécessairement ruiné mais le capital de m O E euros suffit encore au joueur.6). alors sa probabilité d’être ruiné est donnée par (7.1. . son gain moyen est négatif même quand il a une probabilité supérieure à 1/2 d’atteindre la fortune m.2 Processus de branchement Ces modèles sont absolument fondamentaux en écologie et pour l’étude de la dyna- mique des populations.Étandis le point m reste absorbant. N CH O LYTE P EXERCICE 7. 1 − 2p 1−p m Ä ä 1− p = k(m − k) si p = 1/2 .1. Barrière réfléchissante : Dans le problème précédent. mais qui accepte toujours de jouer tandis que le joueur peut s’arrêter à sa guise. et joue jusqu’à atteindre la fortune m ou la ruine. É Cmais sante) vérifie encore (7. Nous avons le diagramme suivant : U E NIQ TE CH LY PO Commentaire : Un joueur dans L E un casino est dans la situation suivante.2 Montrer que LlaEdurée moyenne du jeu (avec barrière réfléchis- O avec d’autres conditions aux limites : V = 0. Le jeu s’arrête Y T EC encore la fortune Sn du joueur P L atteint la valeur m. Son destin est résumé dans le tableau 7.7.1. l’oncle lui donne 1 euro et Sn+1 = 1. Nous disons ici que le point C 0 est réfléchissant. m V0 = 1 + V1 .4) . nous nous intéressons à la loi de la somme d’un nombre aléatoire de variables aléatoires indépendantes.

2 171.1 11 90 100 0. de fonction génératrice G(x) = E(xν ) .21 -1. n ≥ 1).2.6 90 100 0. H C termes lui-même est aléatoire.866 -76. .1 0 9 9 10 0. n ≥ 1) est une suite infinie de variables aléatoires entières positives. .3 441. 7.182 -17.3 H NI 99 100 TE 0. . 1]. b) le temps de service journalier νi=1 Xi effectué par un organe de service lorsque U E d’autre part sont P les temps de service Xi d’une part et le nombre ν deI Q clients N aléatoires.5 0.1 0 900 90 100 0. Xn ) quel que soit n).1 Si (Xn .1 Somme aléatoire de variables aléatoires indépendantes UE N I Q d’avoir à considérer des Il arrive fréquemment.2. n ≥ 1) et si ν est une variable aléatoire entière positive.45 C 0.983Q U -88.1 : Le destin du joueur ÉC 7. T Ede sommes de variables aléatoires dont le nombre P O LY LE Nous pouvons par exemple considérer ÉCO a) le nombre de filles d’une famille νi=1 1Fi puisque le sexe de chaque enfant ainsi P que le nombre total d’enfants ν sont aléatoires (Fi désigne l’événement : le ième enfant est une fille) .8 LY E PO O L Tab.5 0. indépendante de la suite (Xn .4 E 0.45 0.6 756. Proposition 7. CH O LYTE P LE É CO La fonction génératrice d’une telle somme s’obtient très simplement lorsque les va- riables aléatoires en jeu sont toutes indépendantes et à valeurs entières.186 Chapitre 7 – Modèles dynamiques aléatoires fortune fortune p proba.45 0. indépendantes et de même loi donnée par la fonction génératrice g(x) = E(xXn ) (x ∈ [0. . (c’est-à-dire indépendante du vecteur (X1 . dans la modélisation probabiliste. gain durée initiale (k) totale (m) de ruine moyen moyenne 9 10 0.

8 . on a E(xν ) = exp(θ(x − 1)) et E(xXm ) = xp + (1 − p) de sorte que E(xSν ) = exp(θ(xp + (1 − p) − 1)) = exp(θp(x − 1)) . est la fonction composée de g et G.2 – Processus de branchement 187 alors la fonction génératrice de la somme ν X Sν = Xm (S = 0 si ν = 0) (7.1) m=1 des ν premières variables aléatoires Xm . ce qui montre que Sν suit une loi de Poisson de paramètre θp.2) IQ UE N Pn Y ECH Preuve. I Q UE Comme les ensembles ({ν = n}. n ∈ N) formentH N T E C une partition de Ω.3) et dépend donc de deux manières de ω. Nous avions déjà obtenu ce résultat dans l’exemple 3. Soient Sn = m=1 Xm .2 Sous les hypothèses d’indépendance précédentes. Nous sup- =O posons par convention que S0 P 0.2. si ν suit une loi de Poisson de paramètre θ et si les Xm suivent une loi de Bernoulli de paramètre p. (n ≥T1).LAlors la variable aléatoire S s’écrit explicitement sur Ω OLE ÉC S(ω) = Sν(ω) (ω) (7. soit E(xSν ) = G ◦ g(x) (∀ x. les sommes partielles des Xm .6. x ∈ [0. nous pouvons écrire OL Y E P 1L E(xCSO X X E(xS ) =ν {ν=n} ) = ν E(xS 1{ν=n} ) n n É n X = E(xSn ) P(ν = n) ( par indépendance de Sn et de ν) n X = g(x)n P(ν = n) ( par indépendance des Xi .2.2. i ≤ n) UE n IQ HN = G(g(x)). (7. C O LYTE  P ÉC OLE Exemple 7.7. 1]).2.

4) L ÉCO i=1 Les variables aléatoires Yin sont supposées indépendantes entre elles et de même loi de probabilité (pk . k ∈ N). ouLdu PO modèle aussi bien décrire la croissance d’une nombre de neutrons dans un réacteur. Chaque nucléotide est copié de façon correcte avec probabilité q.2. La chaîne est détruite avec probabilité p ou donne naissance à deux mo- lécules avec probabilité 1 − p. Y2 = 1. ou encore d’une CO épidémie dans uneÉpopulation. Le processus comptant à chaque génération le nombre de chaînes correctes est un processus de Bienaymé-Galton-Watson de loi de repro- duction p0 = p (destruction). (ii) Un chaîne de N nucléotides d’ADN (Voir Delmas-Jourdain). Alors g(x) = p0 + p2 x2 . Y1 = 3. Cette figure représente un P arbre aléatoire.2 Processus de branchement Les premières études marquantes sur les processus de branchement. Y3 L 1 1 2 2 2 2 = 1. ont été en particulier motivées par l’étude de la survivance des noms de familles (de nobles anglais). mais qui présentent néanmoins T Epeut par ce type de processus. et donc de la non-extinction des descendants mâles qui seuls transmettaient le nom.2 représente les individus des générations O Y 4 2. Ils sont connus sous le nom de processus de Galton-Watson ou processus de Bienaymé-Galton-Watson. Y2 = 0. en supposant que chacun des Zn individus I Q U E (1 ≤ i ≤ Zn ). .2. lorsque Z0 = 1. la chaîne est répliquée. Ces processus avaient déjà été introduits par Bienaymé (1845). La reproduction est binaire ou la cellule meurt : P(Y = 0) = P(Y = 2) = 21 . Y10 = La figure 7. dues à Galton et Watson (1875). au de la nième génération engendre un nombre aléatoire Yin d’enfants temps n. nous exclurons le cas inintéressant où Y serait égale à 1 avec probabilité un. Y = 3. . Nous étudions l’évolution du nombre Zn d’individus de cette population au cours de ses générations successives n = 0.3 (i) Division cellulaire. . 2. Cette loi de Y est appelée la loi de reproduction du processus de Galton-Watson. . p2 = (1 − p) q N (non destruction mais réplication correcte) et pk = 0 pour k ≥ 3. E N IQU T E C H0 à 3. En une unité de temps. Y1 = 2. Le E population de cellules.2. caractérisée par sa fonction génératrice g(x) = E(xY ). p1 = (1 − p)(1 − q N ) (non destruction mais réplication incorrecte). (7. Dans la suite. dont la description L Y un comportement non trivial. UE De nombreux phénomènes d’évolution de population H N I Q peuvent en fait être modélisés Cest simple. LE ÉCO Exemple 7. c’est-à-dire le cas où g(x) ≡ x. de sorte que EC HN Zn Y T X L Zn+1E=P O Yin (n ≥ 0) .188 Chapitre 7 – Modèles dynamiques aléatoires 7. 1.

7) et sa probabilité donnée par P(E) = lim ↑ gn (0) .7.5) POL Gn+1 (x) = GZn+1 (x) = (n ≥ 0) =L et si nous supposons que Z0 O 1E de sorte que G0 (x) ≡ x.6) Ce résultat va déjà nous permettre d’étudier le comportement asymptotique de la E de la population. . .2. 7. comme nous allons le voir dans le théorème suivant. . Deux cas se présentent. n (puisque P(Z = 0) = GZ (0) pour toute variable aléatoire Z entière positive).2. ◦ g n fois .2 – Processus de branchement 189 Z0=1 IQ UE C HN YTE Z1=2 P O L Z2=4 OLE Z3=6 ÉC Fig. L’événement A = “Extinction de la population” est donc naturellement défini par E P L ÉCO A = ∪n ↑ {Zn = 0} (7.2. nous trouvons que pour tout n≥1: É C Gn (x) = gn (x) où gn = g ◦ g ◦ . suite (Zn )n≥0 et de calculer notamment la probabilité d’extinction N IQU Remarquons que Zn+1 = 0 si Zn = 0 dans le E T C H précédent et donc que les modèle OL Y événements {Zn = 0} croissent avec n. (7.1 montre alors que la fonction génératrice Gn (x) = GZn (x) de Zn E vérifie pour tout x ∈ [0.2. 1].2 : L’arbre généalogique du processus de branchement La Proposition 7. IQU N CH YGTnE(g(x)) (7.

2. i ≥ 1) nous déduisons U En−1 ) = (E(Y ))n (par récur- QE(Z de (7. En effet. la probabilité d’extinction P(A) est égale au nombre positif v stric- tement inférieur à 1. Preuve. • b) Lorsque g 0 (1) ≤ 1.5. pour tout x ∈ [0. 1[. (resp. Preuve. tout x ∈ [v. 1[. Ainsi. E Q U analytique suivant. La démonstration du théorème repose sur le lemme I HN C vers 1 lorsque n % ∞ pour tout Lemme 7. 1). solution unique de g(v) = v dans [0. elle ne peut alors valoir que 1. nous obtenons un résultat plus complet. selon que g 0 (1) ≤ 1 ou que g 0 (1) > 1 . la population s’éteint presque sûrement : P(A) = 1.2 que E(Zn ) = E(Y )I× N rence). n ≥ 1.190 Chapitre 7 – Modèles dynamiques aléatoires Théorème 7. . décroît) lorsque n % ∞. 1] dans lui-même est croissante et strictement convexe car les dérivées N I Q 00 T E CH 0 Y −1 ) et LgY (x) = E Y (Y − 1)xY −2  g (x) = E(Y x O OL EP sont positives en tant qu’espérances de variables aléatoires réelles discrètes po- sitives. l’équationOg(v) b) É C croît vers v (resp. 1]2 en un point distinct de (1. P O LY L E= v possède une solution unique dans [0. Cette dernière égalité entraîne queClaHpopulation s’éteint lorsque E(Y ) < 1.5 Par indépendance des variables (Yin .2. UE • a) L’application x → g(x) de l’intervalle [0. alors gn (x) x ∈ [0. nous avons x ≤ g(x) et donc gn (x) ≤ gn+1 (x) (puisque gn+1 = g ◦ gn ) pour tout x. 1[). De plus g(1) = ÉC1. La limite limn gn (x) est inférieure à 1 et solution de g(u) = u. selon le cas. la courbe g ne coupe pas ou au contraire coupe la diagonale du carré [0.3.2.2. Comme nous avons exclu le cas g(x) ≡ x.6 T Ecroît a) Si g 0 (1) ≤ 1. 1[ et gn (x) Si g 0 (1) > 1.8) Dans le théorème 7. v]. ÉC (7. 1].4) et de l’exercice 7. du lemme.2.4 (i) Si le nombre moyen d’enfants E(Y ) de chaque individu est inférieur ou égal à 1.4. (ii) Si E(Y ) > 1. il est facile de voir que LY T E E PO L O P(Zn 6= 0) ≤ E(Zn ) = (E(Y ))n . Remarque 7. l’équation de point fixe g(v) = v n’a pas de solution ou possède une unique solution dans [0.2. ceci se voit bien sur la figure 7.

7).2. H N YTE n O L 2) si E(Y ) = g 0 (1) > 1. . 7.2 – Processus de branchement 191 g 0(1) < 1 g 0(1) > 1 1 1 g3 (x) g2 (x) g(x) g(x) g2 (x) g3 (x) E IQU C HvN O LYTE E P g(x)L 0 0 ÉCO 0 x 1 0 v g(x) x 1 Fig. Par ailleurs. Là-aussi. il s’en suit que gn (x) T E C Hcroît 6=O inférieure à 1. Nous en déduisons un contre-exemple pour le théorème de convergence dominée. est alors nécessairement égale à v. nous obtenons immédiatement que UE 1) si E(Y ) = g 0 (1) ≤ 1. décroît) avec n selon x ≤ v ou que x ≥ v . et d’autre part Zn converge presque-sûrement vers 0.2. si g 0 (1) > 1. La limite limn gn (x). grâce à (7. alors C O L EP É P(A) = lim gn (0) = v . IQ P(A) = lim gn (0) = 1C. alors E(Zn ) = (E(Y ))n tend vers l’infini quand n tend vers l’infini alors que l’ensemble où Zn tend vers 0 est de probabilité strictement positive.3 : La fonction g et ses itérées dans les deux cas E(Y ) ≤ 1 et E(Y ) > 1 • c) De même. alors. où il y a convergence presque-sûre et pas conver- gence des espérances (ceci est dû au fait que les Zn ne sont pas bornées). LE ÉCO  Ainsi donc. qui est solution de g(u) = u et est strictement 1). alors d’une part E(Zn ) = 1. (du moins si x P LY le cas. n  Remarque 7.7 Lorsque E(Y ) = 1. en appliquant les résultats du lemme. nous avons x ≤ g(x) ≤ Q I U Ex ≥ g(x) ≥ v selon que v ou N (resp. si E(Y ) > 1. nous avons un résultat qui peut paraître contraire à l’intuition.7.

2. |gn (x) − v| ≤P 0 v. (cf.192 Chapitre 7 – Modèles dynamiques aléatoires Remarque 7. Plus précisément. pour tout entier a > 0 et quel que soit x que l’on se sera fixé dans ]0. et le lemme de n C HN Borel-Cantelli (Théorème 2. LE É C O de branchement critique). i. c) lorsque E(Y ) > 1 (processus de branchement sur-critique).8 Lorsque E(Y ) > 1.1).7.4). la taille de la popu- lation Zn explose à une vitesse géométrique lorsqu’il n’y a pas extinction. En effet. N comme nous l’avons vu. la population “explose” lorsqu’elle ne s’éteint pas. Ces deux événements complémentaires ont pour probabilités respectives v et 1 − v. . l’extinction n’est pas certaine. en utilisant l’inégalité de Markov (4. nous obtenons. on peut montrer que n Zn / (E(Y )) → W lorsque n → ∞ pour une variable aléatoire W strictement positive sur Ac .5. T E CH " non extinction à l’instant n " tend vers 0 à une vitesse puisque. cette même probabilité b) lorsque E(Y ) = 1 (processus tend beaucoup plus lentement vers zéro. P(0 < Zn ≤ a) = P(Zn ≤ a|Zn > 0)P(Zn > 0) = P(xZn ≥ xa |Zn > 0)P(Zn > 0) X ≤ x−a E(xZn |Zn > 0)P(Zn > 0) = x−aE xk P(Zn = k) N I Q U k≥1 YT = x−a (gn (x) − gn (0)) ECH OL E Pvers l’infini.5. (Voir exercice 7. ∀a > 0. c’est à dire que P(Zn → ∞ | Ac ) = 1. Que se passe-t-il lorsque le processus survit ? En fait. deux cas seulement L sont possibles : ou bien à partir d’un certain C Obien Zn > a à partir d’un certain Z n = 0 rang (c’est l’extinction). du moins si E(Y 2 ) < ∞ car dans ce cas.14) montre que L Y T Epresque-sûrement. Comme g (v) < 1. Comme Z n = 0 implique que Zn0 = 0 pour tout n0 > n. Il en résulte déjà la propriété plus faible qui tend vers 0 lorsque nLtend O que P(0 < Zn ≤ a |ÉAC) −−−→ 0. c n→∞ En outre une analyse plus détaillée de la convergence des gn montre que cette conver- cn |x − v| pour c = g 0 (v) et x inférieur à gence est exponentielle. on peut montrer que si E(Y 2 ) < ∞.e. Zn = 0 ou Zn > a E PO pour tout n à partir d’un certain rang. cela implique que P(0 < ZnI Q≤U E a) < ∞. Y P(ZnP6=O0)L≤ (E(Y ))n . 1[. Benaïm-El Karoui).É ou rang et comme a est arbitraire : Zn → ∞ (c’est l’explosion). P(Zn 6= 0) ∼ c/n lorsque n → ∞ avec c = 2/E (Y (Y − 1)). Signalons pour terminer que : E la probabilité de I Q Ugéométrique a) lorsque E(Y ) < 1 (processus de branchement sous-critique).

Chaque canal est identifié à une arête d’un arbre binaire.2 – Processus de branchement 193 7.4 : L’arbre A3 ÉCO Fig. de largeur suffisante pour permettre le passage de l’eau). . Su = n} . b}). nous noterons u < v si u ≤ v.. dont les arêtes Posons plus précisément leLmodèle. O L YT E P Considérons l’arbre binaire infini A.e. Le modèle suivant rend compte d’une pierre poreuse plongée dans l’eau. . et permet alors le passage de l’eau . . wn de longueur |u| = sont numérotées par n (n ≥ 1. On dit que l’arête u précède l’arête v dans l’arbre si I Q U0 E u est un début de v (c’est-à-dire. nous avons représenté l’arbre jusqu’à la profondeur 3. c’est-à-dire le sous-ensemble A3 des arêtes numérotées par les suites de longueur inférieure ou égale à 3. . C= Cn n≥1 . si v est de la forme v = uu ).4.7. O É Cles suites finies non vides u = w1 w2 . . |u| = n. L’arête u est “ouverte” si Xu = 1. u 6= v. 1[. La H N question est de savoir si E l’eau va pénétrer jusqu’au coeur de la pierreC ou non. H N TE C LY PO LE ÉCO IQ UE C HN O LYTE P L E7. L’eau ne peut atteindre le centre de la pierre qu’en empruntant une suite de canaux (ou micro- fissures). où p ∈]0. A chaque arête u ∈ A est associée une variable aléatoire binaire Xu . Chaque canal peut I Q U E naturelle être “ouvert” ou “fermé”.2. Dans la figure 7. Nous définissons alors X Su = Xv . et nous supposons ces variables aléatoires (Xu )u∈A indépendantes et de même loi donnée par P(Xu = 1) = p = 1 − P(Xu = 0). et on note p la proportion de canaux ouverts (i. wi ∈ {a. gels et polymères en chimie. elle est “fermée” sinon.3 Percolation sur un arbre Les modèles de percolation sont utilisés pour décrire la matière molle ou désordonnée : verres en physique. u ∈ A v≤u [ Cn = {u ∈ A . et nous écrivons alors u ≤ v .

3 Files d’attente Les modèles de files d’attente décrivent des unités de service où se présentent des clients selon un flux aléatoire : un serveur à son guichet. jusqu’aux cas plus complexes des réseaux de communi- cation (ethernet.1 ou 2 SaU enfants avec probabilité (1 − p)2 . p U E NIQ ECH D’après l’étude précédente. l’eau atteint cependant des points “voisins” du centre. 2p(1 − p). la racine de l’arbre). ou p2 . La loi de reproduction est une loi binomiale B(2. Notons que le centre de la pierre sera mouillé si et seulement si C est infini. avec probabilité strictement positive. avec probabilité un. . on dit qu’il y a percolation. l’eau atteint un nombre infini de noeuds de l’arbre : si elle ne chemine pas nécessairement jusqu’au E QU centre. x = v et x = 1 avec v = < 1. etc. nous concluons que : Y Tarêtes ouvertes connectées au centre par (i) si p ≤ 1/2. 1] : É (i) si p ≤ 1/2 .194 Chapitre 7 – Modèles dynamiques aléatoires L’ensemble C (resp. Le cardinal Zn = |Cn | de Cn est la taille de la population des descendants de la nième génération de l’ancêtre (ici. . restera sec. engorgement) en fonction du flux d’arrivée et de la durée de service. E P café. ). 7. l’ensemble aléatoire C Ldes O P L E est fini avec probabilité un. NI C H ECe terme évoque le percolateur à O L Y Tles Dans le cas p > 1/2. L’ensemble d’extinction correspondant est {|C| < ∞}. un standard téléphonique.I Q E fonction génératrice vaut donc N ECH 2 g(x) = (1 − p + px) comme nous l’avons vu précédemment. Cn ) est constitué des arêtes de l’arbre (respectivement des arêtes de l’arbre à la profondeur n). É CO (ii) si p > 1/2. x = 1 ã2 1−p Å (ii) si p > 1/2 . qui sont ouvertes et reliées à la racine (le centre de la pierre) par des arêtes ouvertes. LY T O aO L’équation g(x) = x C pour EP L racines dans [0. . Ce modèle est un modèle de branchement. l’ensemble C est infini et l’eau cheminera jusqu’au centre de la pierre. Nous nous intéressons à la fluidité du fonctionnement de l’unité (stabilité de la queue. taille. Le centre de la pierre un chemin d’arêtes ouvertes. puisque d’un noeud de l’arbre partent 2 canaux en direction de l’eau : ce noeud aura donc 0. p). où l’eau se fraie un passage (percole) entre particules de café moulu jusqu’à L ÉCO la tasse. . internet. un canal de transmission. Nous pouvons aussi montrer que dans ce cas.

3 – Files d’attente 195 7. alors elle sera la même à l’instant 1.3. il est nécessaire que la file ne s’engorge UE pas. un serveur unique délivre un service de durée 1 au premier client éventuellement en attente. c’est-à-dire que P(YnN=I Q = q(i) pour i ∈ N. Xn = 0} YT E∈CNH ∪ {+∞} . O L P Remarquons que T0 = +∞ si Xn > 0 pour qui est le premier instant où la file se vide. .2) (on convient que q(i) = 0 si i ∈ / N). Nous étudions tout d’abord la finitude de la variable aléatoire NIQ T0 = min{n ≥ 1 .7. C P(Xn+1 = É j | Xn = i) =  q(j − i − 1) si i ≥ 1 (7. que l’on supposera indépendantes et intégrables. la loi H L Y T C conditionnelle de Xn+1 sachant Xn est donnéeEpar P O  q(j)  O L E si i = 0 . N Notant a+ = max{a. la notation Pi désignera la loi de la file d’attente partant de l’état initial constant X0 = i. n] sont des variables aléatoires entières de même loi. 0} la partie positive T EdeC Ha ∈ R. Le flot d’arrivée des clients est homogène. qui est donc la taille de la file d’attente. et si Xn ≥ 1 alors Xn+1 = (Xn − 1) + Yn+1 . Remarquons que si la file démarre vide (X0 = 0) ou avec un client en attente (X0 = 1). Le nombre Xn de clients présents dans la queue à l’instant n ∈ N. E i) U Si q est la loi commune des Yn . et donc aussi aux instants ultérieurs. Xn satisfait donc la relation de Y récurrence POL LE É C OXn+1 = (Xn − 1)+ + Yn+1 .1 Un modèle simple en temps discret À chaque instant n ∈ N. O LE tout temps n ≥ 1. évolue selon la dynamique suivante : E IQU si Xn = 0 alors Xn+1 = Yn+1 .3. c’est-à-dire une probabilité sur l’espace de probabilité Ω telle que Pi (X0 = i) = 1. de sorte que nous avons P0 (T0 < ∞) = P1 (T0 < ∞). Appelons v cette probabilité que la file se vide : v := P0 (T0 < ∞) = P1 (T0 < ∞). n∈N (7. et les nombres Yn de clients se présentant dans les intervalles de temps ]n − 1.3. Pour le bon fonctionnement de la file d’attente. pour i ∈ N. ÉC Ici et dans toute la suite.1) qui la détermine entièrement en fonction des Yn et de l’état initial X0 que l’on sup- posera indépendant de la suite (Yn )n .

1]. et l’événement {T0 = ∞} ⊂ Yk − n + X0 ≥ 1. E n→∞ O LT0 . Nous en déduisons que lorsque ρ < 1. qui vaut v := P0 (T0 < ∞) = P1 (T0 < ∞). .3) ß n tend vers −∞ d’après la™ loi des grands nombres. pour tout n ≥ 0. C HN avec probabilité 1. (7.3.C E HN elle s’engorge : LY T ρ := E(Y1 ) > 1 =⇒ lim P OX n = +∞ avec probabilité 1 .196 Chapitre 7 – Modèles dynamiques aléatoires Puisque trivialement a+ ≥ a.2 ÉCO Stabilité : étude analytique Théorème 7. i≥1 En particulier. Le cas critique ρ = 1 est plus difficile. il résulte de (7.3. Rappelons que le paramètre ρ = E(Y1 ) repré- sente la charge moyenne de travail par unité de temps pour le serveur. Ainsi la file reste stable dans P k=1 ce cas : E ρ := E(Y1 ) < 1 =⇒ T0 < ∞ avec probabilité Q U1 .3.3).3) k=1 Nous en déduisons que n Xn 1X X0 ≥ Yk − 1 + . LY Tn E O Plim 1 LE X Y = E(Y1 ). et par sommation. lim inf n Xnn va être supérieure à E(Y1 ) − 1.1 La probabilité que la file d’attente (7.3. Le signe de cette différence va donc jouer un grand rôle. la file d’attente est instable. tant queÉnC < donc éga- lité dans (7. NI C Hle résultat plus précis suivant.3. ∀n ≥ 1 est de probabilité nulle. est la plus petite solution de g(v) = v dans [0.1) que Xn+1 ≥ Xn − 1 + Yn+1 .4) n n n E k=1 IQU Or.3. presque-sûrement. Il est décritEpar O LYT P LE 7. (7. I Q UE Lorsque E(Y1 ) > 1. n X Xn ≥ Yk − n + X0 . le membre de droite de (7.3. v = 1 si et seulement si ρ = E(Y1 ) ≤ 1. ÉCO k n→∞ n k=1 Ainsi.3.1) démarrant de X0 = 0 ou 1 finisse par se vider. la loi des grands nombres montre que. où g est la fonction génératrice de Y1 . nous avons (Xn − 1)+ = Xn − 1 et D’autre part.  X i g(x) = E xY1 = x q(i) .

Ses “enfants” sont les Y1 clients arrivant dans la file pendant son service . la suite (ZN .3. et pour N ≥ 0 H NIQ EC LY T X ZN +1 = Yk .2.. . soit X ZN = T 0 .5) et pour (7. Les tailles Z0 = 1.3.4) trouvée pour le modèle de branchement. Z2 = j) = P(Z2 = j|Z1P= L 1 = i) = P(Y1 = i) × P Oi)P(Z X Yk = j LE ÉCO k=1 est la même pour (7. alors à T la probabilité v que la file se vide est égaleLY E v = P1 (T0 < ∞) = P(A). nous constatons que la durée moyenne de la période d’activité n’est finie que si ρ < 1 E(T0 ) < ∞ ⇐⇒ ρ = E(Y1 ) < 1 . La file démarrant de X0 = 1. v = 1 ⇐⇒ ρ ≤ 1. N ≥1 et rappelant que E(ZN ) = ((E(Y1 ))N = ρN . le client présent à l’instant n = 0 est l’ancêtre du processus de branchement. . 1] de l’équation v = g(v). ZN des générations successives constituent alors un processus de branchement dont la loi de reproduction est q = (q(i). (7.3. Plus généralement. Z1 . H N Si A désigne l’événement aléatoire “le processus deCbranchement Z s’éteint” . c’est-à-dire la période de service ininterrompu débutant au temps n = 0. D’après le E théorème 7.2. ParI Q U E la probabilité exemple. Nous pouvons écrire U Z0 = 1. Le processus de branchement Z s’éteint si et seulement siI Q la U E file finit par se vider. le client C2 est un “enfant” du client C1 si C2 arrive dans la file pendant le service de C1 . De même. Z1 = Y1 .. L’expression (7.2. Chaque période d’activité du serveur peut se décrire à l’aide d’un processus de branchement. Plus généralement.7.5) n’est pas exactement de la forme (7.+Z OLE 0 N −1 ≤k≤Z0 +. Remarquant que la taille totale de la lignée est égale à la durée de la période d’activité.. .. Nous décrivons ainsi toute la période d’ac- tivité du serveur.+ZN −1 C É que la somme sur l’ensemble vide est 0). N ≥ 1) a même loi que le processus de branchement.3 – Files d’attente 197 Preuve. N T E CH Y i ! P(Z1 = i. Nous définissons récursivement la (N + 1)-ième géné- ration comme l’ensemble des enfants d’individus de la N -ième génération.5) PZO+.4). Z2 . ils constituent la première génération (Z1 = Y1 ). En particulier. iE∈ N∗ ).4. Il y a cependant une différence importante entre les cas ρ < 1 et ρ = 1. mais elle définit bien la même loi. v est donc la plus petiteP Osolution dans [0. . C O L É Ainsi le serveur finit par se reposer si ρ ≤ 1. Z2 = (avec la convention PZ1 k=1 Yk .

ce qui entraîne que Pi (Ti−1 < ∞) = v. nous remarquons que pour la file commençant à i ≥ 1. qui n’utilise pas le processus de branchement. la loi de (X2 .8) L ÉCO Pour montrer (7.7) L Y E P O i−2 Pi (T0 < ∞) = Pi (Ti−1 < ∞) × Pi−1 (T × . × P1 (T0 < ∞) . ) démarrant de X0 = i. les (Yk . Le serveur dans ce cas doit s’attendre à des journées de travail ininterrompu. et au mécontentement de ses clients en attente dans la file !  Preuve. . . Y1 = i) i≥0 X = P1 (T0 < ∞ | Y1 = i) q(i) i≥0 I Q UE N < ∞) q(i) . X C Hi 0 = q(0) + P (T (7.8) par récurrence. . Montrons que l’on a : IQ UE C HN T<E∞) Pi (Ti−1 < ∞) = v ∀i ≥ 1 . et donc Pi (Ti−1 = n) = P1 (T0 = n).3. + (Yk − 1) = i − 1} = min {k ≥ 1 : Y1 + .3. . (7. pour tout i ∈ N. le temps d’atteinte Ti de l’état i. ) En effet. stable au sens où v = 1.3. kÉ≥C1) conditionnée en X1 = i (ou Y1 = i) est la même que celle de (X1 . .198 Chapitre 7 – Modèles dynamiques aléatoires Le cas ρ = 1.3. Voici une autre preuve du théorème 7. Ainsi Pi (Ti−1 = n) ne dépend pas de i. . . . .6) Y T E i≥1 POL LE Oétant indépendants et de même loi. Introduisons. . X3. E Y1N (i) En conditionnant suivant les valeurs deH IQU C O LYTE E P PL X ÉCO 1 (T0 < ∞) = P1 (T0 < ∞ . en sommant sur n. . défini par Ti = min {n ≥ 1 : Xn = i}. (7. ne l’est que dans un sens faible puisque la durée moyenne de la période d’activité est infinie. en montrant que Pi (T0 < ∞) = Pi (Ti−1 < ∞) × Pi−1 (T0 < ∞). Nous établissons (7. X2 .3. Ti−1 = n si et seulement si n = min {k ≥ 1 : i + (Y1 − 1) + .7).1.3. + Yk = k − 1} . . .

(7.7).3. il suffit donc de montrer que g(z). nous avons EP P1 (T0 ≤ nO+L1) = q(0) + X Pi (T0 ≤ n) q(i) . v ≤ z si z est un point fixe positif de g. Le résultat désiré en découle : v = P1 (T0 < ∞) = lim P1 (T0 ≤ n) = lim vn ≤ z .7). (7. de façon analogue à (7.3. 1]. U E NIQ x≥1 H et la relation v = g(v) est démontrée. C O LYTE et. admet z = 1 pour unique solution si ρ ≤ 1. En utilisant (7.3.3 – Files d’attente 199 ∀i ≥ 2. et deux solutions z 0 < 1.3.6) se transforme en X v = q(0) + v i q(i). . i≥1 Mais v0 = 0 ≤ z et par un argument de récurrence. × P1 (T0 ≤ n) .7. Pour cela nous écrivons ∞ X Pi (T0 < ∞) = Pi (T0 < ∞ . ÉC i≥1 Il en résulte que vn = P1 (T0 ≤ n) vérifie X vn+1 ≤ q(0) + vni q(i) = g(vn ) . nous avons Pi (T0 ≤ n) ≤ Pi (Ti−1 ≤ n) × Pi−1 (Ti−2 ≤ n) × . z 00 = 1 sinon. n→∞ n→∞  . T E C (ii) Nous avons vu dans l’étude du P LY Oprocessus de branchement que l’équation z = L E É C OPour compléter la preuve. (7.3. De façon analogue à (7. nous en déduisons que vn ≤ g(z) = z puisque g est croissante sur [0.3.8).6).8) et le fait que P1 (T0 < ∞) = v.6). Ti−1 = `) `=1 X∞ = Pi (T0 < ∞ | Ti−1 = `) Pi (Ti−1 = `) `=1 ∞ UE X = Pi−1 (T0 < ∞) Pi (Ti−1 = `) IQ HN `=1 ∞ TEC ∞)LY Pi (Ti−1 = `) = Pi−1 (T0 < ∞) Pi (Ti−1 < ∞) = Pi−1 (T0 < O X P LE ÉCO `=1 par un argument analogue à celui utilisé dans (7. z ∈ [0. 1]. .3. IQ UE HN Pi (Ti−1 ≤ n) = P1 (T0 ≤ n) .

4. UE H NIQ tion de récurrence L Y T E Cest l’évolution décrite par une équa- L’analogue déterministe d’une telle suite aléatoire O = f (x ) Pxn+1 O L E n É C homogène en temps. n∈N (7. . in . Les variables aléatoires Xn : Ω → E définies O L Xn+1P= f (Xn . j: f (in .4.4 Suites récurrentes aléatoires discrètes Ce paragraphe unifie les modèles étudiés précédemment. . i0 .3) Or les variables X0 . . Xn = inT)E (7.4. Cette propriété s’écrit E en terme de probabilités conditionnelles NIQU C H P(Xn+1 = i | X0 = i0 . .j)=i (7.4. . Xn = in . . E et f : E × F → E une I Q U indépendantes et de même fonction. i ∈ E. . Xn ) jusqu’au temps n. 7. X1 = i1 . .1 Soient E. la loi de l’état futur Xn+1 ne dépend du passé (X1 .2) est appelée une chaîne de Markov. Soit Un : Ω → F une suite de variablesNaléatoires YT E C Hpar récurrence par loi.1) entraîne que X P(X0 = i0 .200 Chapitre 7 – Modèles dynamiques aléatoires 7. Cette dépendance au premier ordre se traduit dans le cas aléatoire par la propriété de Markov.2) O LY = P(Xn+1 = i | Xn = in ). . . . .4.1) É C forment une suite appelée suite récurrente aléatoire. Un+1 ) OLE . Xn+1 = i) = P(X0 = i0 . La valeur initiale X0 sera choisie déterministe ou aléatoire et indépendante de (Un . que par l’état présent Xn .4. . . .4. . . Xn = in . n ≥ 1). pour tous n ∈ N. F deux espaces dénombrables. La définition (7. . .4. .3) est égal à . . Un+1 = j) . .3 Une suite (Xn )n∈N vérifiant la propriété (7. Xn ne dépendent que de X0 .4. Proposition 7. . U0 . .4. L E P ÉC O Définition 7. Preuve. .1 Probabilités de transition Définition 7. . elles sont indé- pendantes de Un+1 et le terme général du second membre de (7. Un .2 Pour tout n. .

.4. Xn = in ) = P(Un+1 = j) . .4 La connaissance de la loi Q(i.EXn−1 = in−1 | X0 = i0 . .H = P(X0 = i0 . X1 = i1 . j) suffit à caractériser la loi dePlaOchaîne. Xn−1 = in−1 ) P(X0 = i0 . . . si X0 est de loi p(·). Proposition 7. . Xn−1 = in−1 )O LY P . .3) sur i0 . . . . Xn ) que par l’état présent Xn . nous en déduisons X P(Xn+1 = i | X0 = i0 . . nous obtenons par le même argument que le membre de droite de (7.  E N IQU Plus généralement.7. . . . X1 = i1 . Preuve. d’un vecteur Un+1 et sa position Xn à l’instant n est donnée par Xn+1 = Xn + Un+1 . Xn = in ) = p(i0 ) Q(i0 . . j) = P(Xn+1 = j | Xn = i) (7. i2 ) . . . .j)=i En sommant dans (7.4 – Suites récurrentes aléatoires discrètes 201 P(X0 = i0 . Promenade aléatoire : une particule se déplace sur le réseau Zd en progressant au hasard à chaque instant n. On les appelle probabilités de transition. . alors ÉC OLE P(X0 = i0 . . . . . Xn = in | X0 = i0C TE . . . Nous avons E P(X0 = i0 . in ) P(X0 = i0 . i1 ) Q(i1 . . . . Xn−2 = in−2 ) . (7.5) décrivent la loi d’évolution de la suite entre deux temps successifs. . . Xn = in ) N IQU . . . Q(in−1 . . Les probabilités L E É C O Q(i.O C × P(X0 = i0 . U E H NIQ EdeCX0 et des probabilités de transition LY T Plus précisément. .4. .ÉXn−2 = in−2 ). .L = Q(in−1 . . .  Exemples : 1.4) est aussi égal à P(Xn+1 = i | Xn = in ). in ) . Nous obtenons le résultat en itérant le raisonnement.4. Par définition des probabilités conditionnelles. kE≥C0) Hd’une chaîne de Markov ne dépend de Y T POL l’histoire (X0 . . Xn = in ) P(Un+1 = j).4) j: f (in . . .4. tout le futur (Xn+k . X1 = i1 . . .4. in−1 . . . .

La clientèle N effectue entre les instants n et n + 1.1). Pour le processus de branchement. = (b − Un+1 )+ sinon . Sous ces hypothèses. étant entendu que toute demande Un n’est satisfaite que dans les limites du stock. n ∈ N ) est une chaîne de Markov de la forme (7.3.1). ZN +1 = Z P N N N i=1 Yi .4.a. entière positive Xn . à la fréquence des réapprovisionnements nécessaires (événements {Xn ≤ a}) et à celle des ruptures de stock (événements {Xn = 0}). Un modèle d’inventaire : Le stock d’un entrepôt est représenté n ∈ N par une v. avec Une autre variante réflexion au bord. E à chaque instant I Q U des demandes Un+1 4. on a Xn+1 = |Xn + Un+1 | .2). ce qui se fait instantanément. avec D := N ⊂ Z. Nous pouvons nous intéresser au comportement asymptotique (n → ∞) de la loi de Xn . Q(i. où Yi est le nombre d’enfants issu du i-ème individu de la N -ième génération. La suite (Xn . et Q est donnée par 3. . nous pouvons écrire que Xn+1 = (Xn − Un+1 )+ si Xn > a . Dans le modèle de file d’attente (7. (n ∈ N) que Tl’on H E Csuppose être des variables aléa- L Y E Pà O toires entières positives indépendantes et de même loi (q(i). U E 2.1). à ré- ÉCO n approvisionner au niveau b (0 < a < b).202 Chapitre 7 – Modèles dynamiques aléatoires avec les Un indépendants et de même loi q(·). i ∈ N). Dans ce cas.4. Dans ce cas. est bien de la forme (7. Par exemple en dimension d = 1. La politique L de réapprovisionnement consiste. j) = P(Xn+1 = j | Xn = i) = q(j − i) Une variante intéressante est de supposer que la particule est absorbée lorsqu’elle sort d’un domaine D ⊂ Zd .4. chaque instant pour lequel Xn ≤ a.1). P particule finit-elle par êtreO L absorbée ? Quand et où est-elle absorbée ? L E É C O est de supposer que la particule est confinée dans D. UXEn 1Xn ∈D Xn+1 = (Xn + Un+1 ) 1Xn ∈D + N IQ / ECH Y T Les questions importantes sont alors : la ce qui est encore de la forme (7. on aH NIQ L Y T E C+ P O= (Xn − 1) + Yn+1 Xn+1 E O L C É (7.3.

si X est indépendant de U et de loi π.7. i∈E Preuve.1 est “X a même loi que f (X.4.7 Modèle de diffusion d’Ehrenfest. Cette équation ne porte pas sur la variable X. riantes. j) π(i) i∈E d’après (7. onYchercheraECH d’éventuelles probabilités inva- O L de probabilités de transition.5 La probabilité π sur E estHdite T E C O LY ´ suite récurrente aléatoire si P É C O L E de U ⇒ f (X. si X0 est de loi π. j) = π(j) . E IQU N probabilité invariante pour la Définition 7. U )” où l’on suppose que X et U sont indépendantes. la iième composante valant 0 et 1 selon que la iième particule est dans .6 LaÉprobabilité π sur E est invariante si et seulement si : X π(i) Q(i.4 – Suites récurrentes aléatoires discrètes 203 7.4. L’équation analogue pour les suites aléatoires de la définition 7. Ceci montre la proposition.4. U est une variable aléatoire de même loi que U1 . U0 ) est de loi π et par conséquent Xn a pour loi la loi π. En effet. En particulier elle décrit un phénomène stable.5). Dans deux enceintes séparées par une paroi poreuse sont réparties N molécules de gaz.4.4. ∀j ∈ E .4) et (7. mais sur sa loi. Voilà un premier critère enPterme LE CO Proposition 7. XI Q X HN P(f (X. U ) = j) = i) EC LY T i∈E P OP(f (i. alors X1 = f (X0 . E =U P(f (i. Ici. U ) = j) π(i) X = O L E ÉC i∈E X = Q(i. La suite se trouve alors dans un état stationnaire. (i) Vision microscopique : l’état du système est représenté comme un vecteur dans {0.4.2 Stabilité L’étude de la stabilité des suites récurrentes déterministes xn+1 = f (xn ) passe par l’étude des points fixes de f (les points x tels que x = f (x)). UE IQ N T Pour étudier la stabilité d’une suite. 1}N .  Exemple 7. U ) suit la loi π . U ) = j . À chaque unité de temps une molécule choisie au hasard change d’enceinte. et des cycles limites. X indépendante X de loi π Dans ce cas.4. que l’on appelle loi invariante.

que π(j) = nj (1/2)CNO . .1.1. L’espace d’état est l’espace fini I Q UEE = {0.5). . On dé- finit les événements TE C P O LY | SLn E Am = {∃nO = 0 . . Nous trouvons aisément LE Q(i. m 3)) Montrer que A = ∪ Am . i + 1) = 1 − .5 Exercices sur le chapitre 7 E I SnNdonnée EXERCICE 7. Le système effectue alors une pro- menade aléatoire sur le “ cube ” {0. et A = {∃n | Sn = 0} où la marche visite 0. j) = π(j) Q(i. Si < m ∀i < n} ÉC où la marche visite 0 avant m.1). N }. le système saute d’un sommet du cube à l’un des N sommets voisins. i − 1) = n n et Q(i.5.6. N }. 2) Montrer que Am ⊂ Am+1 et calculer la probabilité P(∪Am ). j) = 0 sinon. 2. Qu’en déduire ? m . 1}N dite “au plus proche voisin” : à chaque instant. Plutôt que de C chercher T Erapide à l’aide de la proposition 7. 1/2).1).4) ou (7. É 7. Le mécanisme d’évolution se traduit ainsi : introduisons une suite de variables aléatoires (Un . .8 (ii). et P de chercher les solutions de π(i)O L j). . Q(i. . il estYplus d’utiliser l’exercice 7. (ii) Vision macroscopique : les particules sont indistinguables. .1 On considère la marche aléatoireH QU par (7. . 1) Montrer que la probabilité P(Am ) est donnée par (7. Le système est alors représenté à l’instant n par le nombre Xn de particules dans l’enceinte de gauche.204 Chapitre 7 – Modèles dynamiques aléatoires l’enceinte de droite ou dans celle de gauche. qui est de la forme i i Q(i. Ses probabilités de transition sont pour i ∈ {0. (m ≥ k + 1).4. selon que p 6= 1/2 ou p = 1/2. n ≥ 1) indépendantes de loi uniforme sur {1.5. Nous E IQU posons Xn + 1H N ( si Un+1 > Xn Xn+1 = T E C PO LY Xn − 1 si Un+1 ≤ Xn L E É C O(7. 1}N est une probabilité invariante. c’est-à-dire que π est la loi binomiale B(N. .1. La probabilité uniforme sur {0. N }.4. et aucune H N les probabilités invariantes instabilité ne peut se produire.

Montrer. y. où E(X) et V ar(X) désignent respectivement les espérance et variance communes aux Xi .0. en utilisant un développement limité de É 1 g au voisinage de 1. .ENous voulons montrer que N IQU P(Zn 6= 0) ∼n→∞ T E CH2 O Y L nE(Y (Y − 1)) . avec par convention S0 = (0. si N suit une loi géométrique sur N d’espérance a avec a > 1 Y (P(N = k) = a1 (1 − a1 )k ). . et Sn = nj=1 ξj .3 Si N. 0. 1[. P(N(0. P 3) Montrer que 1 − gn (x) ∼n→∞ 2 n(m2 −1) . P n≥0 1-a) Calculer P(Sn = (0. que pour x ∈ [0. E(SN ) = E(N )E(X) . (Yn )n .5 Soient (X dantes équidistribuées. des suites de variables indépen- É CnO EXERCICE 7. (Zn )n . Yn . IQ UE C HN En déduire le résultat.0) ) < +∞.5. 1 1 2) Soit gn (x) = g ◦ . z) ∈ Z3 et Na = 1Sn =a .5 – Exercices sur le chapitre 7 205 EXERCICE 7. Zn ). (Et donc en conséquence. P Soit a = (x.1 P que pour des variables aléatoires Xi et N indépendantes et de carré intégrable et SN = Ni=1 Xi . Montrer que 1−gn (x) = 1−x + na + ∆n (x).5.4 Nous considérons un processus de Galton-Watson (Zn )n cri- tique : sa loi de reproduction est d’espérance E(Y ) = 1. X2 .5.2. ÉCO EXERCICE 7. Comment s’écrivent ces formules lorsque N est déterministe ? E EXERCICE 7.7. avec limx→1 Γ(x) = 0. ◦ g(x). . 1) On note ξn = (Xn . n fois. 1) Notons m2 = E(Y 2 ) etC =L aO EP m2 −1 2 . . 1−g(x) 1 = 1−x +a+Γ(x). prenant les valeurs +1 et −1 avec probabilité 21 .2 Déduire de la proposition 7.5.) . Nous supposons que Y est de carré intégrable et nous notons g sa fonction génératrice.0) < +∞) = 1. 0). où ∆n (x) = n−1 j=0 Γ(gj (x)). montrer E ONL= PNi=1 Xi suit une loi géométrique d’espérance queP S L ab. 0. et si les X iTsuivent pérance b (b > 1). V ar(SN ) = V ar(N )(E(X))2 + E(N )V ar(X) . . 1-b) Montrer que E(N(0. sont des variables N I Q U aléatoires strictement posi- E C H la même loi géométrique sur N d’es- tives indépendantes. X1 .0. 0)). O LYTE E P )nL.

EXERCICE 7. En déduire que |Sn | converge vers +∞ presque-sûrement. montrer E(Zn Zm ) = ρn−m E(Zm 2 ). et on O LY définit ρ = E(Z1 ). E NI QU E C H EXERCICE 7. Donner la valeur de l’espérance et de la variance de W . en fonction de 3) Exprimer la fonction génératrice du couple Gm et Gn−m . 1[ par P(Y = k) = pk (1 − p). Zn 5) On suppose que ρ > 1. 2) Calculer E(Zn ) et V ar(Zn ) en fonction de ρ et de σ 2 . (i. Zm ). OnTsuppose que Z1 est de carré intégrable. U E NIQ Y T E C H(Zn . σ 2 = V ar(ZP1 ). la suite U E Q∞. pour toute norme |.6 Soit un processus de branchement (Zn ) tel que Z0 = 1 et soit φ(x) la fonction génératrice de Z1 . Comparer avec la marche aléatoire simple sur Z. 1) Rappeler la É formule OLE C donnant l’expression de la fonction génératrice Gn de Zn en fonction de φ. de loi géométrique définie pour p ∈]0. OL P O LE 4) Si É Cque n > m. Montrer que pour p > 0.5.7 1) On considère une variable aléatoire Y à valeurs dans N. Montrer que le nombre de visites de la marche aléatoire Sn dans Br est presque-sûrement fini. n > m. On considère la suite (Wn )n définie par Wn = ρn . E((Wm+p − Wm )2 ) converge vers 0 quand mI→ (∗) HN TEC LY(*) converge en moyenne quadratique : On acceptera que toute suite de Cauchy auOsens 2E P il existe donc une variable W ∈ LL telle que Wn converge en moyenne quadratique CWO)2 ) → 0).e. 2) Soit r > 0 et Br = {x ∈ Z3 . |x| ≤ r}.206 Chapitre 7 – Modèles dynamiques aléatoires 1-c) Reprendre le calcul pour a quelconque. vers W .| sur R3 . telle que E(WnÉ− Montrer que X E((Wn − W )2 ) < ∞. . n En déduire que (Wn )n converge presque-sûrement vers W .5.

k ≥ 0. . Montrer que Z1 suit une loi géométrique dont on donnera le paramètre. 1 − px avec p 6= 12 . P O ρ n+1 − 1 − ρx(ρn − 1) O LE ÉC p où l’on a posé ρ = 1−p . On suppose que 1−p E(xZ1 ) = .7. I Q U ∗ x(1 − ρ) lim E(xZn ) = 1 − ρx H N n→∞ C O LYTE 4 . E C Chaque individu vivant donne naissance à un O L Y Tdenombre aléatoire de descendants dont E P la loi est celle de Z1 . 4-a) Soit (Ẑn )n une famille de variables aléatoires indépendantes telles que. + Ẑn . 4-b) Montrer que E = L(x). pour tout x ∈ [0. n Én→∞ Qu’en conclure ? 5) On suppose que la loi de Z1 est donnée par P(Z1 = k) = 2−(k+1) . De plus. pour tout n. n + 1 − nx . Que vaut l’espérance E(Y ) ? 2) Soit (Zn )n un processus de branchement tel que Z0 = 1. Montrer par récurrence que Gn (x) = E(xZn ) vérifie dans ce cas que n − (n − 1)x Gn (x) = . Ẑn a même loi que Zn . à chaque instant naissance. .c) Montrer que P L EZ C OE(x lim | Zn > 0) = L(x). Que vaut dans ce cas la proba- bilité d’extinction de Zn ? I Q UE 4) Soit à présent (Zn∗ )n un nouveau processusHde Nbranchement tel que Z0∗ = 1. Montrer que Zn∗ a même loi que 1 + Ẑ1 + . on augmente la population L ÉCO d’un nouvel individu (modèle de processus de branchement avec immigration). 3) On suppose à partir de maintenant que p < 12 . 1[.5 – Exercices sur le chapitre 7 207 Calculer la fonction génératrice de Y . E IQU Montrer par récurrence sur n que ρn −E −H 1C N ρx(ρn−1 − 1) E(xZ ) = Y L n T .

car sa loi ne change pas lorsque l’on inverse le sens du temps. j ∈ E . j) les noyaux de transition d’une chaîne de Markov sur E. Montrer que π est une probabilité L (ii) É O initial X0 est de loi π. j) = π(j) Q(j. Le processus est alors appelé réversible. Soit E un espace dénombrable.8 Réversibilité. U E NIQ TE CH LY PO LE ÉCO IQ UE C HN O LYTE P LE ÉCO . Soit Q(i. π(i) Q(i.208 Chapitre 7 – Modèles dynamiques aléatoires En déduire que Zn Å ã lim E | Zn > 0 = 1. (i) E P O L invariante pour la chaîne.5. X0 ). X1 ) Montrer que siCl’état a même loi que (X1 . alors (X0 . et π une probabilité sur E telle que E N IQU Y T E C Hi) ∀i. n→∞ n Qu’en conclure ? EXERCICE 7.

1  n −(365+ 2 −n) e−n 1 − = 0. P40 = 0. 693. L CO Pn = 1 − P(il n’yÉa pas de personnes ayant leur anniversaire le même jour) 365 × 364 × .1 Corrigés des exercices du chapitre I Q UE 2 N T E CH Y P O L Alors Exercice 2. 997. 016 . P22 = 0. P16 = 0. Exercice 2. Avec une égalité. 284 .1) 209 . 365 En passant au logarithme et en ne gardant que les termes prépondérants. (365)n Le calcul donne : E IQU N . P(A1 ∪ A2 ) = P(A1 ) + P(A2 ) − P(A1 ∩ A2 ).Chapitre 8 IQ UE C HN O LYTE Corrections CO L E des exercices P É 8. H891 T E C365! P4 = 0. P64 = 0. 5.1 : 1) Soit Pn cetteEprobabilité. Elle est triviale pour n = 1.6. 476 . (8. × (365 − n + 1) = 1− . d’où n = 23. nous obte- n2 −n nons 2(365) = 0.1. . LY O que (365−n)!(365) 2) Nous cherchons le plus petit entier nPtel ≤ 12 .6.2 : Cette formule se montre par récurrence sur n. Remarquons que pour n = 2. L E n ÉCO la formule de Stirling donne alors qu’approximativement. .

. Posons B1 = A1 ∪ . Montrons-la pour n. Ainsi. 4) dn = n! P(E c ). 0 ≤ pn ≤ 1 et que n∈N∗ pn = 1. ∪ (An−1 ∩ An )).<ik ≤n n Ç å n X k−1 n (n − k)! X (−1)k−1 = (−1) = . . De même.  Exercice 2. A1 ∪ · · · ∪ An . ∪ An−1 et B2 = An . Remarquons que quand n tend vers l’infini.3 : E Q U parmi les n! possibilités. . 368 quand n tend vers l’infini.. O LYTE 2) Numérotons de 1 à n les O E P et numérotons par les mêmes numéros les boîtes qui Llettres ÉC sont censées leur correspondre. On peut donc appliquer É On L E CX X P(E) = (−1)k−1 P(Ai1 ∩ . En appliquant (8. pour deux numéros quelconques i1 et i2 . on aura P(Ai1 ∩ Ai2 ) = n! . .1. Ai sera réalisé si la remise de la lettre i est fixée à la bonne valeur.. k! k=0 qui tend donc vers e−1 = 0. Exercice 2. nous obtenons immédiatement le résultat.4 : Il est immédiat de montrer que pour tout n ∈ N∗ .6. p1 = P(A1 ) + P(A2 ) et p2 = P(A1 ∩ A2 ). Appelons Ai l’événement “La lettre numéro i arrive dans la boîte numéro i”. I Q U E (n−2)! N L’événement E "une lettre au moins Y arrive CH T E à la bonne adresse" est égal à E = L P O la formule de Poincaré. indépendamment de la manière aléatoire dont les n − 1 autres lettres sont distribuées. cette quantité tend N On se convaincra que pour des valeurs modérées EdeCnH(n=7) on est très proche de cette limite. La 1) Il y a une seule possibilité de bonne remise de Ilettres 1 HN probabilité de bonne répartition est donc n!C. LY T PO OLE É C lettre n’arrive à destination vaut alors 3) La probabilité pour qu’aucune n X (−1)k P(E c ) = 1 − P(E) = .1) à B1 et B2 et la formule de récurrence pour calculer P(B1 ) et P((A1 ∩ An ) ∪ .6.. . k n! k! k=1 k=1 E I Q Uvers 1 − e−1 ' 0. ∩ Aik ) k=1 1≤i1 <.632. Supposons que la formule soit vraie pour toute réunion de n − 1 événements. P . Nous en déduisons que P(Ai ) = (n−1)! n! .210 Chapitre 8 – Corrections des exercices La formule est donc vérifiée puisque dans ce cas.

2. (F. C). Soit E l’événement “le présentateur annonce au joueur qu’elle n’est pas derrière la porte B".F) : 13 .8. Une configuration possible sur les 3 configurations (F.G) : 12 .1 – Corrigés des exercices du chapitre 2 211 Exercice 2. P(4ème fils H|3 fils NH) = P(4ème fils H|3 fils H. Nous allons utiliser la formule de Bayes. É C 2 2 par indépendance des naissances. Exercice 2. E Q Ule contraire. B.G). (G. P(Aa) = 2p q . C) l’événement “la Ferrari est derrière la porte A" (resp. 2 2 2LY 2 O ( 12L EP CO 3 1 2× ) 1 d’où P(Reine H|3 fils NH) =É 9 = 24 9 = 19 . B. par indépen- dance P(AA) = p2 . (F.F).8 : Notons A (resp. 2 I QU H N sera alors La proportion d’allèle A dans la deuxième génération TEC Y P(AA) + P(A| individu de génotype Aa) P(Aa) O LAA) P(A) = P(A| individu de génotype P = p2 + 2pq =Cp.F). Reine H) P(Reine H|3 fils NH) = 1 1 1 2 × 9 = 18 . 3 .6. Exercice 2.7 : Notons H le fait d’être hémophile et INH N que Y T ECH 1 E PO L Å ã3 1 P(Reine H) = O L . 3.6. Nous avons P( 3 fils NH ) = P( 3 fils NH | Reine H ) P( Reine H ) E NH ) IQU + P(3 fils NH| Reine NH ) P( Reine Å ã3 1 1 1 9 CH N = × + = T4E .F) sur 4 configurations : 14 .5 : Notons F et G les événements "fille" ou "garçon". P(aa) E= q . Nous cherchons à calculer P(Reine H|3 fils NH).6.6. Une configuration possible sur les 2 configurations (F. Nous savons Exercice 2. Une configuration possible (F. P(3 fils NH|Reine H) = .6 : Les probabilités des différents génotypes valent alors.O LE 2 É et de même la proportion d’allèle a sera q. 24 24 De plus. 1. On a 1 P(A) = P(B) = P(C) = .

P(E) 3 Il faut donc que le joueur révise son choix. 1 P(E|A) = . alors que si elle est derrière C. PO L P(E) P(E) 3 De même O L E ÉC P(C|E) = P(E|C)P(C) 2 = . P(E|C) = 1 2 En effet. 42.6.9 : 1) Y T ECH PO L =E P(E2 ∩ F2 ) P(E2 )P(F2 |E2 ) P(E2 |F2 )L ÉCO = . P(F2 ) P(F2 ) +∞ Ç å X n 1 P(F2 ) = P(F2 |En )P(En ) et P(F2 |En ) = . X P(F2 ) = pn = 2 2n 4Y 4 POL n=2 n=2 E L de la série entière Pn xn . le présentateur a le choix entre B et C. Ainsi. Ç å 1 4 1 3(1 − 2a) P(G2 ∩ F2 ) = P(E4 )P(G2 ∩ F2 |E4 ) = (1 − 2a) 3 = . 2 3 3 2 On en déduit que E N IQU P(A ∩ E) C H 1 Y T E= P(E|A)P(A) P(A|E) = = . P(E|B) = 0. 1 1 1 1 P(E) = P(E|A)P(A) + P(E|B)P(B) + P(E|C)P(C) = × + = .212 Chapitre 8 – Corrections des exercices Par ailleurs. 64 27 P(G2 ∩F2 ) 2) On calcule P(G2 |F2 ) = P(F2 ) . si la voiture est derrière A. et 1 p2 4 27 P(E2 |F2 ) = 8(1−2a) = ' 0. n=2 2 2n On a P(F2 |E0 ) = P(F2 |E1 ) = 0. il n’a pas le choix puisqu’il ne peut pas parler de A. 2 2 24 64 . E +∞ Ç å n 1 (1 − 2a) XH N +∞ IQU 1 2 TE C n(n − 1) n−2 . ÉCO Calcul de la somme : dérivée seconde 8(1−2a) On obtient P(F2 ) = 27 . U E NIQ Exercice 2.

. . Nous avons alors  2k  (2p)k P(Ack ) ≤ P ∀i Bk. {2 + 2k}. nous aurons 1 P(pqN) = = P(pN) P(qN). i + k donnent tous Face. . 2k + k {2k . et donc par le lemme de Borel- Cantelli. et de même pour toute suite finie.i est réalisé . . La réalisation de Ak entraîne l’existence d’un nombre i ∈ {2k .6.5.  E P(Ak ) ≥ 1 − puisque pk → 0 quand k tend vers l’infini. .C H N (2p)k Ce− YTE k k P O L Si p > 1 (2p) 2. i=2k P O L OL Donc. par le lemme de Borel-Cantelli 2. . Notons Bk. nous avons que P(lim supp premier pN) = 1. que P(lim supk Ak ) = 0. . . Par ailleurs. . . P(lim supk Ak ) sera égale à 0 ou 1 suivant que la série de terme général P(Ak ) converge ou diverge.i ) = (2C k H YTE P(Ak ) ≤ − k + 1) p ≤ 2 p .10 : Remarquons que les événements aléatoires Ak sont indépendants.i c est réalisé = (1 − pk ) k ∼k→∞ e− k . . si p < 21 . {2k . . É CO k Or les Bk. pour k assezUgrand.14. nous en E déduisons que la série P P(Ak ) converge. 512 Exercice 2. . . et par le lemme É C de Borel-Cantelli. i + 1. Découpons E k.1 – Corrigés des exercices du chapitre 2 213 81 P(G2 |F2 ) = ' 0. . . E → ∞ et donc P(Ak ) > L 1 ÉCO k 2 Exercice 2. et en particulier que l’ensemble des nombres entiers multiples d’une infinité de nombres premiers serait non vide. . . . la série diverge.i cet événement. . 2k+1 − 1} en à peu près 2k morceaux de longueur Q U I “tous les lancers du ième HN k k k}. . . {2 + k + 1. Bk. . nous obtenons E 2k+1 X−k N I Q Uk k k P(Ak. ce qui est faux. . Ce qui voudrait dire que P- presque sûrement tout nombre entier serait multiple d’une infinité de nombres pre- miers. Alors E C L ñY T P O Ç ô å 2k P(Ak ) ≥ P ∃i L ∈E{1.i ne concernent pas les mêmes lancers et sont donc indépendants. En appelant Ak. 158. pq Les P événements pN et qN sont donc indépendants. . k Nous allons maintenant montrer que si p ≥ 12 . . .6. . IQ pour une constante arbitraire proche de 1. Ainsi.11 : Remarquons que si p et q sont des nombres premiers.i l’événement morceau donnent Face”.8. si cette probabilité existe. Or p premier P(pN) = +∞ (série harmonique). . Ainsi. 2k+1 − k} tel que les lancers i. . alors pN∩qN = pqN.

k∈N Y T E Ck∈N p=0 p=0 L P O de Fubini pour les séries doubles de termes positifs. k 1 et G0Y (1) = E(Y ). X GY (s) = P(N = k) (GX (s))k = GN (GX (s)). P De même.4 : a) Nous savons que S suit la loi de Poisson de paramètre λ+µ.7.214 Chapitre 8 – Corrections des exercices 8. nous obtenons V ar(Y ) = V ar(N ) (E(X))2 + E(N ) V ar(X) = σ 2 µ2 + m τ 2 .7. pour s ∈ [0. n) λ µ Å ãÅ X|S=n n pk = = pS (n) k λ+µ λ+µ . nous obtenons IQ U E C HN T O LY E(Y ) = E(N ) E(X) = m µ. en dérivant de nouveau É C O LlaE fonction génératrice. Nous avons Exercice Y = N i=1 Xi . nous pouvons en déduire la variance de Y . Exercice 3. . . Nous en déduisons que 1. Nous en déduisons que E(X) = e − 1 et V ar(X) = 3 e − e2 .  PN  X  PN XU E Q  GY (s) = E(sY ) = E s i=1 Xi = I E s i=1 i | N = k N P(N = k) k CH T E LY X X1 Xk .7. . GN (1) = E(N ). Tous calculs faits. E sO   = E s P(N = k). de loi de Poisson de paramètres λ et µ.1 : Pour k ≥ 1.3 : Soit Xi le nombre de blessés dans le i-ème accident.2 Corrigés des exercices du chapitre 3 k Exercice 3. P k O LE É C par indépendance des variables aléatoires N. P ∞ U E ∞ ! ! I Q X X X X E(X) = E 1k<X = pP N1 H k<X = p = p P(X = p).2 : Nous pouvons écrire : X = k∈N 1k<X .S (k. P(X = k) = (k+1)! . comme somme de variables aléatoires indépendantes. Exercice 3. en dérivant cette formule en 1 et en utilisant que GX (1) = E 0 0 GX (1) = E(X). Ainsi.7. X . . 1[. b) La loi conditionnelle de X sachant S = n (n ≥ 0) est par définition ãk Å ãn−k pX. Xk . Ainsi. . Ainsi. où nous avons appliqué le théorème L E ÉCO P 3.

5).96 (0.Q U Eune C’est loi de Poisson de N ECH k=n n! paramètre 1. 96. . Y PO LE Nous observons que que ÉCO P(X = n.8. Les v. 96)m E . et E(X|Z) = 0.4)).n = k! . Cette loi est la loi binomiale B n. λ+µ IQ UE C HN O LYTE P E lois de Z.n = HN TEC n C’est une loi de Poisson de paramètre L 0. 52 k. Y = m) = P(Z = n + m .5. P(Z = k) n La loi conditionnelle de X sachant Z = k est donc une loi binomiale B(k. Loi de Y = Z − X : e−0.04)n I. I Qm!U X P(Y = m) = P(Z = X + m) = pn+m. ou encore λ+µ λ E(X | S) = S . 04. X = n). p) (voir (3.6. 52)n (0.2 – Corrigés des exercices du chapitre 3 215 X|S=n  λ  pour k ∈ [0.n = e−1. 48)k−n .a. X = n) = P(X = n) P(Y = m). Y . Son espérance vaut donc E(X|Z = k) = 0. Z = k) k P(X = n|Z = k) = = (0. 0.5 : Calculons les L ÉCO Pk e−2 2k Loi de Z : P(Z = k) = n=0 pk. 52). Loi conditionnelle de X sachant Z = k : pour tout 0 ≤ n ≤ k. n] entier. O L YT P Z et X ne sont pas indépendantes puisque LE Nous remarquons immédiatement que C O P(ZÉ= k) P(X = n) 6= P(Z = k. mais il est plus rapide d’uti- liser la valeur np de l’espérance d’une variable de loi B(n. X et Y sont indépendantes.7. et pk = 0 sinon. et X : Exercice 3. λ E(X | S = n) = n . nous avons Ç å P(X = n.04 (1. Loi de X : P(X = n) = P∞ pk. . λ+µ On peut alors calculer E(X | S = n) en utilisant (3. Ainsi. 52 Z. C’est une loi de Poisson de paramètre 2.

I Q HN par définition. Xn−1 = 0) = (1 − p)p + p(1 − p) = 2p(1 − p). Xn−1 = 0.O P p)n−1 . T = n) IQ HN n≥2 XC . dès que les indices k et n sont distants de plus d’une unité. Xn−1 = 1. . 2 Cette condition est suffisante pour avoir l’indépendance de la suite (An )n . Xn+1 = 1) Q P(X 2 2 = p (1 − p) + p(1 − p) = p(1H− p).7. premier avec p}.7 : 1) Remarquons que {Up (x) = n} = {x = pn y.y∧p=1 y.L 2-a) For n ≥ 2. Puisque nous avons également P((XT .y∧p=1 p2n y 2 p2n y.E X = P(X1 = . TEC =YXn−1 . Xn+1 = 1) Y n≥2 E POL n = L (1 − p)p É C O n≥2 X = p2 . P(T = n) = P(X1 = . 1). Xn = 0. y ∈ N∗ .7. T n−1 = 1. car les variables aléatoires Xn le sont. y. LE ÉCO 2-b) P(T < ∞) = P(∪n≥2 {T = n}) = (1 − p) pn + p n≥1 (1 − p)n = 1. Ainsi. Xn−1 = 1) + P(Xn = 1. Xn−1 6= Xn ) = pn−1 (1 − p) + p(1 − . XT +1 ) = (0. P P n≥1 3) X UE P((XT . XT +1 ) = (1.6 : 1) P(Xn 6= Xn−1 ) = P(Xn = 0. Par ailleurs. EC O LYT P Ainsi LE É CO 1 P(An ∩ An−1 ) = P(A ) P(A n n−1 ) ⇐⇒ p(1 − p) = 4p2 (1 − p)2 ⇐⇒ p = .216 Chapitre 8 – Corrections des exercices Exercice 3. 1)) = P((Xn . En = 1. ces deux quantités sont égales si et seulement si p = 12 . Exercice 3. . Xn+1 = 0) N I+ U P(An ∩ An−1 ) = P(Xn = 0. X X c c X 1 Q(Up = n) = Q(pn y) = = . Xn+1 ) = (0. En effet. 0)) = (1 − p)2 . AkU etEAn sont indépendants.y∧p=1 y2 .

. p2 −1 1 4) Le calcul donne G(x) = p2 −x . . L’interprétation des deux propriétés précédentes est la suivante : l’entropie quantifie l’incertitude sur l’état p. y ∈ N∗ }) = = car c = 1. . x Q =U pn1E . Dans le cas extrême où p est une mesure de Dirac. et cKp = 1 − p12 . . . pnk k y. d’où ∞ c P 1 y. . {Upk ≥ nk } sont indépendants.P Elle est nécessaire car φ ≥ 0. . pk k LE Ainsi É Op ≥ les événementsC{U 1 n1 }.7. Elle est maximale quand tous les états ont la même probabilité n1 .y∧p=1 y 2 = 1. . . .2 – Corrigés des exercices du chapitre 3 217 P∞ Mais Q(U = n) = 1. l’entropie est nulle. . 1-b) La condition suffisante P est immédiate. . . . y ∈ N∗ ) I 1 N T=E C H2n 1 2n . Finalement. . Q(Up1 ≥ n1 .y∧p=1 y 2 ä vérifie cKp 1−1 1 = 1. n i=1 E C n YT n i=1   POL 1 E Donc H(p) = i=1 φ(pi ) ≤ n φO L Pn   É C n = ln n. µ (ω) β→+∞ 2-b) On a µββ(ω0 ) −→ 0 si U (ω) > U (ω 0 ). PO LY p1 1 . et H(p) = i φ(pi ) avec i pi = 1. U (ω) = minΩ U }. Upk ≥ nk ) = Q(x. pour x ∈ [0. µβ devient une probabilité uniforme sur l’ensemble Ωmin := {ω. 1].8 : P O L LE ÉCO 1-a) C’est évident. Q(Up = n) = 1 − p12 p2n 1 . . . 1-c) On utilise le rappel avec l’inégalité inverse car φ est concave. Ainsi Kp = 1 P P n=0 Å pã n=0 p2n Ä y. Il en est de même des événements {Up1 = n1 }. {Upk = nk }. Nous en déduisons que quand β tend vers l’infini. . . P P p2n y∈N∗ y 2 p2n y∈N∗ y 2 puisque Q est une probabilité. n car φ est strictement concave. p2 c 1 1 1 2) Q(Up ≥ n) = Q({x = pn y.  1  QUE 1X n φ(pi ) ≤ φ 1 Xn  I pi = φH N . φ ne s’annule qu’en 0 ou en 1. . 3) Comme ci-dessus. et donc des variables aléatoires. N IQ YT ECH Exercice 3. . Il en résulte E(Up ) = p2 −1 et UE 2 p V ar(Up ) = (p2 −1)2 .8. 2-a) Observons que ln Z(0) = ln n. L’égalité a lieu si et seulement si p = 1 1 n.

O LYTE P Econvexité pour la fonction φ. elle est donc bijective. (3. On détermine i n X λ + 1 = ln e−βU(ωi ) = ln Z(β).1) nous permet de conclure. i=1 Ainsi. LY T ECH PO L E et strictement convexe si et seulement si la variance Ainsi. µβ devient une probabilité uniforme sur Ωmax := {ω. 3-c) Nous allons utiliser l’inégalitéLde X XÉCO  − pi ln pi + − βU (ωi ) pi − ln Z(β) i i X XÄ ä X =− pi ln pi + pi ln e−βU(ωi ) − pi ln Z(β) i i i X pi =− pi ln i µβ (ωi ) pi pi pi X X Å ã =− µβ (ωi ) ln = µβ (ωi )φ i µβ (ωi ) µβ (ωi ) i µβ (ωi ) pi ÅX ã ≤φ µβ (ωi ) = φ(1) = 0..1) s’en suivent immédiatement.7.218 Chapitre 8 – Corrections des exercices De même que lorsque β → −∞. on aura ln U ln µβ (ωi ) = −βU (ωi ) − λ − 1 = −βU (ωi ) −I Q Z(β). Les limites (3. si µβ maximise l’entropie. E C HN d’où le résultat. ne s’annule pas. U (ω) = maxΩ U }. µβ (ωi ) .7. il en est donc de même pour β → ln Z(β). Comme elle est continue. I Q UE 3-b) On a H(µβ ) = − i µβ (ωi ) ln µβ (ωi ). T E C P HN P O LY Recherchons les extrémas de FL E : ∂F = − ln ηi − 1 − βU (ωi ) − λ = 0 donne η(ωi ) = É C Oλ par la condition que η est une probabilité : ∂ηi e−βU(ω )−λ−1 . On calcule n Z 0 (β) 1 X ln Z)0 (β) = =− U (ωi )e−βU(ωi ) = −hU iµβ Z(β) Z(β) i=1 1 X 2 E −βU(ωi ) ã2 Z 00 (β) Å 0 Z (β) U U(ωi )e 2 Z(β)NiI Q 00 ln Z) (β) = − = − hU iµβ Z(β) Z(β) = Varµβ (U ) ≥ 0. β 7→ ln Z(β) est convexe É C O si U n’est pas constante. c’est-à-dire 3-a) Nous déduisons de la question précédente que β 7→ hU iµβ est strictement dé- croissante. 2-c) β → Z(β) est non nulle et de classe C ∞ sur R.

µβ est l’unique 8. Exercice 4. De plus. l’inégalité de convexité n’est saturée que si pi /µβ (ωi ) est un constante. 0 0 EC 0 HN LY T O le théorème de Fubini. qui ne peut être autre que 1. Alors en appliquant ÅZO∞L Z ∞ 0 É C ã Z ∞ E(g(X)) = g (t) 1{t<x} f (x)dx dt = g 0 (t)P(X > t)dt. Rx Exercice 4. nous avons démontré le “principe variationnel” : pour H T E=C sup H(p) + h − βU ip . nous avons g(x) = 0 g 0 (t)dt.1 : Il suffit d’écrire Y T ECH 2L E POL ÉCO E((X − a) ) = E((X − E(X))2 ) + (E(X) − a)2 . nous obtenons EP où f est la densité de X. Puisque  φ est strictement concave.3 – Corrigés des exercices du chapitre 4 219 Nous avons donc montré que pour toute proba p :  H(p) + h − βU ip ≤ ln Z(β). nous obtenons E(X) = 0 P(X > t)dt. Donc pi = µβ (ωi ) et µβ est l’unique probabilité qui maximise l’entropie étant donnée l’espérance E. On sait que µβ atteint le maximum de p 7→ H(p)+h −βU ip qui vaut ln Z(β).3 Corrigés des exercices du chapitreE 4 N IQU Exercice 4.8.12.12.    O LY H(µβ ) + h − βU iµβ = ln Z(β) E P p probabilité L É C Oprobabilité qui atteint le maximum. E tout β ∈ R. Alors UE X ∞ x ÇZ å Z ÅZ ã E(g(X)) = E 0 g (t)dt = g 0 (t)dtI Q f (x)dx. 0 0 0 R∞ Remarquons que pour g(t) = t. Il est immédiat de montrer que ce minimum vaut a = A 2.2 : Puisque g est de classe C 1 . Il faut pour cela appliquer le théorème de Fubini à la mesure abstraite P(dω) ⊗ dt. cette propriété est vraie pour toute variable aléatoire X positive. A].12. N IQU Ainsi. Nous RA cherchons à placer a tel que E(|X −a|) = A1 0 |x−a|dx soit minimum.3 : 1) La position de l’incendie X suit une loi uniforme sur [0. . En fait.

c]. 2π −∞ 2π −∞ 2) Puisque eλX ≥ eλa 1X≥a . 0 0 α c αy 1 Uy E grâce au changement de variable : y = ce−αx ⇐⇒ x = − N IQα ln c . p > 0. N T E CH O LY Nous pouvons utiliser ces préliminaires pour montrer que si X est la durée de fonc- tionnement de la lampe. LY TE PO E Y ∈ [0.4 : Rappel sur la fonction Γ : Γ(α) = 0 xα−1 e−x dx est convergente si et seulement si α > 0.220 Chapitre 8 – Corrections des exercices R∞ 2) Nous devons alors minimiser la quantité 0 λ e−λx |x − a|dx. De plus. 2) E(X) = 8. Si P(X < 0) = 0. pour x ∈ R+ et y ∈ [0. CH 5 − 32 que : P(X ≥ 6) = 2 e . c].12. V ar(X) = 32. introduisons une fonction g continue et bornée sur [0.12. Donc. d’où nous déduisons que pour n entier. La densité de Y . dans ce cas. alors E IQU pα C = Γ(α) .c[ (y). Exercice 4.12. Tous calculs faits. eλa . si X est variable aléatoire de densité Cxα−1 e−px sur R+ . E obtenons également Unous N I Q 3) Par changement de variable et intégration par parties. Y ne peut pas avoir de densité. pour α. nous avons E(eλX ) λ2 P(X ≥ a) ≤ ≤ e 2 −λa . De plus Γ(α + 1) = αΓ(α). C Oαy É α c Exercice 4. nous obtenons que a = lnλ2 . Ainsi. R∞ Exercice 4. P(Y = 0) = P(X < 0). vaut doncE C H Å LY ã T 1 P O 1 y fY (y) = L E fX − ln 1]0. c].6 : 1) +∞ +∞ 1 1 Z Z x2 (x−λ)2 λ2 λ2 E(eλX ) = √ eλx e− 2 dx = √ e− 2 e 2 dx = e 2 .5 : Remarquons É C O Lque si P(X < 0) 6= 0. Γ(n + 1) = n!. alors P É C OLE 1) f est une densité de probabilité. Alors Z ∞ Z c 1 y 1 Å ã E(g(Y )) = g(ce−αx ) fX (x)dx = g(y) fX − ln dy.

celui-ci ayant remarqué au début du 20ème siècle que 20% de la population possédait 80% des richesses. 3) +∞ +∞ 1 1 1 Z 2 Z x2 − x2 P(X ≥ a) = √ e dx = √ x e− 2 dx. 20% d’entraînement supplémentaire peut amener 80% de performance en plus. Cette quantité tend vers 1 quand x tend vers E PO L ÉCO Cela veut dire que plus X prend de grandes valeurs. 3) Soit X > a.3 – Corrigés des exercices du chapitre 4 221 pour tout λ > 0. nous obtenons finalement que a2 P(X ≥ a) ≤ e− 2 .12. É immédiat α 2) P(X > x) = xa si x > a et P(X > x) = 1 si x ≤ a. D’autres phénomènes ont ce même type de propriété : pour un service. pour une activité sportive. a xα+1 αa Dans ce cas. N x+y ECH x+y a T LYl’infini. E(X) = α−1 . En minimisant le terme de droite en λ. . 4) +∞ x Z E(X) = αaα dx < +∞ ⇐⇒ α > 1. (minimum atteint en λ = a).8. plus elle a de chances d’en prendre de plus grandes. 20% des clients sont responsables de 80% des réclamations . 2π a 2π U a E x Une intégration par parties donne NIQ Y T E C H Z +∞ Z +∞ 1 L 1 x e−P Odx = e− − x2 1 − a2 x2 xL E 2 e 2 2 dx. TE CH LY E PO Exercice 4. Cela n’est pas vrai pour la loi exponentielle qui n’a pas de mémoire.7 : 1) Il estC O L de vérifier que f est positive et d’intégrale 1. Cette loi fut introduite par le marquis de Pareto comme modèle de richesse. Alors x Eα ã α  α Å a x U Å ã P(X > x + y|X > x) = = IQ . O a x2 ÉC a a Or Z +∞ +∞ +∞ 1 − x22 Z 1 − x22 1 Z x2 1 − a22 e dx = x e dx ≤ 3 x e− 2 dx = e . x2 x3 a U E a3 NIQ a a a Nous en déduisons l’inégalité voulue.

PO L LE O sur R2+ .T E C P O LY Un calcul analogue montre O LEque la densité de Y vaut fY (y) = π1 1+y 1 . y)dxdy.+∞[ (y) s’écrit comme produit d’une fonction de t et d’une fonction de y.+∞[ (y)xe−xy . avec X et Z indépendantes.12. et V ar(X) = (α−2)(α−1)2 . UE 2) R Soit g une fonction continue et bornée sur H NRI Q 2 . La somme de deux variables aléatoires indépendantes de loi normale N (0. −tde jacobien y. E(g(X. X et XY sont 1 x2 z2 − − Le jacobien vaut x. y) 7→ (x. pour x > 0. E(X 2 ) = α−2 . XY )) = TRE C g(x. la densité f du E Ucouple (X. 2). αa2 αa2 Dans ce cas. Y n’a pas d’espérance. Le changement de variable (x.8 : 1) Loi de X : loi de densité 1 1 Z Z x2 x2 y 2 x2 fX (x) = f (x. 1) suit une loi normale N (0. y) = fX|Y =y fY (y) = 1R+Y (x) E1 C H Ty2 1[1. Y )) = t −t t 1 0 g(t. y)dy = |x|e− 2 e− 2 dyE= √ e− 2 .222 Chapitre 8 – Corrections des exercices 5) De même. y) 7→ Soit g une fonction continue É Cbornée (t R∞= R ∞ xy. Considérons le changement de variable (x. z)e 2 e 2 dxdz.12.9 : 1) Avec les notations du cours. LY P O)) = 2π g(x. R∞ 2) La loi de X a pour densité fX (x) = 1 e−xy xdy = e−x . 2π IQU 2π HN X suit une loi normale centrée réduite. Exercice 4. Y ) vaut N IQ f (x. Ainsi. donne alors que E(g(T. y)e y 2 dtdy.  1 x E(Y |X) = X+1 X . Y ). nous en déduisons que T et Y sont indépendantes et que T a la densité te−t 1R+ (t).+∞[ (y). On a E(g(X.y) (x) = xe −x(y−1) 1[1. E(X 2 ) < +∞ ⇐⇒ α > 2. Y suit donc une C 2 loi de Cauchy. xy)f (x. En É particulier. Y )) = E(g(XY. z = xy). Exercice 4. et Z = XY ÉCOsuit une loi normale centrée réduite. qui vaut e y 2 1R+ (t) 1[1. les deux variables aléatoires X et Y ne sont pas indépendantes. Ainsi X suit une loi exponentielle de paramètre 1 et la loi conditionnelle de Y sachant X = x admet la densité fY |X=x (y) = ffX (x. . 3) X(1 + Y ) = X + Z. Ainsi. Puisque le produit de fX et fY n’est clairement pas égal à f . y). XY L E indépendantes. Comme la densité du couple (T. R∞ x+1 3) Nous en déduisons que E(Y |X = x) = y xe−x(y−1) dy = 1R+ (x).

La loi de (U1 . dun .. L n! α+β α+β ÉCO 0 β Ainsi. . xn .n] (z) h(z)dz. Comme X et Y sont indépendantes. posons z = ny.3 – Corrigés des exercices du chapitre 4 223 Exercice 4.. Loi de Y : y n y −(α+β)u (αu) X Z Z P(Y ≤ y) = β e du = β e−β u du. 2) Un = Un−1 Xn . D’où si g est une fonction continue bornée sur [0. . Un ) a donc la densité 10≤u1 ≤.≤un ≤1 1 1 u1 . Nous en déduisons que E(h(U1 .un−1 . nous avons XZ 1 X Z 1 E(h(XY )) = h(ny)P(X = n)dy = P(X = n) h(ny)dy. . . Un )) = h(u1 . Z admet une densité si et seulement si P(X = 0) = 0. Alors U 1E n Z Q N I n) n 0 h(z)dz X E(h(XY )) = h(0)P(X = 0) + P(X = nC H O LY T EZ ÇX P(X = n) å P = 0) + LE = h(0)P(X 1[0. . . Le jacobien de R cette transformation vaut u1 . un )10≤u1 ≤.. . et Un−1 et Xn sont indépendantes. UE 0 n! 0 IQ n≥0 Ainsi. 0 h(x1 . .≤un ≤1 u1 . . . C HN O LYTE P Exercice 4. Z E(g(Un .8. On pose u1 = x1 . u2 = x1 x2 . . . .11 : U E NIQ Loi de X : YnT ECH (αy) O Lα ∞ n ãn Γ(n + 1) β α Z Å P(X = n) = β e−(α+β)y E Pdy = n! β (α + β)n+1 = . Alors 1 E(h(U1 . dxn . . . 0 0 u . . . Un )) = 0 .10 : Soit h une fonction continue bornée sur R+ .. un = x1 . un−1 . . u)fUn−1 (u) dzdu. .un−1 du1 . . . . ..12. . Un−1 )) = g(un−1 xn . un−1 )fXn (xn )fUn−1 (un−1 )dun−1 dxn Z 1Z u 1 = g(z.12 : 1) Soit hOune R 1 ÉRC L E fonction continue bornée sur [0. . . .12. 1]2 . . ÉC O n n Ainsi. X suit une loi géométrique de paramètre α+β . . . Y suit une loi exponentielle de paramètre β.. . n 0 n 0 Pour n 6= 0. . xn )dx1 . . 1]n. x1 x2 . .12... . Exercice 4. . x1 .

2 ∂ La densité du couple (X. π2 [. h(x. ce qui est raisonnable ! . ∀k) = F (y)nU−E(F (y) − F (x))n . 2π]. Y ≤ y) = P(Zk ≤ y. et 2 U et V sont √ indépendants (comme R et Θ). Ainsi.12. Y ) = n. ∀k) − P(x < Zk ≤ y. 2π[ . Y ≤ y). Alors X = R cos Θ = −2 ln U cos(2πV ) et Y = −2 ln U sin(2πV ). où V suit une loi uniforme √ sur [0. n n−1 n 3) F (x) = x. FX (x) = 1 −Y E POL O L X admet une densité qui vaut fX (x) 0 2) F est dérivable de dérivée f . la loi conditionnelle de Un sachant Un−1 = u aura la densité z 7→ u1 1z≤u . = FX (x) = n(1 − F (x)) n−1 É C f (x). où F (x. y). Ainsi. Θ) = 2π −∞ −∞ f (r. E(g( X )) = E(g(tan Θ)) = 1 R 2π 1 π 2π 0 g(tan θ)dθ = π − g(tan θ)dθ. E(h(R2 )) = 0 h(r2 )re−r /2 dr = 21 T R ∞ 2 R Y0 E h(z)e dz. Nous avons donc fX (x) = (b−a)n (b − x) 1]a. Alors R +∞ R +∞ x2 +y2 R ∞ R 2π r2 1 1 E(f (R.224 Chapitre 8 – Corrections des exercices Ainsi. Y ) = (n+1)2 (n+2) . et ρ(X. Θ va être simulée par 2πV .b[ (x). et FY (y) = F (y)n . moins les variables X et Y sont corrélées. y) = ∂x∂y F (x. I Q UE 3) Soit g une fonction continue bornée sur R E C H+N Y . où U suit une loi uniforme sur [0. Exercice 4. D’où r2 R admet la loi de densité re− 2 1r>0 et Θ la loi uniforme sur [0. N IQ ECH n (1T− F (x)) . θ)e− 2 rdrdθ. et R et Θ sont indépendants. R 2 suit une loi exponentielle de paramètre 21 . R É C O 2 Exercice 4.12. par indépendance des Zk . y) = (b−a)n (y − x)n−2 1a≤x≤y≤b . 1]. fY (y) = (b−a)n (y − n(n−1) a)n−1 1]a. P(X ≤ x. Ainsi.b[ (y). P O L É C O L2 E 2) Nous avons vu que R peut se simuler en prenant −2 ln U . Y ) vaut h(x. b−a b−a Les calculs donnent E(X) = a + n+1 . V ar(X) = V ar(Y ) = 2 2 n(b−a) (b−a) 1 (n+1)2 (n+2) Cov(X. IQ UE R2 et Θ sont indépendants.13 : 1) Soit f une fonction continue bornée sur R+ × [0. y) = P(X ≤ x. La R 2 LY T fonction θ 7→ tan θ est inversible sur ]− π2 . plus n est grand. et de même Y admet la densité fY (y) = n(F (y))n−1 f (y). E(Y ) = b − n+1 . θ)e− 2 dxdy = 2π 0 0 f (r. nous obtenons h(x. y) = n(n − 1)(F (Y ) − F (x))n−2 f (x)f (y).14 : 1) Soit x ≤ y. 1]. Ainsi. Donc X suit une loi de Cauchy. π dt P O LE 2 Y On obtient E(g( X )) = π1 R f (t) Y 1+t . et si h est une H N ∞ C −z/2 fonction continue bornée sur R+ .

Ainsi. donc nous ne sommes pas sous les hypothèses de la LGN.5. C = 1 ) = u qui tend vers 0. X > Y ) = λ+µ .s.14). X1 +···+Xn p. Ainsi presque-sûrement.s. D > 0. la loiÉconditionnelle de D sachant X < Y est une loi exponentielle de paramètre µ. pour ε fixé et n assez grand. . E 2) Puisque n≥1 un < +∞.8. bien que E(Xn ) = 1. P(M > 0. X > Y ) = λµ e−λx e−µy dxdy = e e . En effet. X > Y ) = λ+µ e . D > b. DN H TEC P(D > b|X > Y ) = =e . par la première partie du lemme de de Borel-Cantelli (Théorème 2. P(Xn > ε) = n un n P LE P Donc Xn → 0. X > Y ) = P(M > a)P(X > Y ). IQ UE 4) Nous pouvons montrer par récurrence que min1≤i≤n H NX i suit une loi exponentielle de paramètre 1≤i≤n λi .1 : 1) E(Xn ) = 1. les variables aléatoires Xn n’ont pas les mêmes lois. Cé résultat n’est pas en contradiction avec la loi des grands nombres. la suite (un )n tend versH0N P QU etI donc u1n tend vers +∞. P(X > Y ) P O LY E La loi conditionnelle de DLsachant X > Y est donc une loi exponentielle de paramètre CO λ.12. ÉCO Les ensembles An = {|Xn | > ε} vérifient que n P(An ) < ∞.4 Corrigés des exercices du chapitre 5 Exercice 5. y>a x>y+b λ+µ µ λ 2) P(X > Y ) = P(M > 0. 3) Nous remarquons que P(M > a. Il en résulte que Xn → 0. M suit une loi exponentielle de paramètre λ + µ.4. De plus. et que min1≤i≤n Xi P YT P λ POL 1≤i≤n i et { Xk = min1≤i≤n Xi } sont indépendants. P(X < Y ) = λ+µ . par hypothèse. au plus un nombre fini de An sont réa- p. T EP(X O LY Ainsi. lisés. De même. P(lim supn An ) = 0.4 – Corrigés des exercices du chapitre 5 225 Exercice 4. P(M > µ −(λ+µ)a λ −(λ+µ)a a. LE ÉCO 8. 3) Nous en déduisons par un argument de limite de Césaro que n → 0 quand n tend vers l’infini. QX > Y ) −λb UE >Ib. X < Y ) = λ+µ e .15 : 1) µ −λb −(λ+µ)a Z Z P(M > a. P(M > a. P Alors. que P(Xk = min1≤i≤n E XCi) = λk .

2 : Considérons un réel M > 0 donné. X1 (ω)∧Mk +···+X d’ensembles négligeables). X1 (ω)∧Mk +···+X n n (ω)∧Mk → E(X1 ∧ Mk ). n n k=1 Pn k On appelle les polynômes Pn (x) = xk (1−x)n−k polynômes de Bernstein. Nous pouvons alorsOappliquer P et LE É C O ãã X n X1 + · · · + Xn k Å Å Å ã E f = f xk (1 − x)n−k −→ f (x). . Nous avons donc prouvé : Toute fonction continue sur [0. n U E NIQ T E f étant continue sur [0. et nousUenEdéduisons que pour ω ∈ / N.4 : 1) M (u) = eu . P O LY OLE LaCloi des grands nombres entraîne que Mn = X +···+X Exercice 5. 1] . Pour chaque k. X1 + · · · + Xn Å ã f →p. Alors les variables aléatoires bor- nées Xi ∧ M satisfont les hypothèses de la loi des grands nombres. Nous avons alors CH E |E (f (Mn )) − f (x)| P O LY T L E ≤ E |f (Mn ) − f (x)|C1O  É {|Mn −x|≥α} + E |f (Mn ) − f (x)| 1{|Mn −x|<α} ≤ 2kf k∞P(|Mn − x| ≥ α) + ε V ar(X1 ) kf k∞ ≤ 2kf k∞ 2 +ε≤ + ε. et pour ω ∈ n n (ω)∧Mk → E(X1 ∧Mk ). 1] : ∀ε > 0. puisque V ar(X1 ) = x (1 − x) ≤ 14 . tel que N α ⇒ |f (x) − f (y)| < ε. il existe un ensemble négligeable Nk en dehors duquel pour tout ω. ClesHvariables aléatoires f X1 +···+Xn  LY le théorème de convergence dominée. 1] est approchée uniformé- ment par une suite de polynômes. ∀k.4. puisque f est continue. Alors N = ∪k Nk est encore négligeable (comme réunion dénombrable / N .226 Chapitre 8 – Corrections des exercices Exercice 5.s. 2) f est uniformément continue sur [0. n le sont également.  k=1 f n E Uy ∈ [0. 1].3 : 1)É 1 n →p.4. nα 2 nα2 par l’inégalité de Bienaymé-Chebyshev.s.4. Nous pouvons alors faire tendre k vers l’infini. f (x). elle est bornée. |x − y| < I Q∀x. (Théorème de Weierstrass) 2 σ2 /2 Exercice 5. d’où la convergence vers TEC n n +∞. x n et donc.s. Nous en déduisons p. que X1 ∧M+···+X n n ∧M → E(X1 ∧ M ). Soit maintenant une suite Mk de réels qui tend vers l’infini. I Q H N presque-sure de X1 (ω)+···+Xn (ω) X1 +···+Xn → E(X1 ) = +∞. Ainsi. ∃α.

(et R1 non identiquement nulle). 1X Sn = S0 (1 + R1 ) . 2 σ m| ≤ ε) ≥ α dès que 1 − nε2 ≤ 1 − α = 0. Exercice 5. . Alors a = 21 . nous obtenons 2e ≤ 0.6 : Les deux premières questions se résolvent comme dans l’exercice 5. (1 + Rn ) = S0 exp C TE n O LY k=1 P Eet ln(1+E(R1 )) < ∞. pour n assez grand. N T E CH OdeLlaY 2 − nε Par l’inégalité de Chernov. et Sn va décroître exponentiellement vite vers 0. Exercice 5. nous pouvons donc É C prendre un échantillon beaucoup l’inégalité de Chernov. Si E(R1 ) = 0. Nous en déduisons l’inégalité de Chernov. donc −1 < E(R1 ) O ∞.3. <L Or. Avec ε =I0. Par l’inégalité de Jensen. R1 > −1.4. P(|Yn − U E ε2 Q05. 3) Supposons que les Xi suivent des lois uniformes sur [0. Ainsi. Il vient que n ≥ 29512.8. Nous pouvons alors appliquer la loi des grands nombres : n1 nk=1 ln(1 + Rk ) → E(ln(1 + R1 )). alors E(ln(1 + R1 )) < 0. c’est-à-dire pour La meilleure majoration u = ε. P OLE É C va être obtenue en minimisant l’exposant. 3) P(|Yn − m| ≥ ε) = P(Sn − nm ≥ nε) + P(Sn −Q I nmUE≤ −nε) ≤ e −nuε (M (u)) + e C H n N −n(−u)(−ε) (M (−u))n = 2e−nuε (M (u))n TE O LσY/2 . P(|Yn − m| ≥ ε) ≤ V ar(Y n) . A taille d’échantillon fixée. eua par indépendance des Xi . Sn va se comporter presque-sûrement comme S0 exp (nE(ln(1 + R1 ))). 05. il vient que n ≥ 80000. Pour 20 P O L Eplus petit si nous utilisons avoir une évaluation du même ordre probabilité cherchée. nous aurons une meilleure évaluation avec cette inégalité. .5 : n I Q UE ! n H N ln(1 + Rk ) . .4 – Corrigés des exercices du chapitre 5 227 2) Nous avons : eu(Sn −nm) ≥ eua 1Sn −nm≥a .4. É C nous en déduisons que E(ln(1 + R1 )) P ≤ ln(1 + E(R1 )) < ∞. 05.4. 4) Par l’inégalité de Bienaymé-Chebyshev. 1]. et limn In = g( 12 ). 2 2 ≤ 2e−nuε enu ∀u ≥ 0. d’où E(eu(Sn −nm) ) n P(Sn − nm ≥ a) ≤ = e−ua (M (u)) . Ainsi.

ÇZP O 1E 1 2 L å 1 V ar(W C É ) ≤ 2 0 g (x)dx − m ≤ 2 V ar(V ).4. On 2) Soient Xi et Yi des variables É CdesO peut appliquer la loi grands nombres P aux variables correspondantesPUi .7 : 1) E(U ) = E(V ) = E(W ) = m.6. 2n 1 n + g(1 − Xi )) et 1 n P i=1 (g(Xi ) n i=1 1Yi ≤g(Xi ) convergent presque-sûrement vers m. En appliquant ce résultat. D’où le résultat. Ainsi. 2 Ä Ä ää2n Par récurrence. Par ailleurs. n an (n − 1)! 0 n n a (n − 1)! 0 R∞ En posant F (t) = 0 f (x)e−tx dx. Or. nous en déduisons que pour tout n. 2 2 2 Ä Ä ää2n 2 2 Nous en déduisons que limn→∞ φ √t2n = e−t /2 . nous aurons donc Z ∞ Ä ä Z ∞ 1 z z 1 nt f (a) = lim f z n−1 e− a dz = lim n f (t)nn−1 tn−1 e− a ndt. et X et Y suivent des lois N (0. nous aurons : n1 ni=1 g(Xi ). 1]. Ainsi. nous obtenons R∞ nt F (n−1) ( na ) = (−1)n−1 0 f (t)tn−1 e− a dt.1 : Soit t un réel. Vi et Wi . .228 Chapitre 8 – Corrections des exercices 4) Le résultat sur la somme de variables aléatoires indépendantes de loi exponentielle se démontre par récurrence. Nous en RH déduisons que 2E(g(X)g(1 − X))− 2E(g(Y )g(1 − X)) N ≤ 0. 1). 2E C 1 2 T ≤ 0 g (x)dx. I Q UE 3) La monotonie de g entraîne que E((g(X)−g(Y ))(g(1−X)−g(1−Y ))) ≤ 0. φ √ est deux fois dérivable en 0 et t2 Å 2ã t t Å ã φ √ n = 1 − σ2 n + o n . T 2 C E ) = 2 0 (g (x) + g(x)g(1 − x))dx − m2 . φ(t) = φ √t2n = Ä Ä ää n t 2 2 exp 2 ln φ 2n . Finalement. V ar(V ) = R1 2 g (x)dx − m ≤ V ar(U ). car g ≤ 1. φ(t) = e−t /2 . H N IVQRar(U ) = m(1 − m) . UE Exercice 5. E N IQU Y T ECH 8. nous avons R1 2 O LYm Donc 0 g(x)g(1 − x)dx ≤ m . E(g(Y )g(1 − X)) = m2 . 2 1 1 4) V ar(An ) = 2n V ar(V ) et V ar(Bn ) = nV ar(W ). V ar(W 1 1 2 O LY 0 P L E aléatoires indépendantes de loi uniforme sur [0. Alors φ(t) = φ X+Y √ (t) = φX+Y ( √t2 ) = φ( √t2 ) . Comme X est centrée et a un moment d’ordre 2 σ = E(X ). La comparaison ci-dessus entraîne que Bn est le meilleur.5 P OL Corrigés des exercices du chapitre 6 LE ÉCO Ä ä2 Exercice 6.

6. V ar(g(X)) = 45 4 = σ 2 .5 – Corrigés des exercices du chapitre 6 229 R1 Exercice 6. 1).8. Le TCL nous dit que √ (An −m) 2n σ converge vers une variable aléatoire de loi N (0.2 : m = 0 x2 dx = 13 . Nous aurons .

√ √ .

√ (An − m) .

Ç.

å 2nε 2nε P(|An − m| > ε) = P .

2n.

.

96. σ . > = 0. 05 ⇐⇒ = 1.

É C Oe −R Γ\[−R. +∞ +∞ +∞ +∞ Z Z Z ÇZ å it x it x φ X (t) = e y f (x)g(y)dxdy = g(y)dy e y f (x)dx Y ∞ ∞ ∞ ∞ Z +∞ +∞ y 2 a2 1 y 2 a2 Å ã Z = g(y) dy = dy ∞ y 2 a 2 + t2 1 y 2 y 2 a 2 + t2 a π a Å Å ãã = − arctan . la fonction caractéristique d’une variable aléatoire de Cauchy vaut φX (t) = e−|t| . |t| 2 |t| .6. Nous avons (par le théorème de Fubini et la question précédente). i) = H N. 96 avec ε = 0. nous obtenons n = 1708. i). Le même raisonnement que précédemment U E dit que n dans ce cas doit I Q nous vérifier β = 1.6. V ar(W ) = 12 0 (g 2 (x)+g(x)g(1−x))dx−m2 = 1 2 180 = β √ . f (z) = 1+z 2 qui tend vers 0 quand R tend vers l’infini (car sin θ > 0). nous prenons l’autre contour et nous obtenons et . Pour t > 0. L PO L O RE Exercice 6. 2) φ2X (t) = e−|2t| = (φX (t))2 .4 : 1) φX (t) = eitx a2 e−|x|a dx a a2 +t2 . prenons comme contour Γ le demi-cercle supérieur de centre 0 et de rayon R.R] itR cos θ −tR sin θ e Mais sur ce contour. qui encercle i. POL ∞ L Ey ≥ 1. Pour t < 0. σ σ En prenant ε = 0. π ∞ 1+x2 dx.3 : 1)É C φX (t) = 1 +∞ eitx Npus appliquons le théorème des résidus. Cela C nε N H n = 214. R1 Etudions maintenant l’estimateur Bn . Nous avons Res(f. d’où R Γ T E C 2iπ O2LdxY+ Z R eitx Z e−t = P L E1 + x f (z)dz. Alors laU E des résidus donne formule e−t I Q f (z)dz = 2iπRes(f. Donc Y > 0 presque-sûrement. IQ UE C HN Y=T E R +∞ 2 Exercice 6. 01. Oque 2) Y a une densité qui ne charge ÉC Soit f la densité de X et g celle de Y . eitz eitz Ä ä 1 1 Nous considérons la fonction de variable complexe f (z) = π(1+z 2 ) = 2iπ z−i − z+i qui a les deux pôles i et −i. ce qui est bien meilleur Y T E donne comme nous l’avions prévu. Ainsi. 01.

nous obtien- E drions que cette probabilité est strictement supérieureIàQ1Uce qui est absurde.n + Xi. par un argument de somme . comme les A(θi ) sont disjoints. Cela entraîne que X1 (ω) ∈ F et X2 (ω) ∈ F . I Q X1 sin U = M −X2 N CMHet obtenons que CW = CV . il est immédiat que Xn + Yn et Xn Yn convergent en loi respectivement vers X + y et Xy. Puisque (x.3.230 Chapitre 8 – Corrections des exercices Exercice 6. Les deux t Nous utilisons alors la formule CW = M CX T E O LY vecteurs gaussiens. É C OLE Les termes de gauche et de droite tendent vers 0 quand n tend vers l’infini. y) 7→ xy sont des fonctions continues. TE CH LY PO O LE deCprouver Exercice 6. E(f1 (Xn )f2 (Yn )) converge vers E(f1 (X)f2 (y)) = f2 (y) E(f1 (X)).7 : Préliminaire : Il suffit d’adapter la preuve de la proposition 6. D’où N P(A(0)) = 0. et f2 lipschitzienne de constante de lipschitzianité C. 3) Supposons que P(A(0)) = η > 0. y) 7→ x + y et (x. Puisque θ 6= θ0 .6. puisque y est constante. b] par des fonctions bornées de classe C 2 avec dérivées première et seconde bornées et uniformément continues. Å ã X1 2) Comme X1 et X2 sont indépendantes. 1) Nous avons Wi.n + Yi−1. En nous inspirant de la preuve du lemme de Slutsky 6. cos θ sin θ0 −sin θ cos θ0 = sin(θ−θ0 ) 6= 0. Ainsi.6.5 : 1) Supposons que A(θ) ∩ A(θ0 ) 6= ∅. Pour n grand. Comme l’inégalité est vraie pour tout ε > 0. Exercice 6. E |E(f1 (Xn )f2 (Yn )) − E(f1 (X)f2 (y))| N IQU ≤ |f2 (y)| |E(f1 (Xn )) − E(f1 (X))| + E (|f1 (XE C|fH2 (Yn ) − f2 (y)|) n )| +O ≤ kf2 k∞ |E(f1 (Xn )) − E(f1 (X))| P YT CεLkf1 k∞ + 2kf1 k∞ kf2 k∞ P(|Yn − y| > ε). nous en déduisons le résultat. alors X1 (ω) cos θ + X2 (ω) sin θ ∈ F et X1 (ω) cos θ0 + X2 (ω) sin θ0 ∈ F . nous aurions P(∪ni=1 A(θi )) = nη. ayant même espérance et même matrice de covariance. Nous remarquons que W = .6. le vecteur V = est gaussien −X2 centré et de matrice de covariance diagonale par Å bloc. tous deux dans [0. Si ω ∈ A(θ) ∩ A(θ0 ). chaque bloc étant ã la Å matrice de ã X1 cos θ + X2 sin θ X1 θ −EX2 cos θ covariance de X. nous écrivons pour ε > 0.n .5 en approchant les indicatrices d’intervalles ] − ∞. π2 [.3. E P L CO Nous en déduisonsÉen particulier que P(A(θ)) = P(A(0)). ont donc même loi. Contradictoire avec le fait que X1 (ω) sin θ − X2 (ω) cos θ ∈ / F. pour tout θ.n = Wi−1.8. π2 [. par hypothèse. Alors pour n angles θi distincts de [0.6 : Il suffitÉ que pour f1 et f2 des fonctions continues bornées.

Cette quantité ne peut donc pas tendre en probabilité vers 0.n sont indépendantes de Wi.n ) ||f ||∞P. i=1 2) Puisque Xi. puisque f 00 est uniformément continue.n )) pour un 0 ≤ θ ≤ 1. et que E(Xi.i.n N2 I (W où RX.n )2 . D’une part nous O L avons |RX.n + Yi. 1 1 C’est la somme de deux variables aléatoires indépendantes.n ) = f (Tn ) − f (Tn0 ).6.n | ≤ ε (Xi.n .n et Yi.n |≤δ + ||f 00 ||∞ 1|Xi.n ) − f (Wi. 2 00 pour ε > 0 donné. Cette différence vaut ( √2n − √n )(X1 + .n ) + f 0 (Wi. Nous existe en déduisons que |RX. Puisque le √ É C 0 choix de ε est arbitraire.  3) Une inégalité similaire à ci-dessus est vrai pour N IQ Yi.i.n |>δ ) E i=1 U NIQ ≤ 2ε + ||f 00 ||∞ E X12 1|X1 |>δ√n + Y12 1|Y1 |>δ√n .5 – Corrigés des exercices du chapitre 6 231 télescopique. et que Xi. tel que |RX.n |>δ + Yi.n + Xi. 2) Si α < 1/2.n | ≤ (Xi.n Y2 T 2 sont centrées. Nous substituons alors ces approximations de Taylor dans (6.n + Xi.n sont petits pour n grand.i.n et Yi.n ) = f (Wi. nous obtenons n X (f (Wi.i.n ) − f (Wn.n + Yn. Nous pouvons écrire 1 00 f (Wi.n ) = n1 = O P L E(Y i.i.n )) = f (W1. alors √ 2n −√ n converge en probabi- lité vers 0. CH O LYTE 4) Comme E(X12 ) = 1.n .+ Xn )+ √12n (X2n+1 + .i. .n 1|Yi. . Alors pour tout A > 0. on a βn1/2−α → +∞ quand n → ∞.n + fQ E )(Xi.n UE .n )2 (f 00 (Wi. Ui. Sn S2n Sn Exercice 6.n )2 + RX. tel que n ≥ n0 ⇐= βn1/2−α > A.n |) i=1 n X 2 2 ) + ||f 00 ||∞ E(Xi. nous en déduisons queLE O C ÉX n |E(f (Tn ) − E(f (Tn0 )| ≤ E(|RX.n ).n | + |RY.n = 21 (Xi.n + X1. d’où le théorème de la limite centrale. quand n tend vers l’infini. limn E X12L1E Ä P ä O |X1 |>δ n = 0.n et Yi.n )2 ε1|Xi. En prenantE C H l’espérance.n |>δ . ilC É O L Eδ > 0. pour |Xi. Alors P(nα | Snn − m| > β) = .n 1|Xi. ∃n0 .n +θXi. nous allons utiliser un développement de Taylor.i.1). C’est donc une variable aléatoire centrée de variance n1 (nσ 2 ) + 2n n 2 σ = 33 σ 2 . D’autre part. .6.n | ≤ (Xi. et de même pour Y1 . nous en déduisons finalement que |E(f (Tn ) − E(f (Tn )| → 0. du fait que Xi.8 : 1) Si √ n converge en probabilité. alors pour tout β > 0 fixé.nY )−f CH T E00 (Wi.n + Yi. .n 2 2  ≤ ε E(Xi.n | ≤ δ.+ X2n ).8.n )Xi.

64 − 1. et en particulier. 1) ayant une fonction de répartition continue. X̄nT) E Exercice 6. avec g la densité de la loi normale N (0. soit H N 20 encore 0. TE C LY PO LE ÉCO 8. 1). IQ UE HN Cp(1−p) . la marche aléatoire atteindra 0 en partant de n’importe quelle valeur k avec probabilité 1 alors que si p > 1/2. où −c g(x)dx = 0.232 Chapitre 8 – Corrections des exercices √ √ √ P( n| Snn −m| > βn1/2−α ) ≤ P( n| Snn −m| > A). nous obtenons que lim supn P(n | n − m| > β) = 0. E N IQU Y T E C H P(∪mÄ Am )äk= limm P(Am ).2. Comme les Am sont croissants. Nous en déduisons alors la fourchette d’estimation 0. lim supn P(nα | Snn − m| > β) ≤ 3 α Sn 2 P(|N (0. 64 + 1. 1−p Ainsi. 72. et pour m L E 3) Remarquons que {S = É CO 0} ⊂ A pour chaque n. Exercice 7. la marche revienne à 0 avant d’atteindre m. 1)| > A). P(∪mAm ) = p . les fonctions de répartition convergent.5. d’où nα | Snn − m| tend vers +∞ en probabilité.6. Pour α > 1/2. L’autre inclusion est immédiate. comme nous l’avons vu à la proposition 7. pour p ≤ 1/2. P(∪Am ) = 1. La table numérique donne c = 1.1. Si A tend vers l’infini. Ainsi. P OpL> 1/2.5). Alors celle de SN vaut Γ = G ◦ g. ce qui est calculé dans (7. Nous avons donc Γ0 (x) = G0 (g(x)) g 0 (x).1.6 Corrigés des exercices du chapitre 7 Exercice 7.645 I Q U≤Ep ≤ 0.2 : Soit g la fonction génératrice de X et G celle de N . . 2) L’inclusion est immédiate. Comme n( Snn −m) converge en loi vers une variable aléatoire de loi N (0.1 : 1) P(Am ) est la probabilité que partant de k. 645. un raisonnement analogue permet de montrer que lim supn P( nα | S1n −m| n > 1 β) = 0. V ar(Y = POL n O L E implique que X̄n converge presque-sûrement et dans L 1 2) La loi des grands nombres vers p. puisque la marche aléatoire n n+k+1 partant de k ne peut pas monter en n + k + 1 en moins de n étapes. X̄n + 2√c n ]. Nous en déduisons que si p ≤ 1/2. É C Rc 3) L’intervalle de confiance aura la forme [X̄n − 2√c n .9 : 1) E(X̄n ) = p.5. A = ∪n {Sn = 0} ⊂ ∪m Am . 56 ≤ p ≤ 0. elle n’atteindra pas 0 avec probabilité strictement positive. 9.1.4) et (7.64520 .

0. TEn prenant les inverses. E d’une loi géométrique Exercice 7. et g 00 (1) = m2 − 1.0.5.0) ) = P(Sn = (0. CH O LYTE 1 1 P 1 2 O L E+ ∆na(x) 1 − gn (x) = ∼n→∞ = .5 : 1-a) P(Sn = (0. E 1 − g(x) = (1 − x) − (1 − x)2 a + (x −Q1)U2 γ(x). 0. un développement limité de g au voisinage de 1 donne que pour x ∈ [0. 3) A x fixé. Ainsi. quand k tend vers l’infini. En remplaçant également 00 00 g (1) et G (1) par leurs valeurs. et il en est de même pour la somme de Césaro ∆nn(x) = n1 Q U Pn−1E N I j=0 Γ(gj (x)) quand n tend vers l’infini. Ainsi. 0)) = k 2k .3 : Nous avons vu que la fonction génératrice U de paramètre a1 est égale à Ga (x) = a−(a−1)x x NI Q . Or par la formule de Stir- P P √n k k k 2 ling (i.8. . Γ0 (1) = G0 (1) g 0 (1). I E C HN où γ(x) tend vers 0 quand x tend vers Y 1. Quand N est déterministe.0) ) < +∞. nous savons que gj (x) tend vers 1 = m quand j tend vers l’infini (car 1 est le seul point fixe de g(s) = s). à √1πk . O LY P LE ÉCO Exercice 7. Γ(gj (x)) tend vers 0 quand j tend vers l’infini. ÉCO 2) En réitérant cette égalité en changeant x en g(x) nous obtenons la formule pour n = 2 et de proche en proche pour n. nous en déduisons que le terme général de la sé-  Ä ä3 rie est équivalent. na 1 + 1 na n(m2 − 1) ÉC n na(1−x) Exercice 7.4 : 1) Comme g(1) = 1. L E lim x→1 Γ(x) = 0. Nous reconnaissons la fonction génératrice d’une loi géométrique de paramètre ab. d’où E(SN ) = E(N )E(X). g 0 (1) = 1. nous retrouvons les formules classiques pour les variables aléatoires indépendantes : E(SN ) = N E(X) et V ar(SN ) = N V ar(X). 1[. P( 2k 2k . Or Γ00 (1) = E(SN 2 −SN ). nous trouvons la formule demandée. 0. La série converge donc. k! ∼k→∞ 2πk e ).5.   j=1 Xj = 0) = k P 2  1 2k 1-b) E(N(0.5. 0)) = (P( nj=1 Xj = 0))3 . nous obtenons 1 1 avec P O L 1−g(x) = 1−x + a + Γ(x). Ainsi la fonction génératrice de SN H TEC x vaudra Ga ◦ Gb (x) = ab−(ab−1)x . Or P( nj=1 Xj = 0) = 0 P P 1 2k si n est impair.6 – Corrigés des exercices du chapitre 7 233 Ainsi. Nous avons également Γ00 (x) = G00 (g(x)) (g 0 (x))2 +G0 (g(x)) g 00 (x). et E(N(0.e. et si n = 2k.

. UE H NIQ Ce comportement. il existe N P tel que Sn ∈/ Br pour tout n ≥ N . par un raisonnement similaire. . + ρn−1 ) = 1 +  ρ2n = ρ2n σ2 Ä ä 1 ρ(ρ−1) 1 − ρn . Zn = l)xk y l = P(Zm = k)P(Zn = l|Zm = k)xk y l . y) = P(Zm = k. dit transient. y)(1. Nous en déduisons que E(Na ) = n P(Sn = P a) < +∞.l k.6 : 1) Gn = φ ◦ .5. . a2 . et donc la sé- 2 rie de terme général P(Sn = a) converge. ◦ φ. alors. nous savons que Na < +∞ presque-sûrement. y) = G0m (x Gn−m (y)) G0n−m (y)+Gn−m (y) x G0n−m (y) (Gm )00 (x Gn−m (y)). . 1).234 Chapitre 8 – Corrections des exercices 1-c) Si a = (a1 . avec probabilité 1. Nous pouvons montrer que P(Sn = a) ∼ C √ n .l Si Zm = k. nous obtenons E(Zn ) = ρn . est très EC différent de celui de la marche aléatoire YaTpresque-sûrement : ilLy simple sur Z.5.2. ∂2 4) On a E(Zm Zn ) = ∂x∂y G(x. 2) Par la question précédente. y)(x. issu de chacun des m individus de la génération m. qui est récurrente O une infinité de retours à 0 E P ou dans chaque état. Nous pouvons alors montrer par récurrence P LE 3) ÉCO X X G(x. Alors. . k. Nous en déduisons que |Sn | converge vers +∞ presque-sûrement. Nous en déduisons que E(Zm Zn ) = ρn +ρn−m (Gm )00 (1) = ρn +ρn−m (E(Xm 2 )−ρm ) = n−m 2 ρ E(Zm ). + ρn−1 ). P(Sn = a) = Ä te ä3 Q3 n  1 n i=1 ai +n 2 . . 2 E(Zn ) V ar(Zn )+ρ2n n−1 5) On a E Wn2 = = 1 + σ 2 ρρ2n (1 + ρ + . a3 ). N I QU C HX Ç åk Y T Ex X X l k k k G(x. alors Zn est la somme de k variables aléatoires indépendantes de même loi que Zn−m . n fois. Comme Br est fini. On calcule ∂2 ∂x∂y G(x. y) = P(Zm = k) P(Zn−m = l)y = P(Zm = k)x (Gn−m (y)) P O L LE k l k ÉCO = Gm (x Gn−m (y)). il en est de même de a∈Br Na . et V ar(ZnE ) vérifie ) +Nσ 2 ρn . L ÉCO Exercice 7. . V ar(Zn+1 ) = ρ2 V ar(ZCn H IQU TE O LY que V ar(Zn ) = σ2 (ρ2n−2 + .EAinsi. 2) Par l’exercice 7.

Nous en concluons donc que (Wn − W )2 P converge presque-sûrement L Evers 0. La formule se LE 2) Rappelons que la fonction génératrice O É C vérifie aisément. 1[. . plus la population issuTde l’ancêtre. Ainsi la série de terme N Par suite. j=1 ρ − 1 − ρx(ρ − 1) ρ − 1 − ρx(ρn − 1) 1−ρ ∗ (1−2p) Comme ρ < 1. EZ ∗ a même loi que 1 + Ẑ + . σ2 1 1 σ2 1 Å ã E((Wn+p − Wn )2 ) = − n+p = (ρp − 1) n+p . . .8. nous sommes dans le cas d’un branchement sous-critique et la probabilité d’extinction vaut 1.CAinsi. où Gn est la fonction géné- ratrice de Zn . la variable aléatoire P n (Wn T −EW C)H 2 est finie presque-sûrement. Ainsi. P p E(Y ) = g 0 (1) = 1−p = ρ. Ainsi. ρn tend vers 0. alors 1−p < 21 . . I Qgénéral ρn .5. sont indépendants et Ẑn deÉloi Zn . Remarquons que ρ − 1 se met en facteur dans chaque terme. Zn∗ est composé de un migrant. . et de même loi. Gn (x). 1 ∗ 4-b) Nous en déduisons que E(xZn ) = xG1 (x) . E =U k xk pk (1 − p) = Exercice 7. nous obtenons que E((W − σ2 Wn )2 ) = ρ(ρ−1) 1 U E E((W − Wn )2 ) converge. limn→∞ E(xZn ) = x 1−ρx = x 1−p(1+x) = L(x).7 : 1) Soit x ∈ [0. E 4-a) A chaque temps n. p 3) Si p < 12 .6 – Corrigés des exercices du chapitre 7 235 Nous avons E((Wn+p − Wn )2 ) = E((Wn+p )2 ) − E((Wn )2 ). ◦ g. Ainsi. + Ẑ n où les Ẑn . Ainsi. Alors g(x) = E(xY I)Q 1−p N 1−px . plus N QlaUpremière génération Iissu E C H Ẑ1 issu du migrant précédent. Comme les racines de P O ces processus de branchement sont indépendantes. et ρ > 1. plus la deuxième génération du migrant arrivé au L Y temps d’avant plus . . et donc en particulier son terme général tend O L Y vers 0. car E(Wn+p Wn ) = ρp E((Wn )2 ) par la question précedente. n fois. les arbres qui en sont issus sont L O n indépendants. . par la question 2). . YT ECH O L P de Zn vaut g ◦ . n Ä ∗ä Y ρj − 1 − ρx(ρj − 1) ρ−1 E xZn = x j+1 j = x n+1 . ÉCO σ2 Nous avons E(W ) = limn E(Wn ) = 1 et V ar(W ) = limn V ar(Wn ) = ρ(ρ−1) . . l’espérance de la loi de reproduction est infé- rieure à 1. ρ(ρ − 1) ρn ρ ρ(ρ − 1) ρ qui tend vers 0 quand n tend vers l’infini. En faisant tendre p vers l’infini dans l’expression ci-dessus.

ce qui1−ρx veut dire que N E C H converge vers une variable aléatoire le processus conditionné à ne jamais s’éteindre T O LY strictement positive.c) Par la question précédente. quand n Q tend vers l’infini. 1 − ρn+1 −1 E Le calcul montre que cette probabilité conditionnelle converge vers x(1−ρ) .236 Chapitre 8 – Corrections des exercices 4 . Ainsi l’espérance vaut 1 et le branchement est critique. E L É CO 1 5) La loi de Z1 est alors une loi géométrique de paramètre 2. P de même loi que la limite de Zn∗ lorsque n tend vers l’infini. E La récurrence donnant la valeur de Gn s’établit sans problème. E(xZn 1Zn >0 ) E(xZn ) − P(Zn = 0) E(xZn | Zn > 0) = = P(Zn > 0) 1 − P(Zn = 0) ρn −1−ρx(ρn−1 −1) ρn −1 ρn+1 −1−ρx(ρn −1) − ρn+1 −1 = ρn −1 . Cette fonction génératrice est InonUtriviale. U IQ On a P(Zn = 0) = n n+1 . et finie presque-sûrement.. Nous en déduisons que C HN LY TE PZO =E n 1 Zn .

.

E n 1Zn >0 n+1 .

. Par la propriété Exercice 7. j) = Q(j. X0 ) = (i. j)). Nous avons P((X0 .5. X1 ) = (i. LE ÉCO i i i (ii) Soit (i. E I =Uπ(j). Ainsi. l’espérance du processus conditionné à la non-extinction tend vers l’infini quand n tend vers l’infini. j) = π(j) Q(j. j) ∈ E 2 . i) = π(j). n É C P(Z n > 0) 1 − n+1 n qui tend vers 1 quand n tend vers l’infini. nous avons H N Y T E CX π(j) P O Li) = π(j) Q(j. dans ce cas critique. Zn > 0O L Å ã n E = n = .8 : (i) Nous devons montrer que i π(i) Q(i. j)Q P de réversibilité. Nous en déduisons le résultat. X X π(i) Q(i. i) = P((X1 . j)) = π(i) Q(i.

y) = √ e−y 1D (x. il choisit au hasard un des k convives déjà attablés avec la 237 . y 2 > x}. admettant la densité suivante sur R2 : 1 f (x. y). n. Pour tout entier k ≥ 1. Des individus numérotés 1. . arrivent successivement dans une salle de restaurant contenant une infinité de tables infiniment longues. . y > 0. 2 x IQ UE 1) Les variables X et Y sont-elles indépendantes ?E C HN O LYT P LE 2) Quelles sont les densités de XOet de Y ? ÉC √ 3) Calculer la densité du couple (X. 2. . lorsque l’individu k + 1 arrive. Y ) de variables aléatoires réelles. où D = {(x. Z). Les variables X et Z sont-elles indépendantes ? Problème 1 : La métaphore de la cantine. Le premier individu s’assied à une table. . où Z = Y − X.Chapitre 9 IQ UE C HN O LYTE Textes et CO Lcorrigés E d’examens P É Examen Ecole Polytechnique 2007 I Q UE N T E CH Exercice P O LY É C OLE Soit un couple (X. . . . Soit θ un réel strictement positif. y) : x > 0.

(On laissera le résultat sous forme de somme. Justifier que cette équation caractérise ÉCO 3) Calculer E(Kn ) et V ar(Kn ). . .b) En déduire que n−1 E Ln (θx) Qi). U E 2. . trouver une relation entre qn+1. (1 + θ) . .i xi . 2. OL E ÉC i=1 2. on note qn. ou occupe une nouvelle table avec la θ probabilité k+θ .b) Pour tous 2 ≤ i ≤ n. . dans un échantillon NI H TEC 1.i . dances respectives de chaque espèce.a) Montrer. qn.i et qn. indépendamment de ce qui s’est passé avant. i=1 où les εi . . . Soit Pn le polynôme défini pour tout x ∈ R par NIQ nT E CH OL PnP(x) = YX qn. à partir du modèle. 1. L’entier Kn désigne le nombre de tables occupées lorsque n convives sont installés et pour 1 ≤ i ≤ n. on cherche à retrouver directement les résultats précédents.U (xI+ Y Pn (x) = .1 (n + θ)(n − 1 + θ) . où Ln (x) = Ln (θ) H N TEC i=0 P O LY L E la loi de Kn. i = 1. 4.) 4) Dans cette question.238 Chapitre 9 – Textes et corrigés d’examens 1 probabilité k+θ et s’assied à la même table. Remarque : ce modèle est utilisé pour décrire la loi du nombre d’espèces et des abon- E Q U de n individus. que n X Kn = εi .i−1 .a) Donner une relation de récurrence vérifiée par (Pn )n . a) Montrer que P O LY LE = n! ÉCO qn+1. n sont des variables aléatoires de Bernoulli indépendantes dont on précisera les paramètres.i = P(Kn = i).

b) Retrouver par cette méthode les valeurs de E(Kn ) et de V ar(Kn ). n U E Problème 2 NIQ Y T ECH L aléatoires réelles indépendantes. la loi de la variable Tn a la densité xn−1 −x fn (x) = e 1[0.Chapitre 9 – Textes et corrigés d’examens 239 4. (n − 1)! 4) En déduire que pour tout t > 0.c) Etudier la différence V ar(Kn ) − E(K H en déduire un équivalent de V ar(Kn ) EnC) et Y T POL quand n → +∞. quand n → +∞. IQ UE 1) Calculer l’espérance et la variance de chaque Tn . + S . de même P Otout On considère une suite (Sn )n≥1 de variables loi exponentielle de paramètreL1. on pose ÉCO T = S + . ÉC En déduire que P(T∞ = ∞) = 1. C HN O LYTE P L E de la suite 2) Décrire le comportement asymptotique O ( Tnn )n quand n tend vers l’infini. E N IQU 5. On pose Nt = n si Tn ≤ t < Tn+1 pour un entier n. .b) En déduire un équivalent de E(Kn ) quand n → +∞. et Nt = ∞ si T∞ ≤ t. 0 θ+x 0 θ+x 5. Nt suit une loi de Poisson de paramètre t. L E 5. a) Montrer que n n−1 θ θ Z Z dx ≤ E(Kn ) ≤ 1 + dx. N√ t −t 5) Trouver la limite en loi des variables t lorsque t tend vers l’infini.∞[ (x).EPour entier n ≥ 1.d) En déduire que É ClnKO n converge en probabilité vers θ. . 5. . 3) Montrer que pour tout entier n ≥ 1. n 1 n T0 = 0 et T∞ = limn Tn .

. z) = √ 2 x e−z− x 1R+ (x)1R+ (z).240 Chapitre 9 – Textes et corrigés d’examens 6) Soit U1 . E PO D 2 x L É C O (x. . E I QU H N2007 Corrigé de l’examen Ecole Polytechnique C O LYTE P LE Exercice ÉCO 1) Les variables X et Y ne sont pas indépendantes car la densité du couple ne se met pas sous la forme d’un produit d’une fonction de x par une fonction de y (puisque D n’est pas un rectangle). 1]. Cette fonction est le produit d’une fonction de x par une fonction de z. une suite de variables aléatoires indépendantes de même loi uniforme sur [0. 1]. y)dx = √ e−y 1R+ (y)dx = ye−y 1R+ (y). donc les variables X et Z sont indépendantes. Z)) = f (x. Montrer que pour tout t dans [0. y − x)dxdyLY √ e−y g(x. qui s’inverse en √ On fait le changement √ de variables x = x et y = z + x. y − x)dxdy. les variables Nt et Yt ont même loi. . y) 7→ (x. donc 1 √ Z Z E(g(X. −∞ 0 2 x E 3) Pour toute fonction bornée g sur R2 on a Z CZ HN IQU √ =T E 1 √ Z Z E(g(X. U E NIQ 2) Les densités fX et fY de X et Y sont ECH Z ∞ LY T O 1 −y = P√ Z ∞ √ 1 fX (x) = L f (x. y)dy E √ e 1R+ (x)dy = √ e− x 1R+ (x). de loi de Poisson de paramètre 1. . Sinon. z) avec z0 = y −2 x. 1]. . Le domaine D est transformé en D = R+ . et Z une variable indépendante des précédentes. on note Yt le nombre de variables Un telles que 1 ≤ n ≤ Z et Un ≤ t.Z) (x. et le jacobien est 1. . CO x 2 x 2 x Z ∞ É −∞ Z y2 1 fY (y) = f (x. . z)dxdz D0 2 x √ 1 et la densité de (X. Si Z = 0. Un . Z) est f(X. Z)) = √ e−z− x g(x. on pose Yt = 0 pour tout t ∈ [0. . y)g(x.

(1 + θ) (n + θ)(n − 1 + θ) .i = i) L E P(Kn+1 = O C É = i|Kn = i) P(Kn = i) + P(Kn+1 = i|Kn = i − 1) P(Kn = i − 1) = P(Kn+1 n θ = qn. . .b) Soit 2 ≤ i ≤ n.b) La forme de Pn découle immédiatement de la formule précédente. De plus. V ar(Kn ) = Pn00 (1) + Pn0 (1) − (Pn0 (1))2 .1 = P(Kn+1 = 1) = P(Kn+1 = 1|Kn = 1) P(Kn = 1) n (n − 1)! n! = × = . qn+1.1 x + qn+1. nL+Y PO ÉC OLE 2.n+1 (1+θ)..i + qn. En utilisant les dérivées logarithmiques de Pn . n + θ (n − 1 + θ) ..a) Montrons la formule par récurrence. .a) TE CH LY E n+1 PO L C O qn+1. n+θ n+θ U E NIQ 2. .i−1 . ce qui entraîne que NI Q n + θx PE C H θT Pn+1 (x) = n (x). i=2 θn U E= On applique alors la relation de récurrence et le fait que qn+1. Remarquons que Pn est égal pour x ∈ [0. on obtient n−1 n−1 ! X θ X θ 0 Pn (x) = Pn (x) . (1 + θ) IQ UE C HN 1. 1] à la fonction génératrice de Kn et donc la connaissance de Pn suffit à caractériser la loi de Kn .i x X i Pn+1 (x) = É i=1 n X = qn+1. On a O LYTE P qn+1.n+1 xn+1 .Chapitre 9 – Textes et corrigés d’examens 241 Problème 1 1 1. 3) Puisque Pn est indéfiniment dérivable en 1. on sait par le cours que E(Kn ) = Pn0 (1) . d’où Pn0 (1) = i=0 i + θx i=0 i+θ .i xi + qn+1. On a immédiatement P(K2 = 1) = 1+θ .(n+θ) .

b) E(Kn ) = ni=1 E(εi ) = ni=1 θ Pn−1 θ = i=0 i+θ . puisque les εi sont P P θ+i−1 indépendantes. en θ remarquant que θ+i est la borne supérieure de la fonction sur l’intervalle [i.242 Chapitre 9 – Textes et corrigés d’examens et de même. Ainsi. i=0 i+θ i+θ IQ UE HN L Y T E Clealéatoire 4. paramètre de cette variable est θ+i−1 .a) On utilise la décroissance de la fonction x → θ+x pour obtenir l’encadrement. L E ÉCO Ä ä2 5. i[. Ainsi. i=0 i+θ i=0 i+θ On en déduit que n−1 θ θ X Å ã V ar(Kn ) = 1− . on a Å. 5.c) On a V ar(Kn ) − E(Kn ) = − n−1 θ .d) En utilisant l’inégalité triangulaire. n−1 ã2 n−1 !2 XÅ θ X θ Pn00 (1) =− + . De même. ÉCO 4. i=0 i+θ i+θ θ 5. qui tend donc vers une constante quand n tend vers l’infini. C’est une somme partielle de sé- P i=0 i+θ rie convergente. IQU EC HN LY T 5. i + 1[ et E la borne inférieure sur l’intervalle [i − 1. Eã I Q θU n 1 −N θ Å i − 1 +EθC H i − 1 + θ X V ar(Kn ) = T O LθY Å i=1 E P n−1 θ ã L= ÉCO X 1− . E P L Les variables sont par hypothèses indépendantes.a) Au convive i ≥ 1. on associe la variable de Bernoulli εi qui vaut 1 si i O θ choisit une nouvelle table et 0 sinon.b) En intégrant de part et d’autre deOE(Kn ). on obtient immédiatement qu’un P équivalent de E(Kn ) est θ ln n. V ar(Kn ) a également pour équivalent θ ln n.

.

Å.

.

Å.

.

.

Kn .

Kn E(Kn ) .

.

ε .

E(Kn ) .

ε ã ã ã .

P .

.

− θ.

.

≥ ε ≤ P .

.

− ≥ + P .

− θ .

≥ .

2 . ln n ln n ln n .

2 .

ln n Le deuxième terme tend vers 0 par la question 5.b. .

Chapitre 9 – Textes et corrigés d’examens 243 En utilisant l’inégalité de Bienaymé-Chebyshev. on a Kn 4V ar( ln n) C te Å.

.

.

Kn .

ε 4 ã P .

.

− θ.

.

Comme de plus Tn ≥ 0 p. Par suite. On a C H1 ) = 0 xe dx = 1. que n admet la densité f1 . . Z Z x fn (x) = fn−1 (x − y)f1 (y)dy = Qy)f fn−1 (xI − EC 0 HN Le calcul de fn est alors immédiat. .. TE E(S On a V ar(Tn ) = nV ar(S1 ) car les LSY 1 . N√ t −t 5) La fonction caractéristique de Vt = t est √ √ √ √ √ t−t+teiu/ t φt (u) = E(eiu(Nt −t)/ t) = e−iu t E(ei(u/ t)Nt ) = e−iu . Il est facile de voir que V ar(SE =O 1) P 1. ln n 2 ε (ln n) ε ε ln n Kn Ainsi.s. 2) D’après la loi des grands nombres. Si n ≥ 1 on a {Nt = n} = {Tn ≤ t < Tn+1 } = {Tn ≤ t}\{Tn+1 ≤ t}. OLE C donc P(Nt = 0) = P(T1 > t) = e−t . . Sn sont indépendantes et de même loi.s. D’après la forme du produit de convolution. ≥ ≤ 2 = 2 2 V ar(Kn ) ≤ 2 . PO LY T 4) On a {N0 = 0} = {T1 >Ét}. la densité de T1 = S1 vaut f1 . ln n converge en probabilité vers θ. Problème 2 E N I QR ∞U −x 1) On a E(Tn ) = nE(S1 ) par linéarité. donc E(Tn ) = n. Clairement. et donc admet une densité notée fn .s. on peut choisir fn nulle sur R− . la suite Tn /n converge presque sûrement vers ∞U la moyenne E(S1 ) = 1. 0 (n − 1)! n! 0 n! n d’où l’on déduit que P(Nt = n) = P(Tn ≤ t) − P(Tn+1 ≤ t) = e−t tn! . Ainsi. . N T E CH P O LSY 3) Le résultat se montre par récurrence. On remarque que Tn = Tn−1 + O L En S . la loi de Tn est le produit de convolution des lois de Tn−1 et de Sn . . et donc O L ÉC E(Tn ) = n .. on sait que si x ≥ 0 : U E1 (y)dy. et par suite ITQ E = +∞ p. P(Nt = n) = P(Tn ≤ t) − P(Tn+1 ≤ t). V ar(Tn ) = n. et que les variables É C Tn−1 et Sn sont indépendantes. Une intégration par parties sur P(Tn ≤ t) donne Z t Z t n xn−1 −x −t t n x −x P(Tn ≤ t) = e dx = e + e dx. donc Tn → ∞ p.

parmi les k premières variables U1 . . On sup- pose que X suit la loi uniforme sur [0. . . 1] et que Y suit une loi Gamma Γ(2. le nombre de ces variables inférieures ou égales à t suit clairement une loi binomiale de taille k etQ E deUparamètre P(U1 ≤ t) = t. . les k variables U1 . T ). 1) Donner la loi du couple (X. en vertu de la question 4. il y en a exactement n qui sont inférieures ou égales à t. 2) Quelle est la loi de T conditionnellement à X = x ? . Y ) de variables aléatoires réelles indépendantes. on déduit alors du théorème de Lévy que Vt converge en loi vers une variable normale centrée réduite. Si maintenant k ≥ 1. ÉC k=n n!(k − n)! n! d’où le résultat. de sorte que E ∞ N I∞Q U E k})H= k=n P(Ak |Z = k)P(Z = k) P(Ak ∩ {Z = C X X P(Yt = n) = Y T P∞O1L k=n = L E É C O k=n k! k X −1 e P(A |Z = k). On a {Yt = n} = ∪k≥n ({Z = k} ∩ Ak ). . N I k! n Donc P(Ak |Z = k) = n!(k−n)! t (1 − t) k−n si n ≤Ck. UE H NIQ LY TEC Examen Ecole Polytechnique 2008 E PO L Exercice I ÉCO On considère un couple (X. . Soit Ak l’ensemble sur lequel. 6) Fixons n et t. Uk étant indépendantes et de même loi. On pose T = X + Y .H Il vient alors LY TE ∞ PO LE 1 tn X e−1 P(Yt = n) = O tn (1 − t)k−n = e−t . 1) de densité ye−y 1{y>0} . Uk . . . Remarquons que P(A0 |Z = 0) = 1 si n = 0.244 Chapitre 9 – Textes et corrigés d’examens Il est très facile de vérifier que l’exposant de l’exponentielle ci-dessus converge vers 2 −u2 /2 quand t → ∞. Comme u 7→ e−u /2 est la fonction caractéristique de la loi normale centrée réduite.

. O L É C 3) Montrer que n X u2 2 ln φ Sn (u) ∼n→+∞ − j n3/2 j=1 6n3 IQ UE C HN 4) En déduire que O LYTE P −u2 LE lim φ (u) = e . Exercice II IQ UE HN L Y T E C indépendantes telle que Xj a une loi Soit (Xj )j≥1 une suite de variables aléatoires uniforme sur [−j.. uj N IQ YT ECH O L P la fonction caractéristique 2) On note Sn = X1 + . PO LE ÉCO 1) Montrer que pour tout j. Sn 18 ÉCO n→+∞ n3/2 Sn puis que la suite de variables aléatoires n3/2 converge en loi vers une variable aléatoire Z dont on précisera la loi. + Xn . la fonction caractéristique de Xj est égale pour tout u∈Rà sin(uj) UE φXj (u) = . Pn n(n+1)(2n+1) (On rappelle que j=1 j2 = 6 ).Chapitre 9 – Textes et corrigés d’examens 245 Calculer l’espérance conditionnelle E(T |X). . E Calculer φSn de Sn . j]. Calculer σj2 . 5) On note σj2 la variance de la variable aléatoire Xj . 3) Quelle est la loi marginale de T ? Calculer par au moins deux méthodes différentes l’espérance de T . Montrer que la suite de variables aléatoires pPSnn converge en loi vers une variable j=1 σj2 aléatoire normale centrée réduite.

on introduit une nouvelle application Pt définie sur l’ensemble des parties de Ω par E(1A . On note sup X = supni=1 xi et inf X = inf ni=1 xi . Y T E P O L ***** L ÉCO Soit X une variable aléatoire définie sur un espace aléatoire Ω fini. E(etX ) 1-b) En déduire la valeur de l’espérance Et (Y ) d’une variable aléatoire Y sous cette nouvelle probabilité Pt . on a E N I QU E H 2 2 E((X − E(X)) ) ≤ C E((X − m) ). LE ÉCO Montrer que Pt définit une nouvelle probabilité sur Ω telle que P({ω}) etX(ω) Pt ({ω}) = . en fonction de l’espérance sous P. · · · .246 Chapitre 9 – Textes et corrigés d’examens Comparer ce résultat avec le théorème de la limite centrale ? Problème Question préliminaire : Soit X une variable aléatoire intégrable. On appelle oscillation de X. notéeI Q U E le nombre Osc(X) N T E CH O LY Osc(X) = sup X − inf X. Montrer que pour tout m ∈ R. muni d’une probabilité P (définie sur l’ensemble des parties de Ω). 1-c) Que vaut Et (Y ) si les variables aléatoires Y et X sont indépendantes ? . UE E(etX ) IQ HN TEC LY telle que 1A (ω) = 1 si ω ∈ A et On rappelle que 1A désigne la variable O aléatoire P 1A (ω) = 0 si ω ∈ / A. P LE ÉCO 1-a) Pour chaque t ∈ R. qui est donc un ensemble fini {x1 . xn }. On appelle X(Ω) l’ensemble de ses valeurs. etX ) Pt (A) = .

Calculer N pour t ∈ R en utilisant l’opérateur Et .Chapitre 9 – Textes et corrigés d’examens 247 1-d) Exemple : Ω = {0. 2) Montrer que pour tout t ∈ R. · · · . X est une variable binomiale de paramètres n et p et Y = 2X .1) E I Q U(9. P OL É C OLE 3) On définit Ä ä f (t) = ln E et(X−E(X)) . . 1 5) Nous souhaitons montrer que la constante obtenue dans N 8 T E CH Considérons la variable aléatoire S de loi : LY E PO L É C=O1) = P(S = −1) = 2 . 1 P(S 1 Calculer limt→0 t2 ln E(etS ) et la comparer à Osc(S). (9. 2 1 Osc(X)2 −tr P(X − E(X) > r) ≤ e 8 t . 4 N T E C HOsc(X) (Pour cela. f 0 (t) et f 00 (t). Calculer Et (Y ).1) est optimale.0. 1 En déduire que la constante 8 est optimale. 4) En déduire que pour tout É t2 Osc(X)2 Ä ä E et(X−E(X)) ≤ e 8 . 6) Montrer que pour tout t > 0 et r > 0. on pourra introduire m Y = inf X + 2 ). ECH YT P O L L E C Ot ∈ R.0. E I QfU(0). Justifier que la fonction f est de classe C 2 sur R. f 0 (0). 1 2E IQU Et ((X − Et (X))2 ) ≤ Osc(X) . n}.

1] (x)ye−y N I Q(y). Z ∞ Z ∞ E(T |X = x) = t fT |X=x (t)dt = t(t − x)e−(t−x) dt Z0 ∞ x −u = (u + x)ue du = x + 2.248 Chapitre 9 – Textes et corrigés d’examens puis que 2r 2 − Osc(X) P(X − E(X) > r) ≤ e 2 . Montrer que E N IQU ≤H Ä Pn ä 1 2 2 TEC t( Xi −nE(X)) n t Osc(X) E e i=1 e 8 . f (x.∞[(t). 0 . pour x ∈ [0.1]E O LY P − x)e−(t−x) 1]x. 7) Soit (Xn )n une suite de variables aléatoires indépendantes de même loi que X. t) fT |X=x (t) = = (t − x)e−(t−x) 1]x. t) = 1[0. fX (x) On calcule alors. Y 8) En déduire que POL LE ÉCO n ! 2n r2 1X − P Xi − E(X) > r ≤e Osc(X)2 . 1]. U E NIQ TE CH LY PO LE É CO Corrigé de l’examen Ecole Polytechnique 2008 Exercice I 1) La loi du couple (X. Y ) admet la densité 1[0.∞[ (t). T ) admet donc la densité définie par x = x. n i=1 Commenter ce résultat. LeTcouple f (x. y = t − x est de jacobien 1. 1]. L (x)(t ÉCO 2) La loi conditionnelle de T sachant T = x est donnée par la densité suivante : ∀x ∈ [0.∞[ UE H E C (X. La transformation 1]0.

t)dx = 1[0. 2 2 5 Z Z E(T ) = U E = 2. 2j −j uj 2) Puisque les variables aléatoires Xi sont indépendantes. Z Z fT (t) = (t − x)e−(t−x) dx −y −t 0 POL 0 Si t ≥ 1. 0 t−1 E I Q:U On peut calculer l’espérance E(T ) de différentes manières N T E CZ H E(T ) = Z ∞ tfT (t)dt = Z 1 +O (t2 P (t − E LY t)e−t )dt + ∞ (t2 e1−t − (t2 + t)e−t )dt = 5 . on a ÉC OLE Z 1 Z t fT (t) = (t − x)e−(t−x) dx = ye−y dy = te1−t − (1 + t)e−t .Chapitre 9 – Textes et corrigés d’examens 249 Ainsi.t] (x)dx. L ÉCO 0 0 1 2 Mais on a plus simple ! 1 5 E(T ) = E(X + Y ) = E(X) + E(Y ) = + 2 = .1] (x)(t − x)e−(t−x) 1[0. 3) La densité marginale de T admet la densité : Z Z fT (t) = f (x. Si 0 < t ≤ 1. j=1 uj un n! j=1 . E(T |T = x)fX (x)dx = (x + 2)fX (x)dx Q NI H TEC P O LY Exercice II LE ÉCO 1) j 1 sin uj Z φXj (u) = ei ux dx = . nous avons n Å n sin uj 1 Y ã Y φSn (u) = = (sin uj) . on a IQ UE t C t HN Y T=E ye dy = 1 − (1 + t)e . E(T |X) = X + 2.

vers une variable aléatoire de loi normale N (0. si nous calculons la fonction j=1 σj2 au point u. 2j −j 3 On a donc que E n3I Q U Ã n n(n + 1)(2n + 1) N ECH 9 X σj2 = ∼n→∞ . nous avons u2 φ pPSn (u) = φ Sn (3u) →n→∞ e− 2 . O 18 Pn→+∞ Sn O L E n3/2 On remarque que cetteÉ C limite est la fonction caractéristique d’une loi normale centrée et de variance 91 . 19 ). nous obtenons immédiatement que 3n n n 2 Y u  φ Sn (u) = sin j . quand n tend vers l’infini. Y POL LE ÉCO 1 Z j j2 σj2 = x2 dx = . D’après le théorème de Lévy nous pouvons en conclure que la suite ( nS3/2 n )n converge en loi. Nous avons ainsi montré un théorème de la limite centrale dans un cas où les variables aléatoires (Xj ) sont indépendantes mais pas de même loi. nous en déduisons j=1 H NI limLY φ TEC (u) = e −u2 . n3/2 un n! j=1 n3/2 En utilisant un développement limité à l’ordre 3 de sin x au voisinage de 0. puis de u ln sinx x à l’ordre 2. imposant des conditions sur les suites des espérances et variances des Xj . nous obtenons le résultat voulu. U E H NIQ T E C on a 5) Puisque les variables aléatoires Xj sont centrées. n σ2 n3/2 j=1 j Toujours par le théorème de Lévy. E Q U immédiatement que Pn 4) En utilisant la valeur de j 2 . 18 j=1 O LYT P ÉC O L E caractéristique de pPSnn Ainsi donc. nous en déduisons l’équivalent voulu. Il y a de nombreuses va- riantes de telles généralisations. pris au point n3/2 .250 Chapitre 9 – Textes et corrigés d’examens 3) En utilisant la question 2). .

On remarque que Osc(X) Osc(X) X − m = X − inf X − ≤ . E Udemandée. puisque Ω est un ensemble fini. E(etX ) E(etX ) ω∈Ω 1-c) Si X et Y sont indépendantes. E(Y )E(etX Et (Y ) = P ) E E(e tX L ÉCO 1-d) E((2et )X ) (2et p + 1 − p)n Et (2X ) = tX = . Cela suffit. LE ÉCO Pt (A ∪ B) = Pt (A) + Pt (B). on a IQ UE C HN O L Y)T=E E(Y ).Chapitre 9 – Textes et corrigés d’examens 251 Problème Question préliminaire : Soit Q(m) le polynôme défini par Q(m) = E((X − m)2 ). En prenant A = {ω}. avec m = inf X + 2 . IQ UE C HN E = 1 et que Pt est additive sur l’ensemble 1-a) On a de manière évidente que Y PtT(Ω) L tels des parties de Ω : pour tous APetOB que A ∩ B = ∅. E(e ) (et p + 1 − p)n Osc(X) 2) On applique la question préliminaire à l’espérance Et . et ce polynôme atteint son minimum en m = E(X). 2 2 . On a alors Q(m) = E(X 2 ) − 2mE(X) + m2 . pour assurer que Pt est une probabilité. on obtient immédiatement la formule N IQ YT ECH 1-b) On a alors P O L XL E Et (Y ) =É C O Y (ω)Pt ({ω}) ω∈Ω 1 X tX(ω) E(Y etX ) = Y (ω)P({ω}) e = .

l’espérance E et(X−E(X)) est une  somme finie de fonctions de classe C ∞ en t. 2 f 00 (t) = Et ((X − E(X))2 ) − (Et (X − E(X))) = Et ((X − Et (X))2 ). donc il en est de même pour son logarithme. et E(e É C O 1 1 lim E(etS ) = . IQ UE EC HN YT 4) En utilisant la formule de Taylor-Lagrange O L à l’ordre 2 et une majoration de f 00 (t) 1 2 P par 4 Osc(X) prouvée à laEquestion 2). Elle ne s’annule pas.252 Chapitre 9 – Textes et corrigés d’examens 3) Puisque nous sommes sur un espace Ω fini. De plus. puisque Osc(S) = 2. ait H L Y TEC P O≤ e 2 2 Ä ä t(X−E(X)) C t Osc(X) E e . t −t e +e 5) Nous avons E(S) = 0. f 0 (t) = Et (X − E(X)). on aurait 1 lim E(etS ) ≤ C Osc(X)2 . Ainsi. 2 t2 Osc(X)2 t2 ≤ = Osc(X)2 . u ∈ [0. E qu’il existe une N constante 0 < C < 18 telle que pour toute variable aléatoire Q Uondire Supposons que la constante 18 ne soit pas optimale. 2 4 8 UE IQ N YT ECH tS P O L L E) = 2 = cos t. ÉC OLE Mais alors. t]. nous avons Ä ä Ä ä P(X − E(X) > r) = P et(X−E(X)) > et r ≤ e−t r E et(X−E(X)) 2 1 Osc(X)2 ≤ e−t r e 8 t . On a f (0) = 0 . 6) Pour tous t > 0 et r > 0. . nous obtenons que pour tout t ∈ R. f 0 (0) = 0 . Cela voudrait I X. t→0 t2 2 1 1 Remarquons que 2 = 8 Osc(S)2 . t→0 t2 ce qui est contradictoire avec le résultat obtenu pour la variable aléatoire S ci-dessus. L ÉCO t2 00 f (t) = f (0) + tf 0 (0) + f (u).

nous avons Ä Pn ä n Y Ä ä E et ( i=1 Xi −nE(X)) = E et (Xi −E(X)) UE i=1 IQ HN 2 1 Osc(X)2 ≤ e8 nt par la question 6). le minimum vaut e Osc(X) . Donner sans calcul la moyenne et la variance de S. Donner la loi du couple de variables aléatoires (S. 2. 7) Puisque les variables aléatoires Xi sont indépendantes. nous trouvons que t = Osc(X)2 2 − 2r 2 réalise le minimum. il faut un r d’ordre √n pour arriver 1 Nous remarquons en particulier à un contrôle qui ne tend pas vers 0. E POL L ÉCO Exercice Soient S et T deux variables aléatoires indépendantes. On suppose que S suit une loi normale de densité f (s) = (2π)−1/2 exp(−s2 /2) et que T est une variable aléatoire positive de loi de densité 2f (t)1R∗+ (t). PO n L E É C O que si n est grand. E N IQU Examen Ecole Polytechnique 2009 Y T E C H(proposé par Stéphanie Allas- sonnière et Caroline Hillairet).Chapitre 9 – Textes et corrigés d’examens 253 4r En minimisant le terme de droite sur les valeurs de t. 1. On définit U = S 2 + T 2 et V = TS . T ). TEC P O LY L E à celle de la question 6) nous en déduisons que ÉCO 8) Par une démarche analogue n ! 1X 2n r2 − P Xi − E(X) > r ≤e Osc(X)2 . Nous retrouvons bien l’ordre de grandeur de la vitesse de convergence donnée par le théorème de la limite centrale. Ce quiEest intéressant est que c’est une borne LY exacte. . Calculer E(U ). au sens où elle est vraie pour tout et non pas seulement pour n grand. n i=1 E I Q U entre la moyenne arith- Cette inégalité nous donne un contrôle exponentiel de l’écart N T CH métique des variables et leur espérance. et que pour cette valeur de t.

On fixe k paires distinctes de noeuds. 1.E H graphe à n noeuds vérifiant les p)Cun Y T POL propriétés précédentes. Un exemple directement reliées par un lien. PO LY T L E ÉCO Soit E = {1. Ces liens sont est présenté ci-dessous. p) ait exactement ces k paires de .j sont indépendantes et que deux noeuds distincts sont liés avec probabilité p (0 < p < 1).j = 1 s’il existe une arête entre les noeuds i et j et 0 sinon. 4. (a) Calculer le nombre maximal d’arêtes dans un graphe aléatoire de type G(n.j telle que Ti. Les variables aléatoires U et V sont-elles indépendantes ? Reconnaître les lois de ces variables aléatoires. Montrer que la probabilité qu’un graphe G de type G(n. N IQU On appelle graphe aléatoire de type G(n. On suppose que les Ti. n} l’ensemble des n noeuds ordonnés d’un graphe G. Problème I.254 Chapitre 9 – Textes et corrigés d’examens 3. on définit la variable aléatoire Ti. L E É CO Les graphes aléatoires sont très utilisés pour la modélisation de réseaux biologiques. 9... Pour deux noeuds distincts i et j de E avec i < j. Graphes aléatoires E Un graphe est un ensemble de points.. Calculer la loi du couple de variables aléatoires (U. .iE= 0). p). V ). (b) Soit k ∈ R et k ≤ n. sociaux ou de communication. N I Q U dont certaines paires sont H E Cappelés les arêtes du graphe. IQ UE C HN O LYTE P LE ÉCO Fig. appelés noeuds.1 : Exemple de graphe. Un noeud ne peut pas être relié à lui même (Ti.

que l’on préciseraEsuivant (b) T Montrer que dans le cas oùOcL>Y1. P) telle que B0L=E 0. En déduire que E[Z Q I n ] converge C H Nles cas. Soit G un graphe de type G(n. On suppose désormais que n tend vers l’infini et que pn = c . On appelle noeud isolé un noeud qui n’est relié avec aucun autre noeud de G. On suppose de plus que pour tout (n. C2 . Quelle est la loi de Cn ? 2. où c > 0.j la variable aléatoire qui à tout graphe G de type G(n.0. C H TE LY noeud fixé soit isolé. la suite de O ∗ de terme général C = B − B . (finie ou infinie). où t V est la transposée du vecteur V .0. Soit Zn Q E leUnombre (aléatoire) de noeuds N I isolés dans G.3) 2 1. (a) Donner la fonction caractéristique du vecteur Sn = t (C1 . Å 2ã u E [exp (iuCn )] = exp − . (On pourra utiliser l’inégalité de Bienaymé-Chebyshev). n n→∞ (e) Interpréter les résultats précédents en termes d’existence de noeuds isolés. Problème II IQ UE HN TEC LY réelles définies sur un espace de Soit (Bn )n∈N une suite de variables O aléatoires P probabilité (Ω. LE P CO (b) MontrerÉque P(Zn = 0) ≤ V ar(Zn ) (E[Zn ])2 .2) (c) Soit X = Ti. p) P i<j associe son nombre d’arêtes. ln n 3. Cn ) ∈ Rn . u) ∈ N∗ × R. P (c) O L Eque deux noeuds fixés distincts soient isolés. En déduire que E[Zn ] = (a) Calculer la probabilitéOqu’un n(1 − p)n−1 . (9. . · · · . limn→∞ P(Zn ≥ 1) = 0. On définit. 2. Calculer la probabilité É C (d) En déduire E[Z 2 ]. Montrer que X suit une loi binomiale dont on précisera les paramètres. pour tout n ∈ N∗ . On suppose ÉnC)n∈N variables aléatoires réelles (C n n n−1 que (Cn )n∈N∗ est une suite de variables aléatoires indépendantes. Conclure que lim P(Zn = 0) = 0 lorsque c < 1.Chapitre 9 – Textes et corrigés d’examens 255 noeuds reliés est donnée par : n(n−1) pk (1 − p) 2 −k . U E n vers une limite (a) Montrer que E[Zn ] ∼ n1−c . A. p). (9.

O P P(R E de convergence de la série S ? le L (d) Qu’en conclure pour O rayon ÉC Corrigé de l’examen Ecole Polytechnique 2009 Exercice 1. EC H LY T 5. montrer N ECH 1 P(R ≥ a ) = 1. Prouver la convergence en loi de la suite deIvariables N et donner sa loi limite. f est la densité d’une loi normale centrée réduite. 3. (c) Déterminer un endomorphisme A de Rn tel que Tn = ASn pour tout n ≥ 1. T LY≤ a1 ) = 1. (d) En déduire que Tn est un vecteur gaussien dont on précisera la moyenne et la matrice de covariance. ω) = (Bn+1 (ω) − Bn (ω))z n = Cn+1 (ω)z n . LY n→∞ PO L E(xn )n∈N on définit : où pour une suite de réels ÉCO Ç å lim sup xn = lim sup xm . Montrer que la suite de terme général n−1 Bn . U E NIQ TE CH (R(ω))−1 = lim sup |Bn+1 (ω) − Bn (ω)|1/n . n ≥ 1 converge presque sûrement vers 0 quand n tend vers l’infini. E Q U aléatoires (n−1/2 Bn )n≥1 4. Bn ) ∈ Rn . (c) Montrer que pour tout a < 1.0. donc E(S) = 0 et V ar(S) = E(S 2 ) = 1. . On veut étudier le rayon de P Oconvergence R (aléatoire !) de la série entière aléa- toire S. S 2 et T 2 ont même loi donc E(U ) = 2 E(S 2 ) = 2. n∈N n∈N On rappelle que ∀ w ∈ Ω. où Tn = t (B1 . E U pour tout a > 1 : I Qque (b) En utilisant le lemme de Borel-Cantelli. B2 . par symétrie.256 Chapitre 9 – Textes et corrigés d’examens (b) Justifier que Sn est un vecteur gaussien centré de matrice de covariance égale à la matrice identité. définie pourLzE∈ C et ω ∈ Ω par : ÉCO X X S(z. De plus. (9.4) n→∞ n→∞ m≥n (a) Etudier la convergence de la série de terme général P(|Bn − Bn−1 | > an ) pour une constante a > 0. · · · .

3.Chapitre 9 – Textes et corrigés d’examens 257 2. Ainsi X suit une loi binomiale de para- mètres ( n(n−1) 2 . v) 1 e− Z 1 ÉC u E(h(U. 2 de classe C 1 et de Jacobien −2(1 + st2 )H non Q N Inul sur ce domaine : ψ est un C 1 - E C difféomorphisme et la formule deTchangement de variable entraîne P O LY O LV E)) = +∞ Z +∞ h(u. p). 2 n(n−1) C kn(n−1) correspondant au nombre de choix des k arêtes (parmi les 2 2 possibles) qui vont exister dans G. P UE 2 i<j N I Q (b) EC Il y a exactement ces k paires de noeuds liés H et les n(n−1) −k autres liaisons T 2 possibles n’existent pas dans G. ∗ E la forme fU (u)fV (v) 4. 0 ≤ k ≤ 2 . U est de loiY T E exponentielle de paramètre 12 et V est de loi de Cauchy. La densité trouvée à la question précédente se factoriseUsous 1 −u 1 avec fU (u) = 2 e 1R+ (u) et fV (v) = π(1+vH . DeYplus. PO L LE ÉCO Problème I : Graphes aléatoires n(n−1) 1. . les liaisons sont indépendantes et L la probabilité que G ait exactement P ODonc ont une probabilité p d’exister. la loi du couple (S. Z +∞ Z +∞  s E(h(U. (a) Le nombre maximal d’arêtes est égal à 1 soit . S et T étant des variables aléatoires indépendantes et à densité. n(n−1) P(X = k) = C kn(n−1) pk (1 − p) 2 −k . 0 −∞ 2 π(1 + v 2 ) u La loi du couple (U. T ) a pour densité le produit des densités marginales fS. t) → (u = s2 + t2 . 2f (s)f (t)dsdt. E L est ÉCO ces k paires de noeuds reliés n(n−1) pk (1 − p) 2 −k . v = st ) estU E bijective de R × R∗+ → R∗+ × R. n(n−1) (c) Soit k ∈ N. 2 dudv.T (s. V )) = h s 2 + t2 .N I Q Les variables aléatoires U et V C 2) 2 ∗ sont donc indépendantes. t) = 2f (s)f (t)1R∗+ (t). Soit h : R × R → R une fonction continue bornée. V ) est donc la loi de densité 21 e− 2 1 π(1+v 2 ) 1R+ (u). 0 −∞ t L’application ψ : (s.

(a) Pour tout i ∈ {1.. (a) Quand n tend vers l’infini. (E[Zn ])2 3. V ar(Zn ) E(Zn2 ) P(Zn = 0) ≤ 2 = −1 (E[Zn ]) (E[Zn ])2 1 n(n − 1)(1 − p)2n−3 = n−1 + −1 n(1 − p) n2 (1 − p)2(n−1) 1 (n − 1) = n−1 + − 1. nous avons I Q UE H N ln n C ln(1−c neE (n−1) ln n  =T (n−1) ln n) ln n = ne(n−1)(−c +o( n )) E[Zn ] = n 1−c Y n n n PO L = O L E ne−c ln n+o(ln n) ∼ n1−c . limn→∞ P(Zn ≥ 1) = 0.. Remarquons tout d’abord que pn = c lnnn tend vers 0 quand n tend vers l’infini. . P(Zn ≥ 1) ≤ E(Zn ). Par suite. soit Yi la variable aléatoire qui vaut 1 si le noeud i est isolé. Ti. (b) Par l’inégalité de Markov. TEC