Académique Documents
Professionnel Documents
Culture Documents
ProbabilitesFouquet PDF
ProbabilitesFouquet PDF
Probabilités
3 Probabilités conditionnelles 10
3.1 Fondations axiomatiques des probabilités conditionnelles . . . . . . . . . . . . . . . . 10
3.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3.1.2 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.2 Deux théorèmes fondamentaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.2.1 Formule des probabilités totales . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.2.2 Formule de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.3 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4 Variable aléatoire 14
1
4.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
4.2 Lois fondamentales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
4.2.1 Loi équirépartie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
4.2.2 Tirage de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4.2.3 Loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4.2.4 Loi géométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4.2.5 Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4.2.6 Loi hypergéométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4.3 Espérance, variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
4.3.1 Espérance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
4.3.2 Covariance, variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
4.3.3 Coefficient de corrélation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
4.4 Espérance et variance des lois fondamentales . . . . . . . . . . . . . . . . . . . . . . 19
4.4.1 Loi équirépartie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4.4.2 Tirage de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4.4.3 Loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4.4.4 Loi géométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.4.5 Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.4.6 Loi hypergéométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.5 Paradoxe du temps d’attente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.5.1 Motivation et formalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.5.2 Deux exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.5.3 Cas général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.5.4 Conclusion et applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.6.1 Lois binomiales itérées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.6.2 Variance des lois binomiales pondérées . . . . . . . . . . . . . . . . . . . . . . 26
4.6.3 Loi d’arrêt à pile ou face . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1 Combinatoire
1.1 Choix
Soit E = {e1 , e2 , · · · , en } un ensemble fini de cardinal n. Alors il existe n façons distinctes de choisir
un élément e de E. Le comptage du nombre de choix d’un élément dans un ensemble revient donc
à la détermination du cardinal de cet ensemble. A cette fin, il est bon de se souvenir que l’ensemble
A × B = {(a, b)|a ∈ A, b ∈ B} est de cardinal |A| × |B|. En particulier, si r est un entier, le cardinal
de E r est |E|r . Il existe donc np façons différentes de choisir p fois de suite un élément dans un
ensemble ayant n éléments.
2
Exemples : Il existe 7 × 12 = 84 choix d’un jour de la semaine et d’un mois de l’année. Il existe
63 = 216 résultats possibles lorsque l’on tire 3 fois de suite un dé usuel (à six faces). A l’heure
actuelle, il existe 14 candidats déclarés à l’élection présidentielle de 2012. Sauf en cas de victoire
au premier tour, deux de ces candidats s’affronteront au second tour. Il existe donc 14 × 2 = 28
possibilités distinctes (théoriques) de vote en cas d’une élection à deux tours.
Soit E = {e1 , e2 , · · · , en } un ensemble fini de cardinal n. Un ordre sur E est le choix d’une énu-
mération des éléments de E. Par définition, il existe factoriel n ordre sur E, ce que l’on note n!.
L’entier n! est égal à n × (n − 1) × (n − 2) × · · · × 3 × 2 × 1. Ceci se démontre par récurrence de la
manière suivante. Pour ordonner un E, il suffit de choisir un élément e que l’on place en première
place. Ceci peut se faire de n façons distinctes. Ensuite, il reste à ordonner l’ensemble E − {e}, qui
est de cardinal n − 1. Il existe donc (n − 1)! façons de procéder. Il y a donc n × (n − 1)! façons
d’ordonner E. Donc n! = n(n − 1) · · · 2 · 1.
Notons que, un peu par convention et aussi un peu pour des raisons de cohérence interne, on
considère qu’il existe un unique 0-arrangement (et non pas 0) dans un ensemble à n éléments
lorsque n > 0. Donc A0n = 1.
De manière alternative, et quasiment équivalente, on peut remarquer qu’un p-arrangement se
prolonge en un ordre sur les n éléments de E de (n − p)! façons distinctes et que tous les ordres sur
E sont construits de cette manière. Donc :
n!
Apn =
(n − p)!
Soit E = {e1 , e2 , · · · , en } un ensemble fini de cardinal n et soit p un entier. Un p-uplet (eij )1≤j≤p
de E est la donnée de p éléments distincts
de E sans ordre prescrit (donc (e1 , e2 ) et (e2 , e1 ) sont
n
le même 2-uplet). On désigne par le nombre de façons distinctes de choisir des p-uplet dans
p
E. Il est bon de remarquer qu’il existe une façon unique de choisir un 0-uplet dans E, car la seule
3
le p-uplet
possibilité estdeprendre vide, tandis qu’il n’existe aucune façon de choisir un p-uplet si
n n
p < 0. Ainsi, = 1 et = 0 si p > 0.
0 −p
Pour construire un p-uplet, il suffit de construire un p-arrangement. Par définition de p!, il existe
p! p-arrangements distincts qui produisent par cette construction le même p-uplet. Donc :
Ap
n n(n − 1) · · · (n − p + 2)(n − p + 1) n!
= n = =
p p! p! p!(n − p)!
Remarquons que choisir un p-uplet b dans E estlamême choseque de choisir le (n − p)-uplet des
n n
éléments que l’on n’a pas choisi dans b. Donc = . Cela est également manifeste à
p n−p
partir de la dernière expression de l’équation précédente.
Ou encore :
n X s n − s
=
k i j
i+j=k
4
1.3.2 Coefficients multinomiaux
On peut généraliser la notion de p-uplet en la notion de (p1 , · · · , ps )-multiplet. Étant donné des
entiers (pi )1≤i≤s vérifiant p1 + p2 + · · · + ps = n, un (p1 , · · · , ps )-multiplet est la donnée de p1
éléments distincts, puis de p2 éléments distincts parmi ceux qui restent, et ainside suite. Le nombre
n
de (p1 , · · · , ps )-multiplets est par définition le nombre multinomial . Les nombres mul-
p1 , · · · , ps
tinomiaux vérifient la relation :
n n!
=
p1 , · · · , ps p1 !p2 ! · · · ps !
Pour construire un p-uplet d’éléments de E de cardinal n, il suffit de choisir tout d’abord si ce p-uplet
contiendra ou non le dernier élément de E. Si oui, alors il reste à choisir un (p−1)-uplet de E −{en }
de cardinal n − 1. Sinon, alors notre p-uplet est un p-uplet de E − {en}. Réciproquement,
tout p-
n n−1 n
uplet d’éléments de E est construit de la manière précédente. Donc = + . Si
p p−1 p−1
l’on dispose les coefficients binomiaux en un triangle dont les lignes correspondent à n constant et
les colonnes à p constant, alors la somme de deux termes consécutifs d’un ligne est égale au terme
de la ligne suivante en dessous du deuxième terme. Le dessin que l’on obtient est appelé le triangle
de Pascal (même s’il est apparaît déjà dans les travaux de mathématiciens indiens du X˚ siècle).
1
11
121
1331
14641
1 5 10 10 5 1
1 6 15 20 15 6 1
1 7 21 35 35 21 7 1
1 8 28 56 70 56 28 8 1
1 9 36 84 126 126 84 36 9 1
1 10 45 120 210 252 210 120 45 10 1
Supposons que l’on dispose de n espaces et que l’on souhaite y ranger p éléments identiques. Voici
une façon de procéder pour obtenir le nombre possible de tels rangements. On peut imaginer que le
rangement se fasse de la manière suivante : on compte à partir de 1 le nombre d’éléments que l’on
place dans la première cellule ; à tout moment, on peut crier stop et on s’arrête puis on recommence
le comptage des éléments dans la deuxième cellule, et l’on continue jusqu’à atteindre p. Afin que
toutes les cellules soient remplies (même de zéro élément), il faut crier n − 1 fois stop. Pour que
tous les éléments soient placés, il faut compter de 1 à p. La personne qui décrit le rangement de
cette manière prononce donc n − 1 + p mots.
Le rangement
est défini par la position des n − 1 stops.
n−1+p n+p−1
Donc le nombre de tels rangements est = .
n−1 p
5
1.4 Exercices
Un dé usuel comporte 6 faces numérotées de 1 à 6. Un jeu de cartes usuel contient 52 cartes divisées
en 13 cartes numérotées de 1 à 13 de 4 couleurs.
Exercice 1 De combien de façon différente peut-on obtenir 7 en lançant deux dés ? De combien
de façons différentes peut-on tirer une carte dans un jeu de cartes ? Deux cartes ? Cinq cartes ?
Combien existe-t-il de tirages de cinq cartes où toutes les cartes sont de la même couleur ? Combien
existe-t-il de tirages de cinq cartes où deux cartes (au moins) parmi les cinq ont la même valeur ?
Correction La valeur du premier dé peut être choisi parmi 6. Une fois connue la valeur du premier
dé, la valeur du second dé est imposée. Il y adonc 6 tirages possibles dont la
valeur
est 7. Il existe
52 52
52 tirages d’une carte dans un jeu. Il existe tirages de deux cartes et tirages de cinq
2 5
cartes. Un tirage de cinq cartes de la même couleur correspond à un choix d’une des
cartes couleurs
13
puis au choix de 5 cartes parmi les 13 cartes de cette couleur. Il existe donc 4 tirages possibles
5
de cinq cartes d’une même couleur. Pour dénombrer les tirages contenant au moins une paire, il est
plus aisé de compter les tirages ne comportant pas de paires. Dans ce cas, il faut choisir 5 valeurs
parmi les 13 possibles. Ensuite, il faut
choisir
l’une des 4 couleurs pour chacune des 5 cartes. Donc
13
le nombre de tirages sans paire est 45 . Donc le nombre de tirage dont deux cartes au moins
5
52 13
ont la même valeur est − 45 .
5 5
Correction Une répartition des places occupées est un choix de 18 places parmi les 30. Il en
30
existe donc . Si de plus on supposer que les voyageurs sont tous distincts, une répartition des
18
voyageurs est obtenue
en choisissant une répartition des places assises et un ordre sur les voyageurs.
30
Il y a donc 18! différentes répartitions.
18
6
n’existe que deux mots appartenant à la langue française : probabilités et probabiliste. Pour former
une anagramme avec 11 des douze lettres, il faut commencer par choisir la lettre parmi les 10 que l’on
va supprimer. Il y a donc 10 choix possibles. Si l’on choisit l’une des 8 lettres uniques, il reste alors
11! 11!
4 anagrammes. Sinon, on a choisi une des deux lettres doubles. Il reste alors 2 anagrammes.
Il existe donc en tout 3 × 11! anagrammes. Parmi ces 119750400 anagrammes (autant donc que
d’anagrammes complètes, mais c’est une coïncidence), mon ordinateur m’assure qu’il n’existe que
deux mots appartenant à la langue française : probabilité et bipolarités.
Exercice 4 Parmi n personnes, on décide de former des groupes de travail. Un tel groupe est
formé d’un certain nombre de personnes et d’un représentant du groupe (un groupe n’est donc pas
vide). Combien de groupes différents peut-on former. En déduire la formule suivante :
n
X n
s = n2n−1
s
s=0
Correction Pour former un groupe, on peut commencer par choisir le représentant. Il y a alors
n choix. Ensuite, pour les n − 1 personnes restantes, on a le choix entre les mettre dans le groupe
ou non. Il y a donc un choix entre deux possibilités pour chaque personne, donc 2n−1 possibilités.
Il y a donc n2n−1 groupes. Alternativement, pour construire un groupe, on peut commencer par
n
choisir un nombre s de membres et les s membres du groupes. Il y a groupes à s membres. Il
s
n
faut ensuite encore choisir un représentant du groupe. Il y a donc s groupes de s membres. Il
s
y a donc
n
X n
s = n2n−1
s
s=0
groupes.
Exercice 5 Montrer :
n n
X n n
X
s n
=2 , (−1) =0
s s
s=0 s=0
Correction La première somme est le nombre total d’ensemble d’éléments que l’on peut former
avec n éléments. Pour former un tel ensemble, il faut choisir pour chacun des n éléments s’il
appartient ou non à l’ensemble. Il y a donc un choix parmi deux possibilités pour chacun des
éléments, soit 2n choix. La seconde somme compare le nombre de s-uplets de cardinal pair avec le
nombre de p-uplets de cardinal impair. Si n est impair, le choix d’un p-uplet pair revient au choix
d’un (n − p)-uplet impair. Il y a donc autant de p-uplet pair que de p-uplet impair. Si n est pair,
il y a d’après ce que l’on vient de voir autant de p-uplet pairs ne contenant pas n que de p-uplets
impairs ne contenant pas n. Un p-uplet pair contenant n est la même chose qu’un p-uplet impair
ne contenant pas n. Il y en a donc autant que de p-uplets pairs ne contenant pas n ; ce qui est aussi
le nombre de p-uplets impairs contenant n.
Alternativement, on peut remarquer que la deuxième somme est le développement de (1 − 1)n .
7
2 Fondations axiomatiques des probabilités
2.1 Langage de la théorie des ensembles
On rappelle que si X est un ensemble, on peut effectuer les opérations d’intersection, union et
passage au complémentaire sur les parties de X. On dit qu’un ensemble est dénombrable s’il est
fini ou s’il peut s’écrire sous la forme X = {x1 , x2 , x3 · · · }.
1. T est non-vide.
2. Si A ∈ T (donc A ⊂ Ω) alors le complémentaire Ā de A dans Ω est aussi dans T .
3. Si A = {A1 , A2 · · · } est un ensemble dénombrable d’éléments de T , alors l’union de tous les
Ai est également dans T .
Dans le cas, fréquent dans ce cours, où l’ensemble Ω est un ensemble fini, on peut remplacer la
troisième condition par la condition suivante : si A et B sont dans T , alors A ∪ B est dans T . Un
sous-ensemble T vérifiant les propriétés ci-dessus est appelé une tribu sur les parties de Ω.
Les éléments de T sont appelés les éléments de l’espace des événements. Notons que d’après la
première propriété de T , il existe un élément A ∈ T . D’après la deuxième, le complémentaire Ā de
A est dans T . D’après la troisième, l’union A ∪ Ā = Ω est dans T . L’ensemble Ω tout entier est donc
toujours dans T . Son complémentaire, l’ensemble vide ∅, est donc également toujours dans T .
Une probabilité sur (Ω, T ) est une fonction qui associe à un événement (donc à un élément A ∈ T )
un nombre réel et qui vérifie les propriétés suivantes :
Dans le cas, fréquent dans ce cours, où l’ensemble Ω est un ensemble fini, on peut remplacer
la troisième condition par la condition suivante : si A et B sont dans T et A ∩ B = ∅, alors
p(A ∪ B) = p(A) + p(B).
On appelle espace probabilisé la donnée de (Ω, T, p).
Ces propriétés impliquent que p(∅) = 0, que p(Ā) = 1 − p(A) et que p(A ∪ B) = p(A) + p(B) −
p(A ∩ B).
8
2.3 Trois exemples fondamentaux
2.3.1 La situation finie équiprobable
Considérons la situation où Ω est l’ensemble fini des éventualités possibles d’une expérience combi-
natoire. Prenons pour T l’ensemble des parties de Ω. Définissons p par la formule p(A) = |A|/|Ω|.
Alors (Ω, T, p) vérifient toutes les propriétés des fondations axiomatiques des probabilités.
Exemples :
1. Pour modéliser le lancer d’un dé équilibré, on peut prendre Ω = {1, 2, 3, 4, 5, 6}. La probabilité
de tirer un 6 est alors p({6}) = 1/6. La probabilité de tirer un 3 ou un 4 est p({3, 4}) = 2/6 =
1/3. La probabilité de tirer un nombre pair est p({2, 4, 6}) = 3/6 = 1/2.
2. Pour modéliser le lancer de deux pièces équilibrées, on peut prendre Ω = {P P, P F, F P, F F }.
3. Pour modéliser le choix d’un groupe de trois personnes (sans ordre) dans un groupe de 20
(dont 14 hommes et 6 femmes), on peut prendre Ω = {groupes de 3 personnes parmi
20}.
19 20
Alors la probabilité que ce groupe contienne une personne x donnée est p(A) = / .
2 3
14 20
La probabilité qu’un groupe ne contienne que des hommes est p(B) = / . La
3 3
probabilité qu’un groupe ne contienne que des hommes
et une personne x donnée est p(A ∩
13 20
B) = 0 si x n’est pas un homme et p(A ∩ B) = / si x est un homme.
2 3
C’est la même situation que dans la situation finie équiprobable, mais on ne suppose plus que p est
définie par p(A) = |A|/|Ω|.
Exemples :
1. Deux joueurs de ping-pong ont remarqué que lorsqu’ils jouent l’un contre l’autre, A gagne 2
fois sur 3 contre B. Ils décident de jouer trois parties consécutives et de déclarer vainqueur
celui qui aura remporté deux parties. On peut prendre pour Ω l’ensemble suivant :
Mais alors, la probabilité de p(AAA) est (2/3)3 tandis que la probabilité de BBB est (1/3)3 .
La probabilité que A l’emporte est p(AAA) + 3p(AAB).
2. Certaines particules élémentaires s’appellent des bosons (par exemple les photons, le noyau
de l’atome de Carbone, le noyau de l’atome d’Hélium) tandis que d’autres s’appellent des
fermions (par exemple les élections et les protons). Si l’on considère p bosons pouvant occuper
n états physiques
discernables,
la probabilité que le système physique entier soit dans un état
n+p−1
donnée est 1/ . Si l’on considère p fermions pouvant occuper n états physiques
p
n
discernables, la probabilité que le système physique entier soit dans un état donnée est 1/ .
p
Si l’on compare à la situation combinatoire, ceci montre d’une part que les bosons et les
9
fermions sont par nature indiscernables et d’autre part que deux bosons ou plus peuvent
occuper le même état alors que deux fermions sont toujours dans des états distincts.
Dans cette situation Ω est infinie mais dénombrable. Les éléments de Ω peuvent donc être identifiés
si on le souhaite avec N. On prend pour T l’ensemble des parties de A. La probabilité p doit vérifier
l’équation :
X∞
p(n) = p(0) + p(1) + p(2) + p(3) + · · · = 1
n=0
En particulier, pour tout ε > 0, l’ensemble des ω tel que p(ω) ≥ ε est fini. En effet, dans le cas
contraire, l’inégalité
N
X
p(n) ≥ ε|{0 ≤ ω ≤ N |p(ω) ≥ ε}|
n=0
montre que la somme des p(ω) de 0 à N est plus grande que 1 pour N assez grand.
Exemples :
1. p(n) = e−1 n!
1
2. Considérons la situation où un joueur lance une pièce jusqu’à tomber sur pile et compte le
nombre de lancers qu’il doit faire. A priori, on ne peut exclure le fait que la pile ne tomber
jamais sur pile, et donc que le nombre de lancers sera infini. On peut modéliser cette situation
en prenant p(n) = 1/2n et vérifier que la somme des probabilités est bien 1.
3. Plus généralement, on peut associer une probabilité aux éléments de N à partir de toutes séries
(absolument) convergentes en normalisant la somme de la série. Par exemple, la fonction p
définie par
p: N −→ [0, 1]
(
0 si n = 0
n 7−→ 6
π 2 n2 si n > 0
3 Probabilités conditionnelles
3.1 Fondations axiomatiques des probabilités conditionnelles
3.1.1 Définition
On considère Ω un ensemble, T une tribu sur les parties de Ω et p une probabilité sur T . Soit B
un événement. L’ensemble TB des parties de Ω défini par {A ∩ B|A ∈ T } est alors une tribu sur les
parties de B. Si de plus p(B) 6= 0, alors p(·|B) définie par
p(·|B) : TB −→ R
p(A ∩ B)
A 7−→
p(B)
10
est une probabilité sur TB . On appelle la probabilité p(·|B)la probabilité conditionnelle à B. In-
tuitivement, elle mesure la probabilité qu’un événement A se produise sachant que l’événement B
s’est produit.
Exemples :
1. Quatre objets discernables sont placés dans quatre urnes discernables. Sachant que B les deux
premiers objets sont dans des urnes distinctes, calculons la probabilité que A trois objets soient
dans la même urne (on suppose que tous les arrangements sont équiprobables). Trois objets
sont dans la même urne si et seulement si les deux objets restants sont placés dans l’urne du
premier objet ou dans l’urne du deuxième objet. Deux rangements conviennent donc sur les
42 = 16 rangements possibles. La probabilité p(A|B) que trois objets soient dans la même
urne est donc 1/8. Par ailleurs, p(B) est bien 3/4 et la probabilité de A ∩ B est bien 3/32.
2. Soit une famille ayant deux enfants. Sachant que B cette famille a un garçon, quelle est la
probabilité que A les deux enfants soient des garçons (on suppose que tous les arrangements
familiaux possibles sont équiprobables) ? Intuitivement, on a envie de répondre que cette
probabilité est 1/2, car le sexe de l’un des enfants n’a pas a priori d’incidence sur le sexe
de l’autre enfant. Nous allons voir que notre intuition n’est pas bonne. En effet, p(B) =
3/4 et p(A ∩ B) = p(A) = 1/4. Donc p(A|B) = 1/3. Notre erreur provient du fait que
les trois répartitions possibles des sexes de deux enfants (à savoir fille/fille, fille/garçon et
garçon/garçon) ne sont pas équiprobables.
3.1.2 Indépendance
Lorsque p(A|B) = p(A), on dit que les événements A et B sont indépendants. Si p(A) 6= 0 et si A
et B sont indépendants, alors p(A|B) = p(A∩B) p(A∩B)
p(B) = p(A) donc p(B) = p(A) = p(B|A) donc B et
A sont indépendants. Lorsque deux événements sont indépendants :
p(A ∩ B) = p(A)p(B)
Plus généralement, si A1 , · · · , An sont des événements mutuellement indépendants, la formule (1)
donne : !
\n Yn
p Ai = Ai
i=1 i=1
11
Ces relations ne demeurent bien évidemment pas vraies si A et B ne sont pas indépendants.
Théorème 1. Soit A un événement et (Bi )1≤i≤n une famille d’événements disjoints telle que
n
S
p( Bi ) = 1. Alors :
i=1
n
X
p(A) = p(A|Bi )p(Bi )
i=1
Un cas fréquent d’application de ce théorème est celui où l’on prend (Bi ) = (B, B̄).
p(A|B)p(B) = p(B|A)p(A)
Démonstration. En effet, les deux membres de l’équation sont égaux à p(A ∩ B).
Exemple : Chaque jour, la probabilité que le RER arrive en retard est de 1/4. Lorsque le RER
arrive en retard, un étudiant arrive en retard à son cours avec une probabilité de 9/10. Lorsque
le RER arrive à l’heure, cet étudiant arrive à en retard à son cours avec une probabilité de 1/5.
Aujourd’hui, l’étudiant est arrivé à l’heure. Quelle est la probabilité que le RER soit arrivé en
retard ? Soit A l’événement “l’étudiant arrive à l’heure” et B l’événement “le RER arrive en retard”.
D’après l’énoncé, p(A|B) = 1/10, p(A|B̄) = 4/5 et p(B) = 1/4. Donc :
1 1 43 5
p(A) = p(A|B)p(B) + p(A|B̄)p(B̄) = + =
10 4 5 4 8
D’après la formule de Bayes :
p(B) 1 18 1
p(B|A) = p(A|B) = =
p(A) 10 4 5 25
12
3.3 Exemples
Prévalence d’une allèle récessive dans une population hétérozygote Dans une population,
environ 5% des hommes sont daltoniens. Supposons que le daltonisme soit lié à la présence d’une
certaine allèle récessive sur le chromosome X. Nous allons déterminer la prévalence de cette allèle
parmi les chromosomes X de la population, en déduire la proportion des femmes touchées par
le daltonisme, puis la proportion des personnes touchées, et enfin la probabilité qu’une personne
daltonienne soit un homme. Notons H l’événement “être un homme”, F l’événement “être une
femme”, D l’événement “être daltonien”, X1 l’événement “porter l’allèle sur le premier chromosome
X” et X2 l’événement “porter l’allèle sur le second chromosome X”. Alors p(D|H) = p(X1 |H) =
1/20. Il est raisonnable de considérer que les événements X1 et H sont indépendants, que les
événements X1 et F sont indépendants, que les événements X1 ∩ F et X2 ∩ F sont indépendants
et enfin que la probabilité p(X2 ∩ F ) est égale à p(X1 ).
Dans ces conditions, p(X1 ) = 1/20 et
p(X1 ∩ F ∩ X2 ∩ F )
p(D|F ) = p(X1 ∩ X2 |F ) =
p(F )
p(X1 ∩ F )p(X2 ∩ F ) p(X1 ∩ F )p(X1 )
= =
p(F ) p(F )
p(X1 )2 p(F ) 1
= = p(X1 )2 =
p(F ) 400
De plus :
p(D) = p(D|M )p(M ) + p(D|F )p(F )
donc p(D) = 20
800 + 1
800 = 21/800 et p(M |D) = p(D|M ) p(M )
p(D) donc p(M |D) =
5·800
200·21 = 20/21.
Contrôle de qualité dans une chaîne de montage Une chaîne de montage est formée de trois
machines A, B et C. Elles produisent respectivement 25%, 35% et 40% de la production totale de
l’usine. De plus, 5%, 4% et 2% de leur productions respectives présentent un défaut. Un objet est
choisi au hasard et l’on constate qu’il est défectueux. Quelle est la probabilité qu’il provienne de la
machine A ?
D’après la formule des probabilités totales :
1 1 1 7 1 2
p(D) = p(D|A)p(A) + p(D|B)p(B) + p(D|C)p(C) = + + = 69/2000
20 4 25 20 50 5
Donc :
p(A) 1 2000
p(A|D) = p(D|A) = = 25/69 ' 36%
p(D) 20 69 · 4
13
pas de i.
une répartition contenant n chocolat, la probabilité que le compartiment a soit plein
Dans
5 6 2
/ . Donc la probabilité p(1) de trouver un chocolat dans le compartiment 1 est :
n−1 n
5
X
p(1) = p(1|n)p(n)
n=0
5
5
X n−1
=
n=0 6
6
n
= 5/12 ' 0, 41
p(1 ∩ 2)
p(2|1) =
p(1)
4
5 12
X n−2
=
n=0 30
6
n
= 8/15 ' 0, 53
De façon peut être contre-intuitive, voir quelqu’un manger un chocolat de la boite juste avant nous
augmente donc notre probabilité de manger un chocolat.
4 Variable aléatoire
4.1 Définition
Une variable aléatoire est une fonction définie sur un espace probabilisé. Si X est une variable
aléatoire à valeurs dans un ensemble E dénombrable, alors la fonction
p(X = ·) : E −→ [0, 1]
x∈E 7−→ p(X = x)
est une fonction sur E à valeurs dans [0, 1] que l’on appelle la distribution de X. Si f est la
distribution d’une variable aléatoire X à valeurs dans un ensemble E dénombrable, alors :
X
f (x) = 1
x∈E
Si X est une variable aléatoire sur (Ω, T, p) et si B ∈ T est de probabilité non-nulle alors X définit
par restriction à (B, TB , p(·|B)) une variable aléatoire X|B sur (B, TB , p(·|B)). La distribution de
X|B est p(X = ·|B).
„ «
2 On n
rappelle que le coefficient binomial est nul si p est strictement négatif.
p
14
Soit X et Y deux variables aléatoires sur (Ω, T, p) à valeurs dans E et F dénombrables. La
distribution jointe de X et de Y est la fonction
La formule X
p(X = x) = p(X = x ∩ Y = y)
y∈F
Lorsque p(X = ·|Y = ·) est égal à la fonction p(X = ·)p(Y = ·), on dit que les variables aléatoires
X et Y sont indépendantes.
Exemples :
1. On lance 3 dés à six faces. Soit Ω = {1, · · · , 6}3 . Les valeurs D1 , D2 et D3 obtenues sur
chaque dé sont des variables aléatoires sur l’espace probabilisé (Ω, P(Ω), p) à valeurs dans
{1, · · · , 6}. Les trois distributions de ces variables vérifient f (i) = 1/6 et sont donc égales.
La variable aléatoire S = D1 + D2 + D3 est à valeur dans {3, · · · , 18}. La variable aléatoire
Q = D1 /D2 est à valeur dans [0, 6] (par exemple) mais sa distribution g vérifie g(x) = 0 si x ∈ /
{a/b|(a, b) ∈ {1, · · · , 6}}. La variable aléatoire N égale au nombre de 6 obtenus est à valeurs
dans {0, 1, 2, 3}. Les variables aléatoires D1 et D2 sont indépendantes tandis que les variables
aléatoires S et N ne le sont pas : p(S = 18|N = 3) = 1 alors que p(S = 18)p(N = 3) = 1/69 .
2. Un étudiant estime avoir neuf chances sur dix d’obtenir la moyenne à chacun de ces 5 examens.
Le nombre d’examen où il aura effectivement obtenu la moyenne est une variable aléatoire
X sur (Ω = {0, 1}5 , P(Ω), p) à valeurs dans {0, · · · , 5}. Elle vérifie p(X = 0) = 1/105 et
p(X ≥ 3) ' 99%.
3. Chaque année, un conducteur à une probabilité x d’avoir un accident. La fonction X donnant
le nombre d’années avant son prochain accident est une variable aléatoire sur (N, P(N), p). Ici,
on ne précisera pas ce qu’est la probabilité p ; ce serait possible mais assez délicat. L’événement
X = k signifie que le conducteur n’a pas eu d’accidents pendant k − 1 année puis qu’il a eu
un accident l’année k. Donc p(X = k) = (1 − x)k−1 x.
On dit qu’une variable X suit la loi équirépartie si X est à valeur dans un ensemble fini de cardinal
n et si p(X = x) = 1/n.
15
4.2.2 Tirage de Bernoulli
On dit qu’une variable X suit la loi B(p) de tirage de Bernoulli de paramètre p si X est à valeur
dans {0, 1} et si p(X = 1) = p.
On dit qu’une variable X suit la loi binomiale B(n, p) de paramètres n et p si X est à valeur dans
{0, n} et si :
n s
p(X = s) = p (1 − p)n−s
s
On remarque que la loi B(p) est la loi B(1, p) et que X suit la loi B(n, p) lorsque X compte le
nombre de succès (identifié avec la valeur 1) dans une répétition de n tirages de Bernoulli.
On dit qu’une variable X suit la loi géométrique G(p) de paramètre p si X est à valeur dans N∗
et si p(X = n) = (1 − p)n−1 p. On remarque que X suit la loi géométrique lorsque X compte le
nombre d’essais avant le premier succès dans une répétition de tirages de Bernoulli.
On dit qu’une variable X suit la loi de Poisson P (λ) de paramètre λ si X est à valeur dans N et si :
λn
p(X = n) = e−λ
n!
16
et la probabilité qu’un tirage comporte exactement s boules rouges est :
Np N (1 − p)
s n−s Nr !Nn !n!(N − n)!
p= =
N s!(Nr − s)!(n − s)!(Nn − n + s)!N !
n
n! (N − n)! Nr !
= · ·
s!(n − s)! (Nr − s)!(N − n − Nr + s)! N !(Nr − s)!
n N −n
s Np − s
=
N
Np
On remarque donc que X suit la loi H(N, n, p) lorsque X compte le nombre de boules rouges tirées
dans un tirage (sans remise) de n boules d’une urne contenant N boules, N p étant rouges.
Soit X une variable aléatoire à valeurs dans R. L’espérance de X est définie par
X
E(X) = xp(X = x) (2)
x∈R
lorsque la somme précédente est convergente. L’espérance est en particulier bien définie lorsque
la variable aléatoire X est à valeurs dans un ensemble fini avec probabilité 1. En effet, la somme
(2) devient dans ce cas une somme finie. La définition montre également qu’une variable aléatoire
constante est égale à son espérance et réciproquement qu’une variable aléatoire est égale à son
espérance si elle est constante avec probabilité 1. Il est usuel d’interpréter l’espérance de X comme
la valeur moyenne de X mais il n’est pas si facile de donner un sens précis à cette assertion.
Théorème 3. Soit X, Y deux variables dont les espérances sont définies. Alors E(X +Y ) est définie
et E(X + Y ) = E(X) + E(Y ).
Démonstration.
X
E(X + Y ) = (x + y)P (X = x ∩ Y = y)
(x,y)∈R2
X X
= xP (X = x ∩ Y = y) + yP (X = x ∩ Y = y)
(x,y)∈R2 (x,y)∈R2
X X X X
= x P (X = x ∩ Y = y) + y P (X = x ∩ Y = y)
x∈R y∈R y∈R x∈R
Or : X X
P (X = x ∩ Y = y) = P (X = x), P (X = x ∩ Y = y) = P (Y = y)
y∈R x∈R
Donc :
E(X + Y ) = E(X) + E(Y )
17
L’espérance est donc linéaire, ce qui signifie que E(aX + bY ) = aE(X) + bE(Y ) pour tous réels
a, b et toutes variables aléatoires X, Y .
Soit X et Y deux variables aléatoires telles que X 2 et Y 2 aient une espérance. La covariance de X
et de Y est alors l’espérance de (X − E(X))(Y − E(Y )). Soit :
Cov(X, Y ) = E ((X − E(X)(Y − E(Y ))))
Par additivité de l’espérance, la covariance de X et Y est aussi E(XY )−E(X)E(Y ). En particulier,
si X et Y sont indépendantes alors Cov(X, Y ) = 0. La réciproque n’est pas vraie en général : il
existe des variables aléatoires de covariance nulle et qui ne sont pas indépendantes. La covariance de
X avec elle-même s’appelle la variance et est notée Var(X). Par additivité de l’espérance, Var(X)
est égale à E(X 2 ) − E(X)2 .
Par définition, la variance est l’espérance d’une variable aléatoire positive ou nulle donc est
positive ou nulle. Ceci montre que E(X 2 ) ≥ E(X)2 . En cas d’égalité, la variable aléatoire (X −
E(X))2 est nulle donc X est égale à son espérance avec probabilité 1, ou de manière équivalente,
X est constante avec probabilité 1.
Théorème 4. Soit X1 , · · · , Xn des variables aléatoires dont les variances sont définies. Soit Sn la
somme des Xs . Alors :
Xn X
Var(Sn ) = Var(Xs ) + 2 Cov(Xs , Xt )
s=1 s<t
Démonstration. En effet :
n n
!2
X X
E(Sn ) = E(Xs ), (Sn − E(Sn ))2 = (Xs − E(Xs ))
s=1 s=1
Donc :
n
X X
(Sn − E(Sn ))2 = (Xs − E(Xs ))2 + 2 (Xs − E(Xs ))(Xt − E(Xt ))
s=1 s<t
En prenant les espérances des deux côtés de l’équation précédente, on obtient la première assertion.
La seconde s’en déduit car la covariance de deux variables aléatoires indépendantes est nulle.
La variance n’est pas linéaire. Le théorème précédent montre que Var(aX + b) = a2 Var(X).
La formule Cov(aX, aY ) = a2 Cov(X, Y ) montre que la variance d’une variable aléatoire corres-
pondant à une grandeur physique ayant une unité dépend du choix de l’unité. Pour éviter, cet effet
fâcheux, il est commode d’introduire le coefficient de corrélation Cor(X, Y ) défini par :
Cov(X, Y )
Cor(X, Y ) = p
Var(X) Var(Y )
18
Alors Cor(aX + b, cY + d) = Cor(X, Y ). Si X et Y sont des variables aléatoires indépendantes,
alors Cor(X, Y ) = 0. Notons que la réciproque n’est pas vraie : si Cor(X, Y ) = 0, tout ce que l’on
peut conclure est que l’une des variables n’est pas une fonction linéaire de l’autre. D’un point de
vue scientifique, il est également important de distinguer corrélation et explication : par exemple,
la consommation mensuelle de glaces est fortement corrélée à la fréquence des accidents d’avions
liés aux oiseaux dans les aéroports français sans pour autant que l’on puisse supposer que ce sont
les glaces qui provoquent des accidents d’avions ou réciproquement que les accidents d’avions font
acheter des glaces. La raison est tout simplement que les gens mangent plus de glaces l’été et qu’il
y a plus d’oiseaux en France l’été que l’hiver.
Ceci montre que si les correcteurs notaient au hasard entre 0 et 20, alors les candidats pourraient
espérer obtenir la moyenne à leurs examens (l’espérance de la variable aléatoire N qui représente
la note étant alors en effet égale à 10).
La variance de X est définie par :
n 2
2 1X 2
2 n+1 (n + 1)(n − 1)
Var(X) = E(X ) − E(X ) = s − =
n s=1 2 12
La définition montre directement que l’espérance d’un tirage de Bernoulli est p et que la variance
d’un tirage de Bernoulli est p(1 − p).
On peut calculer l’espérance de X en évaluant cette somme (par exemple en reconnaissant la somme
d’une dérivée et d’une série binomiale). Il est néanmoins beaucoup plus aisé de remarquer que X
est la somme de n tirages de Bernoulli. Donc E(X) = np d’après le théorème 3. De même :
n
X n s
Var(X) = s2 p (1 − p)n−s − n2 p2
s
s=0
A nouveau, on peut évaluer cette somme (par exemple en reconnaissant une combinaison linéaire
d’une dérivée seconde, d’une dérivée première et d’une série binomiale). Il est néanmoins beaucoup
19
plus aisé d’appliquer le théorème 4. Les tirages de Bernoulli étant indépendants, on obtient ainsi :
n
X
Var(X) = Var(Xs ) = np(1 − p)
s=0
Soit X suivant la loi géométrique G(p) de paramètre p. Calculons l’espérance (en la considérant
implicitement comme une fonction de p) :
∞ ∞
!0
X X
s−1 s
E(X) = s(1 − p) p = −p (1 − p)
s=1 s=1
0
1 1
= −p =
p p
Donc :
1−p
Var(X) =
p2
20
Soit X la variable aléatoire qui compte le nombre d’occurrences de M pendant un intervalle donné
de longueur 1. Nous allons montré que X suit la loi de Poisson P(λ). Considérons en effet un
autre variable aléatoire Y comptant le nombre d’occurrences d’un processus N vérifiant les mêmes
propriétés que M . Soit un intervalle de temps de longueur 1. Supposons que le nombre totale
n
d’occurrences de M et N soit égal
àn pendant cet intervalle. Il existe alors 2 distributions distinctes
n
des occurrences de M et N et distributions distinctes ayant exactement s occurrences de M .
s
Donc :
1 n
p(X = s|X + Y = n) = n
2 s
Or :
p(X = s ∩ Y = n − s)
p(X = s|X + Y = n) = p(X = s ∩ Y = n − s|X + y = n) =
p(X + Y = n)
p(X = s)p(Y = n − s)
p(X = s|X + Y = n) =
p(X + y = n)
Donc :
p(X + Y = n) n
p(X = s)p(Y = n − s) =
2n s
Appliquons l’équation précédente à s = 0 et s = 1. Alors :
p(X + Y = n) np(X + Y = n)
p(X = 0)p(Y = n) = n
, p(X = 1)p(Y = n − 1) =
2 2n
Donc :
p(X = 0)p(Y = n) 1
=
p(X = 1)p(Y = n − 1) n
Soit encore :
1 p(X = 1)
p(Y = n) = · p(Y = n − 1)
n p(X = 0)
Notons µ = p(X = 1)/p(X = 0). Alors :
µ µn
p(Y = n) = p(Y = n − 1) = p(Y = 0)
n n!
La somme des probabilités doit être égales à 1 donc :
∞ ∞
X X µn
p(Y = n) = p(Y = 0) = p(Y = 0)eµ = 1
n=0 n=0
n!
Soit encore :
µn
p(Y = 0) = e−µ , p(Y = n) = e−µ
n!
La variable aléatoire Y suit donc la loi de Poisson P(µ). De plus, elle est d’espérance λ par hypothèse.
Donc µ = λ. Par symétrie, la variable aléatoire suit également P(λ). Le calcul ci-dessus montre
également que si X1 et X2 suivent toutes les deux des lois de Poisson de paramètres respectifs λ1 et
λ2 et si X1 et X2 sont indépendantes, alors X1 + X2 suit la loi de Poisson de paramètre P(λ1 + λ2 ).
21
Calculons maintenant E(X 2 ).
∞ ∞
X λs X λs
E(X 2 ) = e−λ s2 = e−λ s
s=0
s! s=1
(s − 1)!
∞ ∞
X λs X λs
= e−λ (s − 1) + e−λ
s=1
(s − 1)! s=1
(s − 1)!
∞ ∞
2 −λ
X λs−2 X λs−1
=λ e + λe−λ
s=2
(s − 2)! s=1
(s − 1)!
= λ2 + λ
Donc Var(X) = λ.
Soit X une variable suivant la loi hypergéométrique H(N, n, p). On peut interpréter X comme le
nombre de boules rouges tirées dans un tirage de n boules rouges ou blanches (sans remplacement).
Donc X est la somme des variables aléatoires Xs telles que Xs = 0 si la boule s n’est pas rouge
et Xs = 1 si la boule s est rouge. Les boules jouant toutes le même rôle, les variables Xs suivent
toutes la même loi. Fixer s = 1 montre que cette loi est un tirages de Bernoulli. Donc :
r rb
E(Xs ) = = p, Var(Xs ) = = p(1 − p)
r+b (r + b)2
Donc E(X) = np. La variable aléatoire Xs Xt est un tirage de Bernoulli de probabilité de succès
r(r − 1)/(r + b)(r + b − 1). Donc :
−rb
Cov(Xs , Xt ) =
(r + b)2 (r
+ b − 1)
Et :
n−1
Var(X) = np(1 − p) 1 −
N −1
On remarque donc qu’un tirage sans remplacement à la même espérance et une variance plus faible
qu’un tirage avec remplacement.
Un RER arrive en moyenne toutes les 6 minutes. Si l’on arrive au hasard sur le quai du RER,
combien de temps va-t-on attendre en moyenne ? La réponse à cette question est contre-intuitive
et un peu déprimante : au minimum 3 minutes, et parfois bien plus. Nous verrons que dans certain
cas, tout se passe comme si arriver au hasard sur le quai du RER revenait à arriver juste après le
dernier passage.
Formalisons le problème de la manière suivante. L’arrivée du i-ème RER est un événement
aléatoire Xi et on note Li la variable aléatoire Xi+1 − Xi . On suppose que toutes les variables Li
suivent la même loi L et on suppose que Var(L) existe. L’assertion comme quoi un RER passe en
moyenne toutes les n minutes est l’assertion que E(L) = n. On note As,n l’événement “arriver sur
22
le quai dans la subdivision [s, s + 1] d’un intervalle de longueur n sachant que l’on sait que cet
intervalle est de longueur n”. L’hypothèse d’arrivée au hasard sur le quai signifie que la probabilité
de As,n ne dépend pas de s. Soit T le temps d’attente. On suppose pour simplifier que T |As,n est
n − s − 1/2 (alternativement, on pourrait considérer les événements Ax,n “arriver en x ∈ [0, n]” et
poser T |Ax,n = n − x ; les deux modélisations donnent le même résultat). On cherche à calculer
E(T ).
Supposons tout d’abord que la variable aléatoire L soit constante. Sa valeur est alors égale à n. La
variable aléatoire T suit alors la loi équirépartie sur {1/2, 3/2 · · · , n − 1 − 1/2, n − 1/2} donc son
espérance est n/2.
Supposons maintenant que la variable aléatoire L suive la loi géométrique G(p) ; ce qui serait
le cas si au lieu d’attendre le RER, on attendait le premier face dans une série de pile ou face en
arrivant au hasard au milieu d’une série de lancers. Alors, au facteur 1/2 de normalisation près, T
suit également la loi géométrie G(p) donc E(T ) = 1/p − 1/2 = E(L) − 1/2. Dans ce cas, on voit
qu’en arrivant au hasard, tout se passe comme si on venait de rater le dernier RER.
Voici comment procéder en général. Soit I la variable aléatoire définie par la longueur de l’intervalle
entre la dernière et la prochaine occurrence de X observée par l’observateur. La clé du problème est
de comprendre que I ne suit pas la même loi que L. En effet, si p(L = `1 ) = p(L = `2 ) avec `1 < `2 ,
alors p(I = `1 ) ≤ p(I = `2 ) car un observateur arrivant au hasard a plus de chance d’arriver dans
un intervalle plus long que dans un intervalle plus court. Formellement, I est une variable aléatoire
donc est une fonction :
I: (Ω, τ, p) −→ (N, P(N), p0 )
e 7−→ I(e) = n
Donc :
1 X np(L = n)
p(I = n) = p0 ({n}) = np(x) =
E(L) E(L)
x∈I −1 (n)
L’observateur arrivant au hasard donc le temps d’attente sachant que l’intervalle observée est de
longueur n est équirépartie. Donc, pour 0 ≤ s ≤ n − 1 et t = s + 1/2
1
p(T = t|I = n) =
n
Donc :
X p(L = n)
p(T = t) =
E(L)
n≥t
Et donc :
∞ X ∞ n−1
X p(L = n) 1 XX 1
E(T ) = t = (s + )p(L = n)
t=0
E(L) E(L) n=1 s=0
2
n≥t
∞
1 X n2 E(L2 )
= p(L = n) =
E(L) n=1 2 2E(L)
23
Comme Var(L) = E(L2 ) − E(L)2 :
E(L) Var(L)
E(T ) = 1+
2 E(L)2
Le temps d’attente observée est toujours supérieur à E(L)/2 et l’égalité est réalisée si et seulement
si L est de variance nulle, donc constante. A espérance égale, mieux vaut toujours avoir une va-
riance faible si l’on veut éviter d’attendre. Lorsque L suit la loi géométrique, on retrouve bien que
l’espérance du temps d’attente est égale à l’espérance de la longueur de l’intervalle entre deux RER
moins 1/2. Lorsque L suit la loi de Poisson, l’espérance du temps d’attente est même égal à l’es-
pérance de la longueur de l’intervalle entre deux RER. Dans ce cas, arriver au hasard revient donc
systématiquement à voir les portes se fermer juste devant soi. Le fait que le temps d’attente soit
toujours supérieur à l’espérance du temps entre deux occurrences a des conséquences importantes
en pratique. Tout d’abord, cela explique pourquoi nous avons du mal à croire la RATP quand elle
affirme qu’il y a un RER toutes les 10 minutes aux heures de pointe. En effet, nous avons tendance
à croire que cela signifie que nous attendrons alors en moyenne cinq minutes et nous venons de voir
qu’il n’en est rien. Ensuite, si au lieu d’imaginer quelqu’un en train d’attendre son RER, on imagine
quelqu’un qui mesure la fiabilité d’une installation. Attendre le prochain incident et multiplier par
deux surestimera la fiabilité du réseau ; ce qui est bien évidemment dommageable pour la sécurité
de l’installation. Par exemple, si au moment de souscrire votre police d’assurance, vous attendez
votre prochain accident puis vous multiplier le temps d’attente par deux pour estimer combien
d’accidents vous aurez en moyenne par an, vous souscrirez une assurance qui ne vous protégera
pas assez. Dans la mesure où beaucoup d’accidents suivent la loi de Poisson, vous risquez même de
prendre une police d’assurance 2 fois trop laxiste.
4.6 Exercices
4.6.1 Lois binomiales itérées
Énoncé Supposons donnée une expérience dont le nombre de succès suit la loi binomiale B(n, p).
L’objectif de cet exercice est de déterminer la loi suivie par le nombre de succès si l’on répète
l’expérience pour les instances d’échecs de la première expérience.
Un groupe de n candidats passent un examen. Pour chacun d’entre eux, la probabilité de réussir
est p = 1/2 et celle d’échouer est q = 1 − p. Soit X1 la variable aléatoire qui compte le nombre de
candidats reçus.
Les candidats ayant échoués peuvent passer une session de rattrapage. On note X2 le nombre de
succès dans la session de rattrapage.
24
(c) Montrer que :
n−r
X
p(X2 = r) = p(X2 = r|X1 = s)p(X1 = s)
s=0
(d) Déduire de la question précédente et de l’équation (3) que X2 suit la loi binomiale
B(n, pq).
3. En déduire la loi suivie par le nombre de succès dans 3 itérations de ce procédé, puis par s
itérations.
Correction
1. La variable aléatoire X1 suit la loi binomiale B(n, p). Donc E(X1 ) = np.
2. (a) Le nombre de succès obtenus lorsque l’on réalise n − s tirages de Bernoulli indépendants
suit binomiale de paramètres B(n − s, p). La probabilité d’obtenir r succès est donc
la loi
n − s r n−s−r
p q .
r
(b) Le terme de gauche de l’équation est le nombre de couples (a, b) où a est un choix de s
éléments parmi n et b un choix de r éléments parmi les n − s restants. Le terme de droite
de l’équation est le nombre de couples (b, a) où b est un choix de r éléments parmi n et
a un choix de s éléments parmi les n − r restants. L’application (a, b) 7→ (b, a) est une
bijection entre ces deux ensembles donc ces deux nombres sont égaux. Alternativement,
on peut utiliser la définition :
n−s n (n − s)! n! n!
= =
r s r!(n − s − r)! s!(n − s)! s!r!(n − r − s)!
(n − r)! n! n−r n
= =
s!(n − r − s)! r!(n − r)! s r
25
Or pq + p + q 2 = (p + q)q + p = p + q = 1. Si p2 = pq, on a donc bien :
n r
p(X2 = r) = p (1 − p2 )n−r
r 2
Ainsi, la variable aléatoire X2 suit la loi binomiale B(n, pq). Alternativement, on peut
remarquer que X2 compte le nombre de succès dans n tirages de Bernoulli indépendants
pour lesquels le succès est défini par la combinaison échec/réussite dans deux passages
d’examens successifs, et donc dont la probabilité de succès est pq.
3. La variable aléatoire X3 compte le nombre de succès dans n tirages de Bernoulli indépendants
pour lesquels le succès est défini par la combinaison échec/échec/réussite et sui donc la loi
binomiale B(n, p(1 − p)2 ). Par le même raisonnement, la variable aléatoire Xs suit la loi
binomiale B(n, p(1−)s−1 ).
Énoncé L’objectif de cet exercice est de démontrer que parmi les variables aléatoires comptant le
nombre de succès dans n tirages de Bernoulli indépendants et d’espérance np, c’est la loi binomiale
(correspondant donc au cas où les tirages ont tous la même probabilité de succès) qui a la plus
grande variance.
Soit X1 , X2 , · · · , Xn des tirages de Bernoulli indépendants tels que la probabilité de succès de
Xi soit pi . Soit S la variable aléatoire égale à la somme des Xi .
1. Calculer l’espérance de S.
2. Calculer la variance de S.
3. Soit 0 ≤ p ≤ 1. Parmi toutes les distributions de pi telles que
n
X
pi = np
i=1
Correction
26
Posons di = pi − p. Alors :
n
X
di = 0
i=1
n n
p2i signifie minimiser minimiser (di + p)2 et ceci est équivalent à minimiser
P P
Minimiser
i=1 i=1
n
(di + p)2 − np2 car np2 est constant. Or :
P
i=1
n
X n
X n
X
(di + p)2 − np2 = (di + p)2 − p2 = d2i + 2pdi
i=1 i=1 i=1
n
X
= d2i
i=1
Cette dernière somme étant une somme de termes positifs, elle est minimale si et seulement
tous les di sont nuls. La variance de S est donc maximale lorsque tous les pi sont égaux à
p et donc quand S suit la loi binomiale de paramètres B(n, p). Combiné avec les résultats
du paradoxe du temps d’attente, cet exercice suggère que l’Univers fait tout pour que nous
arrivions le plus en retard possible (en effet, le retard d’un RER, et donc la variance de
l’intervalle entre deux RER peut être modélisé de manière réaliste par une série de tirages de
Bernoulli représentant chacun la possibilité d’un incident entraînant un retard ; une équipe de
maintenance va naturellement se concentrer sur les incidents les plus fréquents et entraînant les
retards les plus importants, ce qui aura pour tendantiellement l’effet d’égaliser les espérances
des tirages de Bernoulli, donc de maximiser la variance et donc de maximiser l’espérance du
temps d’attente).
Énoncé L’objectif de cet exercice est de démontrer que si l’on réalise une série de lancers à pile
ou face, le fait de s’arrêter aléatoirement ou de s’arrêter dès que l’on a obtenu un face ne change
ni l’espérance du nombre de piles, ni l’espérance du nombre de faces, ni l’espérance du nombre
de lancers. En revanche, cela change radicalement l’espérance de la proportion du nombre de piles
parmi tous les lancers.
Un joueur lance une pièce équilibrée. Après chaque lancer, il décide aléatoirement de relancer la
pièce avec une probabilité p = 1/2 ou de s’arrêter avec la même probabilité. On appelle un tirage la
donnée d’une suite de piles et de faces obtenue par le lanceur jusqu’à ce qu’il s’arrête. La longueur
d’un tirage est le nombre de lancers effectués. On considère l’espace probabilisé (Ω, P(Ω), p) où Ω
est l’ensemble des tirages possibles. On admettra que sous ces conditions, la probabilité d’obtenir
un certain tirage ne dépend que de la longueur de ce tirage et que la probabilité d’obtenir un tirage
de longueur n ≥ 1 est égale à 2−2n . On note P la variable aléatoire égale au nombre de piles qu’il a
obtenus, F la variable aléatoire égale au nombre de faces obtenues, N = P + F la variable aléatoire
égale au nombre de lancers effectués.
3. Soit n ≥ 1 un entier. Quelle est la loi suivie par la variable aléatoire P |(N = n) ? Que vaut
E(P |N = n) ?
27
4. Soit s ≥ 0 un entier. Montrer que :
X
p(P = s) = p(P = s|N = n)p(N = n)
n≥0
5. Calculer E(P ) (ou pourra ou bien utiliser la formule des probabilités totales pour relier p(P =
x) à E(P |N = n) ou bien calculer d’abord E(P + F )).
6. Montrer que :
∞ X n ∞
P X s P s X 1
E = p = |N = n p(N = n) = p(N = n) E(P |N = n)
N n=1 s=0
n N n n=1
n
7. En déduire que :
P 1
E =
N 2
On suppose maintenant que le joueur jette le dé jusqu’à obtenir un face, après quoi il s’arrête. On
note P 0 , F 0 et N 0 le nombre de piles, le nombre de faces et le nombre total de lancers.
12. Deux joueurs lancent leurs pièces côte à côte. Le premier suit la première règle, le second la
deuxième.
a) Si le vainqueur est celui qui obtient le plus de piles, qui a le plus de chance de l’emporter ?
b) Si le vainqueur est celui qui obtient le plus de faces, qui a le plus de chance de l’emporter ?
c) Si le vainqueur est celui qui obtient la plus grande proportion de piles, qui a le plus de
chance de l’emporter ?
Correction
2. La variable aléatoire N compte le nombre d’essais avant d’obtenir un succès dans une répé-
tition de tirages de Bernoulli. Elle suit donc la loi géométrique G(p). Son espérance est donc
1/p, soit 2.
3. La variable aléatoire P |(N = n) compte le nombre de pile dans n répétition d’un tirage de
Bernoulli. Elle suit donc la loi binomiale B(n, p) et son espérance est np soit n/2.
28
4. Soit s ≥ 0 un entier. La formule des probabilités totales appliquée à la partition de Ω donnée
par les sous-ensembles vérifiant N = n donne :
X
p(P = s) = p(P = s|N = n)p(N = n)
n≥0
5. Nous donnons deux solutions. Les variables aléatoires P et F jouent le même rôle dans l’énoncé
donc E(N ) = E(P + F ) = E(P ) + E(F ) = 2E(P ). Donc E(P ) = 1.
Alternativement :
∞
X ∞ X
X ∞
E(P ) = xp(P = x) = xp(P = x|N = n)p(N = n)
x=0 x=0n=1
X∞ n
X ∞
X
= p(N = n) xp(P = x|N = n) = p(N = n)E(P |N = n)
n=1 x=0 n=1
∞ ∞
X n X n
= p(N = n) =
n=0
2 n=0
2n+1
=1
6.
X s P X ∞ X n
P s s P s
E = p = = p = |N = n p(N = n)
N n N n n=1 s=0
n N n
s/n∈R
∞
X 1
= p(N = n) E(P |N = n)
n=1
n
12. a) L’espérance de P est égale à l’espérance de P 0 . Les deux joueurs ont donc autant de
chance de l’emporter l’un que l’autre.
29
b) L’espérance de F est égale à l’espérance de F 0 . Les deux joueurs ont donc autant de
chance de l’emporter l’un que l’autre.
0
P P
c) En revanche, E N = 1/2 tandis que E N 0 ' 0, 36. Il est donc très nettement avan-
tageux de parier sur le premier joueur.
30