Vous êtes sur la page 1sur 56

© Laurent Garcin MP Dumont d’Urville

Dénombrement, probabilités
Dénombrement
Solution 1

Plaçons nous sur une planète donné et notons 𝑝1 , … , 𝑝𝑛 les pays et 𝑣𝑘 le nombre de voisins du pays 𝑝𝑘 . Evidemment 0 ⩽ 𝑣𝑘 ⩽ 𝑛 − 1 pour
tout 𝑘 = 1, … , 𝑛. Supposons par l’absurde que les 𝑣𝑘 sont distincts deux à deux. Alors, quitte à renuméroter les pays, on peut supposer que

0 ⩽ 𝑣1 < 𝑣2 < ⋯ < 𝑣𝑛 ⩽ 𝑛 − 1 .

Ca devient serré… on a forcément 𝑣1 = 0 et 𝑣𝑛 = 𝑛 − 1. Or c’est une contradiction car la première égalité signifie que 𝑝1 n’a pas de voisin
(c’est une île), tandis que la deuxième égalité dit que tout pays est voisin de 𝑝𝑛 .
Solution 2

1. On a S(𝑛, 𝑛) = 𝑛! puisque dans le cas 𝑛 = 𝑚 les surjections de J1, 𝑛K sur J1, 𝑚K sont des bijections.
Si 𝑛 < 𝑚 alors il n’existe pas de surjection de J1, 𝑛K sur J1, 𝑚K, donc S(𝑛, 𝑚) = 0.
2. Pour mieux cerner de quoi il s’agit il faut revenir à la version ensembliste de la notion d’application. Une application X → Y entre
deux ensembles X et Y est définie à partir de son graphe qui est un sous-ensemble Γ du produit X × Y vérifiant la propriété suivante :

(∗) ∀ 𝑥 ∈ X ∃1 𝑦 ∈ Y ∶ (𝑥, 𝑦) ∈ Γ.

On a S(0, 0) = 1. En effet, on est dans le cas où X = Y = ∅. Alors X × Y = ∅ et le graphe ne peut être que l’ensemble vide ; on parle
alors d’application vide. Comme en plus Y est vide la condition de surjectivité est trivialement satisfaite.
On a S(𝑛, 0) pour 𝑛 ∈ ℕ∗ . En effet, on est dans le cas où X ≠ ∅ et Y = ∅ ; alors la condition (∗) ne peut pas être validée, donc il
n’existe pas d’application X → Y.
Remarquons en passage qu’on a aussi S(0, 𝑚) = 0 pour tout 𝑚 ∈ ℕ∗ , mais pour une autre raison : si X = ∅ et Y ≠ ∅ alors il existe
une application X → Y, à savoir l’application vide, mais elle n’est pas surjective.
3. Soit (𝑛, 𝑚) ∈ ℕ2 . Pour calculer S(𝑛+1, 𝑚) nous devons dénombrer les possibilité de construire une application surjective 𝑓 ∶ J0, 𝑛K →
J1, 𝑚K. Nous distinguons deux cas pour une telle surjection 𝑓.

• 𝑓−1 ({𝑓(0)}) ≠ {0}. Cela siginfie que 0 n’est pas le seul élément que 𝑓 envoye sur 𝑓(0). Ainsi la restriction

ℎ = 𝑓|J1,𝑛K ∶ J1, 𝑛K → J1, 𝑚K , 𝑘 ↦ 𝑓(𝑘),

est surjective. Il existe S(𝑛, 𝑚) telles surjections ℎ, et il y a 𝑚 choix possibles pour le nombre 𝑓(0). On a alors 𝑚S(𝑛, 𝑚) possibilités
d’obtenir 𝑓.
• 𝑓−1 ({𝑓(0)}) = {0}. Cela siginfie que 𝑓 envoye tous les éléments non-nuls sur un image différente de 𝑓(0). Alors l’application

𝑔 ∶ J1, 𝑛K → J1, 𝑚K ⧵ {𝑓(0)} , 𝑘 ↦ 𝑓(𝑘),

est bien définie et surjective. Il existe 𝑚 choix possibles pour 𝑓(0), et il existe S(𝑛, 𝑚 − 1) possibilités pour une surjection 𝑔
comme ci-dessus. On a alors 𝑚S(𝑛, 𝑚 − 1) manières différentes d’obtenir 𝑓.

Nous avons donc montré que S(𝑛 + 1, 𝑚) = 𝑚(S(𝑛, 𝑚) + S(𝑛, 𝑚 − 1)).

Solution 3

(21 ) 21 × 20 21 × 5 105
1. 21/32, 2
= = = .
(32
2
) 32 × 31 8 × 31 248

2. 2 × 103 = 2000, 2 × 10 × 9 × 8 = 1440,


2 × 10 × 9 × 9 = 1620.

http://lgarcin.github.io 1
© Laurent Garcin MP Dumont d’Urville

Solution 4

1. 124 = 20736.
2. A412 = 12 × 11 × 10 × 9 = 11880.
3. 113 × 4 = 5324. 11 × 10 × 9 × 4 = 3960.
4. Chaque fois qu’il y a dans l’énoncé « au moins un » il est conseillé de passer par l’événement contraire qui est « aucun». Le nombe de
codes sans chiffres est 24 = 16, donc le nombre de codes contenant au moins un chiffre est

20736 − 16 = 20720.

Un code à caractères distincts contient forcément au moins un chiffre (car il n’y a que deux lettres). Le nombre de codes à caractères
distincts et contenant au moins un chiffre est donc 11880 (voir la deuxième question).

5. Le nombre de codes à caractères distincts sans lettre est 10 × 9 × 8 × 7 = 5040. Donc le nombre de codes à caractères distincts et
contenant au moins une lettre est
11880 − 5040 = 6840.

Solution 5

1. (32
8
) = 10518300.

2. (83)(24
5
) = 2380224.
3. « Au moins trois piques» signifie que le nombre de piques est dans {3, 4, 5, 6, 7, 8}. Il est alors plus court de passer par le contraire : le
nombre de piques est dans {0, 1, 2}.
Pas de pique : (24
8
) = 735471, un pique : (81)(24
7
) = 2768832. deux piques : (82)(24 6
) = 3768688,
Donc le nombre de mains avec au moins trois piques est

10518300 − 735471 − 2768832 − 3768688 = 3245309.

4. Notons X le nombre de rois et Y le nombre de piques dans la main. On cherche le cardinal de {X ⩾ 1} ∩ {Y ⩾ 1}. Encore une fois, le
passage au contraire nous aidera. D’après la formule de Morgan on a

{X ⩾ 1} ∩ {Y ⩾ 1} = {X = 0} ∪ {Y = 0}.

On calcule
28 24 21
|{X = 0} ∪ {Y = 0}| = |{X = 0}| + |{Y = 0}| − |{X = Y = 0}| = ( ) + ( ) − ( ) = 3640086.
8 8 8

Donc le nombre recherché est 10518300 − 3640086 = 6878214.


Solution 6

Une matrice de ℳ𝑛 (ℝ) est orthogonale si et seulement si la famille de ses vecteurs colonnes est une base orthonormée de ℝ𝑛 . En particulier,
chaque vecteur colonne doit être unitaire. Comme on recherche des matrices à coefficients entiers, chacune des colonnes possède un seul
coefficient non nul égal à ±1. Notons σ(𝑖) la position du seul coefficient non nul de la 𝑖ème colonne. Comme les vecteurs colonnes sont deux
à deux orthogonaux, 𝑖 ≠ 𝑗 ⇒ σ(𝑖) ≠ σ(𝑗). Autrement dit, σ ∈ 𝔖𝑛 . Il y a donc 𝑛! façons de placer les coefficients non nuls dans la matrice.
Comme chacun de ces coefficients peut être égal à±1, on en déduit que le cardinal de 𝒪𝑛 (ℝ) ∩ ℳ𝑛 (ℤ) est 2𝑛 𝑛!.
Solution 7

http://lgarcin.github.io 2
© Laurent Garcin MP Dumont d’Urville

1. Notons E l’ensemble des 𝑘-uplets vérifiant la condition demandée et 𝒫𝑘 l’ensemble des parties à 𝑘 éléments de J1, 𝑛K. Soit ϕ ∶
J1, 𝑛K𝑘 ⟶ 𝒫(J1, 𝑛K)
{ . ϕ induit une bijection de E sur 𝒫𝑘 . On a donc card E = (𝑛𝑘) si 𝑘 ≥ 𝑛 et card E = 0 sinon.
(𝑖1 , … , 𝑖𝑘 ) ⟼ {𝑖1 , … , 𝑖𝑘 }

2. Soit 𝑝 ∈ J1, 𝑘K. On note F l’ensemble des 𝑘-uplets vérifiant la condition demandée et F𝑝 l’ensemble des 𝑘-uplets (𝑖1 , 𝑖2 , … , 𝑖𝑘 ) de F tels
que card (ϕ((𝑖1 , … , 𝑖𝑘 ))) = 𝑝. Pour un tel 𝑘-uplet, dans la sérié d’inégalités 𝑖1 ≤ 𝑖2 ≤ ⋯ ≤ 𝑖𝑘 , 𝑘 − 𝑝 inégalités parmi les 𝑘 − 1 seront en
fait des égalités. Pour définir un élément de F𝑝 , il suffit donc de se donner un élément de 𝒫𝑝 et la place des égalités parmi les inégalités.
𝑘
𝑛 𝑘−1
On en déduit donc que card F𝑝 = (𝑛𝑝)(𝑘−𝑝 𝑘−1
). Les F𝑝 pour 𝑝 ∈ J1, 𝑘K forment une partition de F. Ainsi card F = ∑ ( )( ).
𝑝=1
𝑝 𝑘−𝑝
Soit X un ensemble à 𝑛 + 𝑘 − 1 éléments et A une partie à 𝑛 éléments de X. Notons 𝒳𝑘 l’ensemble des parties à 𝑘 éléments de X et 𝒳𝑘,𝑝
l’ensemble des parties à 𝑘 éléments de X qui comportent 𝑝 éléments dans A. Remarquons que 𝒳𝑘,0 = ∅. Les 𝒳𝑘,𝑝 pour 𝑝 ∈ J1, 𝑘K
forment donc une partition de 𝒳𝑘 . On a évidemment card 𝒳𝑘 = (𝑛+𝑘−1 𝑘
). De plus, card 𝒳𝑘,𝑝 = (𝑛𝑝)(𝑘−𝑝
𝑘−1
) (on choisit 𝑝 éléments dans A
𝑘
𝑛 𝑘−1 𝑛+𝑘−1
et 𝑘 − 𝑝 éléments dans X ⧵ A). On a donc ∑ ( )( )=( ).
𝑝=1
𝑝 𝑘−𝑝 𝑘
Ainsi card F = (𝑛+𝑘−1
𝑘
).
Solution 8

1. Se donner 𝑓 ∈ 𝒮𝑝,𝑛 revient à se donner 𝑓(1) < 𝑓(2) < ⋯ < 𝑓(𝑝) dans J1, 𝑛K, c’est-à-dire une partie à 𝑝 éléments de J1, 𝑛K puisqu’il
n’y a qu’une seule façon de ranger par ordre strictement croissant les éléments d’une partie de J1, 𝑛K. Ainsi card 𝒮𝑝,𝑛 = (𝑛𝑝) si 𝑝 ≥ 𝑛 et
card 𝒮𝑝,𝑛 = 0 sinon.
2. Soient 𝑥 ∈ J1, 𝑝 − 1K. Alors 𝑔(𝑥 + 1) − 𝑔(𝑥) = 𝑓(𝑥 + 1) − 𝑓(𝑥) + 1 > 0 car 𝑓(𝑥 + 1) ≥ 𝑓(𝑥). Ainsi 𝑔 est strictement croissante.
Pour tout 𝑥 ∈ J1, 𝑝K, on a 1 ≤ 𝑥 ≤ 𝑝 et 1 ≤ 𝑓(𝑥) ≤ 𝑛 donc 1 ≤ 𝑓(𝑥) + 𝑥 − 1 ≤ 𝑛 + 𝑝 − 1.

3. Notons ψ l’application qui à une fonction 𝑓 de 𝒮𝑝,𝑛 associe la fonction 𝑔 de 𝒮𝑝,𝑛+𝑝−1 définie comme dans la question précédente.
Montrons que ψ est injective. Soient 𝑓1 , 𝑓2 ∈ 𝒞𝑝,𝑛 telles que ψ(𝑓1 ) = ψ(𝑓2 ). Alors pour tout 𝑥 ∈ J1, 𝑝K, 𝑓1 (𝑥) + 𝑥 − 1 = 𝑓2 (𝑥) + 𝑥 − 1
et donc 𝑓1 (𝑥) = 𝑓2 (𝑥). Ainsi 𝑓1 = 𝑓2 .
Montrons que ψ est surjective. Soit 𝑔 ∈ 𝒮𝑝,𝑛+𝑝−1 . Pour 𝑥 ∈ J1, 𝑝K, posons 𝑓(𝑥) = 𝑔(𝑥) − 𝑥 + 1. On va vérfier que 𝑓 ∈ 𝒞𝑝,𝑛 et ainsi
on aura ψ(𝑓) = 𝑔.
Montrons que 𝑓 est croissante. Soient 𝑥 ∈ J1, 𝑝 − 1K. Alors 𝑓(𝑥 + 1) − 𝑓(𝑥) = 𝑔(𝑥 + 1) − 𝑔(𝑥) − 1. Comme 𝑔 est strictement croissante
à valeurs entières 𝑔(𝑥 + 1) − 𝑔(𝑥) ≥ 1. Donc 𝑓(𝑥 + 1) − 𝑓(𝑥) ≥ 0.
Montrons que 𝑓 est à valeurs dans J1, 𝑛K. On a 𝑓(1) = 𝑔(1) − 1 + 1 = 𝑔(1) ≥ 1 et 𝑓(𝑝) = 𝑔(𝑝) − 𝑝 + 1 ≤ 𝑛 + 𝑝 − 1 − 𝑝 + 1 = 𝑛 car
𝑔 est à valeurs dans J1, 𝑛 + 𝑝 − 1K. Comme 𝑓 est croissante, pour tout 𝑥 ∈ J1, 𝑝K, 1 ≤ 𝑓(1) ≤ 𝑓(𝑥) ≤ 𝑓(𝑝) ≤ 𝑛.
ψ ∶ 𝒞𝑝,𝑛 → 𝒮𝑝,𝑛+𝑝−1 est injective et surjective donc bijective. On en déduit que card 𝒞𝑝,𝑛 = card 𝒮𝑝,𝑛+𝑝−1 .
4. a. Notons E𝑝,𝑛 l’ensemble des 𝑛-uplets recherchés. On définit l’application

E𝑝,𝑛 ⟶ 𝒞𝑝,𝑛
ϕ∶{ J1, 𝑝K ⟶ J1, 𝑛 + 1K
(𝑢1 , … , 𝑢𝑝 ) ⟼ { 𝑥
𝑥 ⟼ 1 + ∑𝑖=1 𝑢𝑖

ϕ est bien définie :


• comme les 𝑢𝑖 sont positifs, ϕ(𝑢1 , … , 𝑢𝑝 ) est bien une application croissante ;
• comme 𝑢1 + ⋯ + 𝑢𝑝 ≤ 𝑛, cette application est bien à valeurs dans J1, 𝑛 + 1K.
Montrons que ϕ est bijective.
• Injectivité : Soient (𝑢1 , … , 𝑢𝑝 ) et (𝑣1 , … , 𝑣𝑝 ) des éléments de E𝑝,𝑛 tels que ϕ(𝑢1 , … , 𝑢𝑝 ) = ϕ(𝑣1 , … , 𝑣𝑝 ). Notons 𝑓 =
ϕ(𝑢1 , … , 𝑢𝑝 ) = ϕ(𝑣1 , … , 𝑣𝑝 ). On a alors 𝑓(1) = 𝑢1 = 𝑣1 et 𝑓(𝑥) − 𝑓(𝑥 − 1) = 𝑢𝑥 = 𝑣𝑥 pour 𝑥 ∈ J2, 𝑝K. D’où (𝑢1 , … , 𝑢𝑝 ) =
(𝑣1 , … , 𝑣𝑝 ).
• Surjectivité : Soit 𝑓 ∈ 𝒞𝑝,𝑛 . On pose 𝑢1 = 𝑓(1) et 𝑢𝑥 = 𝑓(𝑥) − 𝑓(𝑥 − 1) pour 𝑥 ∈ J2, 𝑝K. Les 𝑢𝑖 ainsi définis sont des entiers
naturels car 𝑓 est croissante. On a 𝑢1 + ⋯ + 𝑢𝑝 = 𝑓(𝑝) par télescopage et 𝑓(𝑝) ≤ 𝑛. Donc (𝑢1 , … , 𝑢𝑝 ) ∈ E𝑝,𝑛 . Enfin, on a
𝑥
bien ϕ(𝑢1 , … , 𝑢𝑝 ) = 𝑓 puisque ∀𝑥 ∈ J1, 𝑝K, ∑𝑖=1 𝑢𝑖 = 𝑓(𝑥) par télescopage à nouveau.
On en déduit card E𝑝,𝑛 = card 𝒞𝑝,𝑛+1 = (𝑛+𝑝
𝑝
).

http://lgarcin.github.io 3
© Laurent Garcin MP Dumont d’Urville

b. Notons F𝑝,𝑛 l’ensemble des éléments recherchés. On remarque que F𝑝,𝑛 = E𝑝,𝑛 ⧵ E𝑝,𝑛−1 . Comme E𝑝,𝑛−1 ⊂ E𝑝,𝑛 , on a card F𝑝,𝑛 =
card E𝑝,𝑛 − card E𝑝,𝑛−1 = (𝑛+𝑝
𝑝
) − (𝑛+𝑝−1
𝑝
) = (𝑛+𝑝−1
𝑝−1
).
Solution 9

1. Notons E1 l’ensemble des couples (X, Y) tels que X ∩ Y = ∅. Le choix d’un tel couple (X, Y) revient au choix de 𝑘 éléments de X
parmi les 𝑛 éléments de E et au choix de 𝑙 éléments de Y parmi les 𝑛 − 𝑘 éléments restants. Ainsi
𝑛
𝑛 𝑛−𝑘 𝑛 − 𝑘
card E1 = ∑ ( ) ∑ ( )
𝑘=0
𝑘 𝑙=0 𝑙
𝑛
𝑛
= ∑ ( )2𝑛−𝑘 = (1 + 2)𝑛 = 3𝑛
𝑘=0
𝑘

2. Notons E2 l’ensemble des couples (X, Y) tels que X ∪ Y = E. Comme X ∪ Y = E équivaut à X ∩ Y = ∅ et que (X, Y) ↦ (X, Y) est
une bijection de 𝒫(E)2 dans lui-même, card E1 = card E2 = 3𝑛 .
3. Notons E3 l’ensemble des couples (X, Y) formant une partition de E. Le choix d’un tel couple (X, Y) revient au choix de 𝑘 éléments
de X parmi les 𝑛 éléments de E et des 𝑛 − 𝑘 éléments restants pour Y. Ainsi
𝑛
𝑛
card E3 = ∑ ( ) = (1 + 1)𝑛 = 2𝑛
𝑘=0
𝑘

4. Notons E4 l’ensemble des triplets (X, Y, Z) tels que X ∪ Y = Z. Le choix d’un triplet (X, Y, Z) de E4 revient au choix de 𝑖 éléments de
Z parmi les 𝑛 éléments de E puis au choix d’un couple (X, Y) tel que X ∪ Y = Z. On a vu qu’il existe 3𝑖 choix possibles pour un tel
couple (X, Y). Ainsi
𝑛
𝑛
card E4 = ∑ ( )3𝑖 = (1 + 3)𝑛 = 4𝑛
𝑖=0
𝑖
On peut même faire plus simple : le choix d’un triplet (X, Y, Z) tel que X ∪ Y = Z revient au choix d’un couple (X, Y) puisqu’une fois
que celui-ci est choisi Z est déterminé de manière unique. Ainsi
card E4 = (card 𝒫(E)) = (2𝑛 )2 = 22𝑛
2

Solution 10

Soit E un ensemble à 2𝑛 éléments et (E1 , E2 ) une partition de E avec card E1 = card E2 = 𝑛. Notons ℰ l’ensemble des parties de E à 𝑛
éléments et, pour 0 ≤ 𝑘 ≤ 𝑛, ℰ𝑘 l’ensemble des parties de E à 𝑛 élémnents possédant eaxctement 𝑘 éléments dans ℰ1 . Il est clair que
(ℰ0 , ℰ1 , … , ℰ𝑛 ) est une partition de ℰ. Se donner un élément de ℰ𝑘 revient à se donner une partie à 𝑘 éléments de E1 et une partie à 𝑛 − 𝑘
2
éléments de E2 . On en déduit que card ℰ𝑘 = (𝑛𝑘)(𝑛−𝑘 𝑛
) = (𝑛𝑘) par symétrie des coefficients binomiaux. On sait que card ℰ = (2𝑛
𝑛
). Comme
𝑛
(ℰ0 , ℰ1 , … , ℰ𝑛 ) est une partition de ℰ, on en déduit que card ℰ = ∑ card ℰ𝑘 puis la formule demandée.
𝑘=0
Solution 11

Comme trois de ces cordes ne sont jamais concourantes, il suffit de dénombrer le nombre de points d’intersection de ces cordes deux à deux.
Notons ℰ l’ensemble des combinaisons de 4 points parmi A1 , … , A𝑛 de 𝒞. Pour E ∈ ℰ, notons 𝒞E l’ensemble des paires de cordes dont les
extrémités sont des points de E. La famille (𝒞E )E∈ℰ est une partition de l’ensemble des paires de cordes d’extrémités A1 , … , A𝑛 . Il suffit
alors de remarquer que si l’on se donne 4 points parmi A1 , … , A𝑛 , parmi les 6 cordes formées 4 points, seules deux d’entre elles se coupent
à l’intérieur du cercle (le quadrilatère non croisé formé par ces 4 points est convexe). Le nombre de points recherché est donc(𝑛4).
Solution 12

Notons 𝑘 = card{𝑥1 , … , 𝑥𝑛 } et {𝑥1 , … , 𝑥𝑛 } = {𝑎1 , … , 𝑎𝑘 } (les 𝑎𝑖 sont sans doublon). Notons enfin A𝑖 = {𝑗 ∈ J1, 𝑛K | 𝑥𝑗 = 𝑎𝑖 } pour 𝑖 ∈ J1, 𝑘K.
𝑘
On a ∑ card A𝑖 = 𝑛. Supposons que moins de 𝑝 nombres parmi 𝑥1 , … , 𝑥𝑛 soient égaux. On a donc card A𝑖 ≤ 𝑝 pour tout 𝑖 ∈ J1, 𝑘K. D’où
𝑖=1
𝑛 ≤ 𝑝𝑘. Or on sait que 𝑛 ≥ 𝑝2 + 1 donc 𝑝𝑘 ≥ 𝑝2 + 1 puis 𝑘 > 𝑝. Ceci signifie qu’il existe au moins 𝑝 + 1 nombres deux à deux distincts
parmi 𝑥1 , … , 𝑥𝑛 .

http://lgarcin.github.io 4
© Laurent Garcin MP Dumont d’Urville

Solution 13

1. On a clairement ν𝑛 (ℕ∗ ) = 𝑛 et donc δ𝑛 (ℕ∗ ) = 1 pour tout 𝑛 ∈ ℕ∗ . On en déduit que δ𝑛 (ℕ∗ ) = 1.

2. Comme E est fini, il admet un plus grand élément. Posons N = max E. Pour 𝑛 ≥ N, ν𝑛 (E) = N et donc δ𝑛 (E) =
N
. On en déduit que
𝑛
δ(E) = 0.

3. Pour 𝑘 ∈ ℕ∗ , ν2𝑘 (2ℕ) = 𝑘 et ν2𝑘+1 (2ℕ) = 𝑘 + 1. Par conséquent, pour 𝑛 ∈ ℕ∗ ,


𝑛 𝑛+1 1 1 1
≤ ν𝑛 (2ℕ) ≤ et donc ≤ δ𝑛 (2ℕ) ≤ + .
2 2 2 2 2𝑛
1
Par encadrement, δ(2ℕ) = .
2

4. Les carrés compris entre 1 sont de la forme 𝑘2 avec 1 ≤ 𝑘2 ≤ 𝑛 i.e. 1 ≤ 𝑘 ≤ √𝑛. On a donc ν𝑛 (C) = ⌊√𝑛⌋. On en déduit l’encadrement
√𝑛−1 √𝑛
< δ𝑛 (C) ≤ . Par encadrement, δ(C) = 0.
𝑛 𝑛

5. On a A ∩ J1, 22𝑛 K = ⋃𝑘=0 K22𝑘 , 22𝑘+1 K. Comme card (K22𝑘 , 22𝑘+1 K) = 22𝑘 ,
𝑛−1

𝑛−1
22𝑛 − 1
ν22𝑛 (A) = ∑ 22𝑘 =
𝑘=0
3
𝑛
On a également A ∩ J1, 22𝑛+1 K = ⋃𝑘=0 K22𝑘 , 22𝑘+1 K. Donc
𝑛
22(𝑛+1) − 1
ν22𝑛+1 (A) = ∑ 22𝑘 =
𝑘=0
3

22𝑛 −1 22𝑛+2 −1
On a donc δ22𝑛 (A) = et δ22𝑛+1 (A) = . On en déduit que les suites (δ22𝑛 (A)) et (δ22𝑛+1 (A)) convergent respectivement
3.22𝑛 3.22𝑛+1
1 2
vers et . Comme ce sont des suites extraites de (δ𝑛 (A)), cette suite ne converge pas. Ainsi A n’a pas de densité.
3 3

6. Remarquons qu’il existe 9𝑘 entiers à 𝑘 chiffres ne comportant pas de zéro dans leur écriture décimale. On en déduit que pour 𝑝 ≥ 1,
𝑝 9𝑝+1 −1
ν10𝑝 = ∑𝑘=1 9𝑘 = . Soit 𝑛 un entier et posons 𝑝 = ⌊log10 𝑛⌋ + 1 de sorte que 𝑛 ≤ 10𝑝 . On a donc
8

9𝑝+1 − 1 9log10(𝑛)+2 − 1 81𝑛log10(9) − 1


0 ≤ ν𝑛 (D) ≤ ≤ =
8 8 8
Par conséquent
81𝑛log10(9) − 1
0 ≤ δ𝑛 (D) ≤
8𝑛
Comme log10 (9) < 1, on a par encadrement δ(D) = 0.
Solution 14

1. Evident puisque, pour 𝑥 ∈ E, 1A (𝑥) = 1 si 𝑥 ∈ A et 1A (𝑥) = 0 sinon.


2. Soit 𝑥 ∈ E. Si 𝑥 ∈ A, alors 1A (𝑥) = 1. De plus, 𝑥 appartient également à tous les A𝑖 donc 1A𝑖 (𝑥) = 1 pour tout 𝑖 ∈ J1, 𝑛K. On a donc
𝑛
∏(1A (𝑥) − 1A𝑖 (𝑥)) = 0 puisque tous les facteurs sont nuls.
𝑖=1
Si 𝑥 ∉ A, alors 1A (𝑥) = 0. De plus, il existe 𝑖0 ∈ J1, 𝑛K tel que 𝑥 ∉ A𝑖0 . On a donc 1A𝑖 (𝑥) = 0. Ainsi 1A (𝑥) − 1A𝑖 (𝑥) = 0 et donc
0 0
𝑛
∏(1A (𝑥) − 1A𝑖 (𝑥)) = 0 car l’un des facteurs est nul.
𝑖=1
𝑛
Finalement, ∏𝑖=1 (1A (𝑥) − 1A𝑖 (𝑥)) = 0 pour tout 𝑥 ∈ E.

http://lgarcin.github.io 5
© Laurent Garcin MP Dumont d’Urville

3. En utilisant le fait que 1𝑘A = 1A pour tout 𝑛 ∈ ℕ, on obtient en développant


𝑛 𝑘
∏(1A − 1A𝑖 ) = 1A + ∑ (−1)𝑘 ∑ ∏ 1A𝑖
𝑗
𝑖=1 𝑘=1 1≤𝑖1 <𝑖2 <⋯<𝑖𝑘 ≤𝑛 𝑗=1

= 1A + ∑ (−1)𝑘 ∑ 1⋂𝑘 A𝑖
𝑗=1 𝑗
𝑘=1 1≤𝑖1 <𝑖2 <⋯<𝑖𝑘 ≤𝑛

𝑛
Puisque ∏(1A − 1A𝑖 ) = 0, on a :
𝑖=1
1A = ∑ (−1)𝑘−1 ∑ 1⋂𝑘 A𝑖
𝑗=1 𝑗
𝑘=1 1≤𝑖1 <𝑖2 <⋯<𝑖𝑘 ≤𝑛

puis

∑ 1A (𝑥) = ∑ ∑ (−1)𝑘−1 ∑ 1⋂𝑘 A𝑖


(𝑥)
𝑗=1 𝑗
𝑥∈A 𝑥∈A 𝑘=1 1≤𝑖1 <𝑖2 <⋯<𝑖𝑘 ≤𝑛

= ∑ (−1)𝑘−1 ∑ ∑ 1⋂𝑘 A𝑖
(𝑥)
𝑗=1 𝑗
𝑘=1 1≤𝑖1 <𝑖2 <⋯<𝑖𝑘 ≤𝑛 𝑥∈A

Il suffit alors d’utiliser la première question pour aboutir à la relation demandée.


Solution 15

Le nombre recherché est le nombre de façons d’ordonner les 𝑛 éléments de l’ensemble autrement dit le nombre de permutations de cet
ensemble, à savoir 𝑛!.
Solution 16

Soient E un ensemble de cardinal 𝑛 + 𝑚, F et G deux parties de cardinaux respectifs 𝑛 et 𝑚 formant une partition de 𝑚.
Soit 𝒜 l’ensemble des parties de E à 𝑟 éléments. Pour 𝑘 ∈ J0, 𝑟K, on note 𝒜𝑘 l’ensemble des parties de E possédant 𝑘 éléments dans F et
𝑟
donc 𝑟 − 𝑘 éléments dans G. Les 𝒜𝑘 pour 𝑘 ∈ J0, 𝑟 forment clairement une partition de 𝒜 de sorte que card 𝒜 = ∑𝑘=0 card 𝒜𝑘 .
D’une part, card 𝒜 = (𝑛+𝑚 𝑟
). D’autre part, choisir un élément de 𝒜𝑘 revient à choisir une partie de F à 𝑘 éléments et une partie de G à 𝑛 − 𝑘
éléments. Il s’ensuit que card 𝒜𝑘 = (𝑛𝑘)(𝑟−𝑘
𝑚
). On obtient bien la formule demandée.
Solution 17
𝑘
Notons 𝑥1 , … , 𝑥𝑛 ces 𝑛 entiers. Pour 𝑘 ∈ J1, 𝑛K, posons S𝑘 = ∑𝑝=1 𝑥𝑘 et notons 𝑟𝑘 le reste de la division euclidienne de S𝑘 par 𝑛. Les 𝑛
entiers 𝑟1 , … , 𝑟𝑛 appartiennent à J0, 𝑛 − 1K.
• S’il existe 𝑘 ∈ J1, 𝑛K tel que 𝑟𝑘 = 0, alors S𝑘 est divisible par 𝑛.
• Sinon les 𝑛 entiers 𝑟1 , … , 𝑟𝑛 appartiennent à J1, 𝑛 − 1K. D’après le principe de Dirichlet, il existe deux entiers 𝑘 et 𝑙 de J1, 𝑛K tels que
𝑙
𝑘 < 𝑙 et 𝑟𝑘 = 𝑟𝑙 . Alors S𝑙 − S𝑘 = ∑𝑝=𝑘+1 𝑥𝑘 est divisible apar 𝑛.

Remarque. On a même prouvé que si on a préalablement ordonné les 𝑛 entiers de manière quelconque, on peut trouver une somme d’entiers
consécutifs (au sens de l’ordre choisi) divisible par 𝑛.

Solution 18

1. On introduit les intervalles I𝑘 = [ ,


𝑘 𝑘+1
[ avec 𝑘 ∈ J0, 𝑛 − 1K. Puisque I0 , … , I𝑛−1 forment une partition de [0, 1[ et que les réels
𝑛 𝑛
δ0 , … , δ𝑛 sont tous dans [0, 1[, chacun des 𝑛 + 1 réels δ0 , … , δ𝑛 appartient à un des 𝑛 intervalles I0 , … , I𝑛−1 . D’après le principe des
tiroirs, deux de ces réels appartiennent au même intervalle. Autrement dit il existe deux entiers 𝑘 et 𝑙 de J0, 𝑛K tels que 𝑘 < 𝑙 et un entier
𝑚 𝑚+1 𝑚 𝑚+1 1 1 1
𝑚 ∈ J0, 𝑛 − 1K tel que δ𝑘 et δ𝑙 appartiennent à I𝑚 . Ainsi, ≤ δ𝑘 < et ≤ δ𝑙 < puis − < δ𝑙 − δ𝑘 < i.e. |δ𝑙 − δ𝑘 | < .
𝑛 𝑛 𝑛 𝑛 𝑛 𝑛 𝑛
On a alors le résultat voulu en posant 𝑞 = 𝑙 − 𝑘 et 𝑝 = ⌊𝑙𝑥⌋ − ⌊𝑘𝑥⌋.

2. a. Notons 𝒟 l’ensemble des couples (𝑝, 𝑞) ∈ ℤ × ℕ∗ tels que |||𝑥 − ||| < 2 . 𝒟 est non vide puisqu’il contient le couple, (⌊𝑥⌋, 1).
𝑝 1
𝑞 𝑞

Supposons que 𝒟 soit fini. Notons 𝑚 = min(𝑝,𝑞)∈𝒟 |||𝑥 − |||. 𝑚 est bien défini car 𝒟 est non vide et fini. De plus, 𝑚 > 0 car 𝑥
𝑝
𝑞

http://lgarcin.github.io 6
© Laurent Garcin MP Dumont d’Urville

1
est irrationnel. Il existe donc 𝑛 ∈ ℕ∗ tel que ≤ 𝑚. D’après la question précédente, il existe un couple (𝑟, 𝑠) ∈ ℤ × ℕ∗ tel que
𝑛
𝑟 1
𝑠 ≤ 𝑛 et ||𝑥 − || < . Puisque 𝑠 ≥ 1,
𝑠 𝑛𝑠
|𝑥 − 𝑟 | < 1 ≤ 1 ≤ 𝑚
| 𝑠 | 𝑛𝑠 𝑛
donc (𝑟, 𝑠) ∉ 𝒟.
De plus, 𝑠 ≤ 𝑛 donc
|𝑥 − 𝑟 | < 1 ≤ 1
| 𝑠 | 𝑛𝑠 𝑠2
donc (𝑟, 𝑠) ∈ 𝒟 d’où une contradiction.
b. Notons ℰ l’ensemble des entiers 𝑝 ∈ ℤ tels qu’il existe 𝑞 ∈ ℕ∗ tel que |||𝑥 − ||| < 2 . Pour 𝑝 ∈ ℰ, notons 𝒟𝑝 l’ensemble des
𝑝 1
𝑞 𝑞

entiers 𝑞 ∈ ℕ∗ tels que |||𝑥 − ||| < 2 . On a 𝒟 = ⋃𝑝∈ℰ {𝑝} × 𝒟𝑝 . Supposons que ℰ soit fini. Puisque 𝒟 est infini, il existe un entier
𝑝 1
𝑞 𝑞
𝑝 ∈ ℰ tel que 𝒟𝑝 soit infini. En particulier, on peut construire une suite strictement croissante (𝑞𝑛 ) d’éléments de 𝒟𝑝 . Puisque
(𝑞𝑛 ) est à valeurs entières, (𝑞𝑛 ) diverge vers +∞. Or pour tout 𝑛 ∈ ℕ, |||𝑥 − ||| < 2 donc, par passage à la limite, |𝑥| ≤ 0 i.e.
𝑝 1
𝑞𝑛 𝑞𝑛
𝑥 = 0, ce qui est absurde car 𝑥 est irrationnel.
Ainsi ℰ est infini.
3. a. Supposons 𝑙 > 0. Alors (𝑢𝑛 ) est minorée par un réel 𝑚 > 0 à partir d’un certain rang. Il existe donc N ∈ ℕ tel que
1
≥𝑚
𝑛 sin 𝑛
1
pour tout 𝑛 ≥ N. Ainsi 0 ≤ sin 𝑛 ≤ pour tout 𝑛 ∈ ℕ et donc la suite (sin 𝑛) converge vers 0 ce qui est classiquement faux.
𝑛𝑚
En considérant la suite (−𝑢𝑛 ), on montre de même qu’on ne peut avoir 𝑙 < 0.
On en conclut que 𝑙 = 0.
b. Comme l’ensemble ℰ est infini, on peut trouver une suite strictement croissante (𝑝𝑛 ) à valeurs dans ℰ. Pour tout 𝑛 ∈ ℕ, il existe
𝑞𝑛 ∈ ℕ∗ tel que |||π − 𝑛 ||| < 2 i.e. |𝑞𝑛 π − 𝑝𝑛 | < . Remarquons en particulier que 𝑞𝑛 π > 𝑝𝑛 − ≤ 𝑝𝑛 − 1. Ainsi (𝑞𝑛 ) diverge
𝑝 1 1 1
𝑞𝑛 𝑞𝑛 𝑞𝑛 𝑞𝑛
𝑝𝑛
également vers +∞ et donc lim𝑛→+∞ = π.
𝑞𝑛
De plus, pour tout 𝑛 ∈ ℕ
1
| sin(𝑝𝑛 )| = | sin(𝑞𝑛 π − 𝑝𝑛 )| ≤ |𝑞𝑛 π − 𝑝𝑛 | <
𝑞𝑛
𝑞𝑛
Ainsi pour tout 𝑛 ∈ ℕ, |𝑢𝑝𝑛 | > . Comme (𝑢𝑝𝑛 ) est une suite extraite de (𝑢𝑛 ), on obtient 0 ≤ π par passage à la limite d’où la
𝑝𝑛
contradiction.
Par conséquent, la suite (𝑢𝑛 ) n’admet pas de limite.
Solution 19

Première solution
Numérotons dans un premier temps les 10 trinômes. Il y a (303
) façons de choisir les élèves du trinôme 1, puis (27
3
) façons de choisir les élèves
du trinôme 2, …et enfin (3) façons de choisir les élèves du trinôme 10. Le nombre de façons de répartir les élèves dans les trinômes 1 à 10
3

est donc
10 10
3 3𝑘! 30!
∏( ) = ∏ = 10
𝑘=1
3𝑘 𝑘=1
3!(3(𝑘 − 1))! (3!)
Mais l’énoncé ne fait pas mention d’un ordre ou d’une numérotation des trinômes : on divise donc le nombre trouvé par 10!. Le nombre
30!
recherché est donc 10
.
(3!) 10!
Seconde solution
On peut répartir les élèves en trinômes en se donnant une liste des élèves dans un ordre quelconque puis en groupant les trois premiers, puis
les trois suivants, …Il existe 30! liste de 30 élèves. Mais une liste étant donnée, une permutation des 3 élèves d’un même groupe ou une
permutation des 10 groupes donne une liste qui fournit la même répartition en trinômes. Il existe donc (3!)10 10! listes fournissant la même
30!
répartition en trinômes. Le nombre recherché est donc à nouveau 10
.
(3!) 10!
Solution 20

Il existe évidemment 5! anagrammes du mot «MATHS».


Pour former une anagramme du mot «MOTO», il faut déjà placer le «M» et le «T» : il y a 4 × 3 façons de le faire. Les deux dernières
lettres à placer sont forcément des «O» : il n’y a donc pas de choix à effectuer. Il existe donc 12 anagrammes du mot «MOTO».

http://lgarcin.github.io 7
© Laurent Garcin MP Dumont d’Urville

Pour former une anagramme du mot «DODO», il faut déjà placer les deux «D» : il suffit de choisir deux places parmi les quatre possibles
autrement dit (42) possibilités. Les deux dernières lettres à placer sont forcément des «O» : il n’y a donc pas de choix à effectuer. Il existe donc
6 anagrammes du mot «DODO».
Pour former une anagramme du mot «ANAGRAMME», il faut déjà placer les trois «A» : il suffit de choisir trois places parmi les neuf
possibles autrement dit (93) possibilités. On place ensuite les deux «M» : il suffit de choisir deux places parmi les six restantes autrement dit
(62) possibilités. On place ensuite les quatre lettres «N», «G», «R», «E» aux quatres places restantes : il y a 4! façons de le faire. Il existe en
9!
tout (93)(62)4! = = 30240 anagrammes du mot «ANAGRAMME».
3!2!
Le mot «ANTICONSTITUTIONNELLEMENT» comporte 25 lettres dont 5 «N», 5 «T», 3 «I», 2 «O», 3 «E», 2 «L», toutes les autres
25!
lettres n’apparaissant qu’une fois. Le nombre d’anagrammes du mot «ANTICONSTITUTIONNELLEMENT» est donc =
(5!)2 (3!)2 (2!)2
7480328917501440000.
Solution 21

1. 𝑛𝑚
2. 𝑛!
3. C’est le nombre de 𝑛 − 1-arrangements autrement dit 𝑛!
4. Soit A un ensemble à 𝑛 éléments et B un ensemble à 𝑛 − 1 éléments. Remarquons que si 𝑓 est une surjection de A sur B, un élément
de B aura deux antécédents dans A et les autres un seul.
Se donner une surjection de A sur B, c’est donc se donner la paire d’éléments de A ayant la même image ((𝑛2) possibilité) puis se donner
l’image de cette paire et les images des 𝑛 − 2 éléments restants ((𝑛 − 1)! possibilités). Le nombre de surjection de A sur B est donc
𝑛!(𝑛−1)
(𝑛2)(𝑛 − 1)! = .
2

Solution 22

Notons C1 , … , C𝑘 les classes d’équivalences et 𝑛1 , … , 𝑛𝑘 leurs cardinaux respectifs. Puisque les classes d’équivalence forment une partition
𝑘 𝑘 𝑘
de E, 𝑛 = ∑𝑗=1 𝑛𝑗 . De plus, G = ⋃𝑗=1 C𝑗2 , l’union étant disjointe. Ainsi 𝑝 = ∑𝑗=1 𝑛𝑗2 . D’après l’inégalité de Cauchy-Schwarz

𝑘 2 𝑘 𝑘
𝑛 = ( ∑ 1 × 𝑛𝑗 ) ≤ ( ∑ 12 ) ( ∑ 𝑛𝑗2 ) = 𝑘𝑝
2

𝑗=1 𝑗=1 𝑗=1

Solution 23

1. Notons R la matrice (𝑟𝑖,𝑗 )1≤𝑖,𝑗≤𝑛 . Pour tout (𝑖, 𝑗) ∈ J1, 𝑛K, 𝑎𝑖,𝑗 ≡ 𝑟𝑖,𝑗 [2]. Par compatibilité de la relation de congruence avec la somme
et le produit,
𝑛 𝑛
det(A) = ∑ ε(σ) ∏ 𝑎σ(𝑖),𝑖 ≡ ∑ ε(σ) ∏ 𝑟σ(𝑖),𝑖 [2]
σ∈S𝑛 𝑖=1 σ∈S𝑛 𝑖=1

Autrement dit det A ≡ det B[2].


2. Clairement, card(ℳ) = 9!.
3. D’après la première question, l’application qui à M ∈ Ω associe la matrice constituée des restes des divisions euclidiennes des
coefficients de A par 2 a pour image Δ. De plus, chaque élément de Δ a 5! ⋅ 4! antécédents par cette application (5! façons de placer les
chiffres impairs et 4! façons de placer les chiffres pairs). D’après le lemme des bergers, card(Ω) = 5! ⋅ 4! card(Δ).
4. a. Il y a trois façons de placer la colonne de 1. Une fois cette colonne placée, les deux 1 restants ne peuvent appartenir à la même
colonne sinon on aurait une colonne de 0 et donc un déterminant nul (non impair). Les deux 1 restants ne peuvent être situés sur
la même ligne sinon les deux colonnes où ils figurent seraient égales et donc le déterminant serait nul. Il y a donc 3 × 2 = 6
façons de placer les deux 1 restants. Les matrices obtenues sont bien de déterminants impairs puisque par échange de lignes et
|1 0 1|
| |
de colonnes, leurs déterminants sont égaux au signe près à | 0 1 1 | = 1. On en déduit que card(K1 ) = 3 × 6 = 18.
| |
|0 0 1|

http://lgarcin.github.io 8
© Laurent Garcin MP Dumont d’Urville

b. Il y a (32) = 3 façons de choisir les deux colonnes possédant un unique 0. Dans ces deux colonnes, les zéros ne peuvent figurer
sur la même ligne sinon les deux colonnes sont égales et le déterminant est nul. Il y a donc 3 × 2 = 6 façons de placer les 0 dans
ces deux colonnes. Il y a enfin 3 façons de placer le 1 restant dans la colonne restante. Les matrices ainsi obtenues sont bien de
|1 1 1|
| |
déterminants impairs puisque par échange de lignes et de colonnes, leurs déterminants sont égaux au signe près à | 0 1 0 | = 1.
| |
|0 0 1|
On en déduit que card(K2 ) = 3 × 6 × 3 = 18 = 54.
c. Les deux ensembles dénombrés dans les deux questions précédentes sont disjoints puisqu’une matrice de Δ possédant une colonne
avec trois coefficients égaux à 1 a forcément une colonne avec plus deux deux coefficients égaux à 0. Ces deux ensembles sont
également de réunion Δ puisqu’une matrice de Δ qui ne contient aucune colonne avec trois coeffiients égaux à 1 a forcément deux
colonnes avec exactement un coefficient égal à 0. Ces deux ensembles forment donc une partition de Δ de sorte que card(Δ) =
K1 + K2 = 72.
d. Finalement, card(Ω) = 72 ⋅ 5! ⋅ 4!.
5. Implicitement, on suppose que la probabilité est uniforme sur ℳ.

card(Ω) 72 ⋅ 5! ⋅ 4! 4
𝑝= = =
card(ℳ) 9! 7

Solution 24
𝑛!
Remarquons qu’un mot ne comportant pas deux fois la même lettre possède au plus 𝑛 lettres. De plus, il y a mots de 𝑘 lettres ne
(𝑛−𝑘)!
comportant pas deux fois la même lettre. Ainsi
𝑛 𝑛 𝑛
𝑛! 𝑛! 1
M𝑛 = ∑ = ∑ = 𝑛! ∑
𝑘=0
(𝑛 − 𝑘)! 𝑘=0
𝑘! 𝑘=0
𝑘!

De plus,
+∞
1
𝑛!𝑒 = 𝑛! ∑
𝑘=0
𝑘!
Pour conclure, il suffit donc de montrer que
+∞
1
0 ≤ 𝑛! ∑ <1
𝑘=𝑛+1
𝑘!
L’inégalité de gauche est évidente. Posons
+∞
1
R𝑛 = ∑
𝑘=𝑛+1
𝑘!
Remarquons que
+∞
1
R𝑛 = ∑
𝑘=0
(𝑛 + 1 + 𝑘)!
et que pour tout entier 𝑘 ≥ 1,
1 1 1
< ⋅
(𝑛 + 1 + 𝑘)! (𝑛 + 1)! (𝑛 + 1)𝑘
1 1
Comme la série géométrique ∑𝑘∈ℕ converge (en effet, 0 ≤ < 1), on peut écrire
(𝑛+1)𝑘 𝑛+1

+∞
1 1 1 1 1
R𝑛 < ∑ = ⋅ 1
=
(𝑛 + 1)! 𝑘=0 (𝑛 + 1)𝑘 (𝑛 + 1)! 1 − 𝑛 ⋅ 𝑛!
𝑛+1

Ainsi
1
𝑛!R𝑛 < ≤1
𝑛
ce qui permet de conclure.

http://lgarcin.github.io 9
© Laurent Garcin MP Dumont d’Urville

Solution 25

1. a. Une permutation de E𝑛 à 𝑛 points fixes est l’identité donc S𝑛,𝑛 = 1.


Si une permutation a 𝑛 − 1 points fixes, le dernier point de E𝑛 est nécessairement un point fixe. Une permutation ne peut donc
avoir exactement 𝑛 − 1 points fixes S𝑛,0 = 0.
b. Pour 𝑘 ∈ J0, 𝑛K, notons 𝔖𝑛,𝑘 la partie de 𝔖𝑛 formée des permutations ayant exactement 𝑘 points fixes. La famille (𝔖𝑛,𝑘 )0≤𝑘≤𝑛
est une partition de 𝔖𝑛 . Puisque card 𝔖𝑛,𝑘 = S𝑛,𝑘 et que card 𝔖𝑛 = 𝑛!, on en déduit la formule demandée.

a. Se donner un élément de 𝔖𝑛,𝑘 , c’est se donner 𝑘 points fixes dans E𝑛 , autrement dit une partie à 𝑘 éléments de E𝑛 , et une
permutation sans point fixe des 𝑛−𝑘 éléments restants. Comme il y a (𝑛𝑘) parties à 𝑘 éléments de E𝑛 et qu’il y a ω𝑛−𝑘 permutations
sans point fixe d’un ensemble à 𝑛 − 𝑘 éléments, on en déduit S𝑛,𝑘 = (𝑛𝑘)ω𝑛−𝑘 .
b. En utilisant les deux questions précédentes :
𝑛 𝑛 𝑛 𝑛
ω𝑛−𝑘 ω𝑛−𝑘 (𝑘) 1
∑ = ∑ = ∑ S𝑛,𝑘 = 1
𝑘=0
𝑘!(𝑛 − 𝑘)! 𝑘=0
𝑛! 𝑛! 𝑘=0

c. Notons HR(𝑛) l’égalité à démontrer. HR(0) est clairement vraie. Soit 𝑛 ∈ ℕ∗ et supposons HR(𝑘) vraie pour 0 ≤ 𝑘 ≤ 𝑛 − 1. En
utilisant la question précédente
𝑛
ω𝑛 ω𝑛−𝑘
=1− ∑
𝑛! 𝑘=1
𝑘!(𝑛 − 𝑘)!
En utilisant l’hypothèse de récurrence, on a alors :
𝑛 𝑛−𝑘
ω𝑛 1 (−1)𝑝
=1− ∑ ∑
𝑛! 𝑘=1
𝑘! 𝑝=0 𝑝!

On effectue le changement d’indice 𝑞 = 𝑝 + 𝑘 dans la deuxième somme :


𝑛 𝑛
ω𝑛 (−1)𝑞−𝑘
=1− ∑ ∑
𝑛! 𝑘=1 𝑞=𝑘
𝑘!(𝑞 − 𝑘)!

On intervertit les deux sommes :


𝑛 𝑞
ω𝑛 (−1)𝑞 (−1)𝑘
=1− ∑ ∑
𝑛! 𝑞=1 𝑘=1
𝑘!(𝑞 − 𝑘)!
𝑛 𝑞
(−1)𝑞 𝑞
=1− ∑ ∑ (−1)𝑘 ( )
𝑞=1
𝑞! 𝑘=1
𝑘
𝑞 𝑞
𝑞 𝑞
Or ∑ (−1)𝑘 ( ) = ( ∑ (−1)𝑘 ( )) − 1 = (1 − 1)𝑞 − 1 = −1 car 𝑞 ≥ 1. On a donc
𝑘=1
𝑘 𝑘=0
𝑘
𝑛 𝑛
ω𝑛 (−1)𝑞 (−1)𝑞
=1+ ∑ = ∑
𝑛! 𝑞=1
𝑞! 𝑞=0
𝑞!

Ainsi HR(𝑛) est vraie. Par récurrence forte, HR(𝑛) est vraie pour tout 𝑛 ∈ ℕ.
d. En appliquant l’inégalité de Taylor-Lagrange à la fonction exponentielle sur [−1, 0], on obtient :
𝑛
| −1 (−1)𝑘 | 1 1
|𝑒 − ∑ |≤ sup exp =
| 𝑘=0
𝑘! | (𝑛 + 1)! [−1,0] (𝑛 + 1)!

ω𝑛 1
En passant à la limite, on a donc lim = .
𝑛→+∞ 𝑛! 𝑒
Solution 26

Choisir un 𝑘-cycle de 𝔖𝑛 consiste à :

http://lgarcin.github.io 10
© Laurent Garcin MP Dumont d’Urville

• choisir le support du 𝑘-cycle, c’est-à-dire 𝑘 éléments parmi 𝑛 ;


• ordonner ces 𝑘 éléments : 𝑘! possibilités ;
• tenir compte qu’un cycle est invariant par permutation circulaire des éléments de son support : 𝑘 possibilités.
On en déduit que le nombre de 𝑘 cycles de 𝔖𝑛 est

(𝑛𝑘)𝑘! 𝑛 𝑛!
= (𝑘 − 1)!( ) =
𝑘 𝑘 𝑘(𝑛 − 𝑘)!

Généralités
Solution 27
4 3 8 4
La probabilité recherchée est × × = .
12 11 10 55
Solution 28

1. Les coordonnées du point M 𝑛 sont (1, 1). Soit 𝑘 ∈ J1, 𝑛 − 1K. Puisque 𝑥1 ≤ 𝑥2 ≤ 𝑥𝑘
𝑘 𝑘
1 1 𝑢 𝑥
𝑣𝑘 = ∑ 𝑝𝑗 𝑥𝑗 ≤ ∑ 𝑝𝑗 𝑥𝑘 = 𝑘 𝑘
E(X) 𝑗=1 E(X) 𝑗=1 E(X)

Puisque 𝑥𝑘 ≤ 𝑥𝑘+1 ≤ 𝑛
1 1 (1 − 𝑢𝑘 )𝑥𝑘
1 − 𝑣𝑘 = ∑ 𝑝𝑥 ≥ ∑ 𝑝𝑥 =
E(X) 𝑗=𝑘+1 𝑗 𝑗 E(X) 𝑗=𝑘+1 𝑗 𝑘 E(X)
On en déduit que
(1 − 𝑢𝑘 )𝑢𝑘 𝑥𝑘
(1 − 𝑢𝑘 )𝑣𝑘 ≤ ≤ 𝑢𝑘 (1 − 𝑣𝑘 )
E(X)
et donc que 𝑣𝑘 ≤ 𝑢𝑘 , ce qui signifie que M 𝑘 est au-dessous de la première bissectrice.
2. a. La courbe de Lorenz est incluse dans le triangle de sommets les points de coordonnées (0, 0), (1, 0) et (0, 1). L’aire de la portion
1
de plan comprise entre la courbe de Lorenz et la première bissectrice est donc inférieure à l’aire de ce triangle qui vaut . On en
2
déduit que I(X) ∈ [0, 1].
b. Puisque la courbe de Lorenz est située sous la première bissectrice, I(X) est le double de la différence entre
• d’une part, l’aire de la portion de plan comprise entre la première bissectrice, l’axe des abscisses et la droite d’équation
𝑥=1
• et d’autre part, l’aire de la portion de plan comprise entre la courbe de Lorenz, l’axe des abscisses et la droite d’équation
𝑥 = 1.
Cette seconde aire est la somme d’aire de trapèzes. On trouve donc
𝑛
I(X) = 1 − ∑ 𝑝𝑘 (𝑣𝑘−1 + 𝑣𝑘 )
𝑘=1

3. a. Dans ce cas, 𝑛 = 2. On a également 𝑥1 = 0, 𝑥2 = 1, 𝑝1 = 1 − 𝑝, 𝑝2 = 1. Ainsi 𝑣0 = 0, 𝑣1 = 0 et 𝑣2 = 1. La formule de la


question précédente donne I(X) = 1 − 𝑝.
b. Dans ce cas 𝑥𝑗 = 𝑗 et 𝑝𝑗 =
1 𝑘 𝑘(𝑘+1)
pour tout 𝑗 ∈ J1, 𝑛K. On a donc 𝑢𝑘 = et 𝑣𝑘 = pour tout 𝑘 ∈ J0, 𝑛K. La formule de la
𝑛 𝑛 𝑛(𝑛+1)
question précédente donne
𝑛 𝑛
1 (𝑘 − 1)𝑘 𝑘(𝑘 + 1) 2 2𝑛 + 1 𝑛−1
I(X) = 1 − ∑ ( + )=1− 2 ∑ 𝑘2 = 1 − =
𝑘=1
𝑛 𝑛(𝑛 + 1) 𝑛(𝑛 + 1) 𝑛 (𝑛 + 1) 𝑘=1
3𝑛 3𝑛

http://lgarcin.github.io 11
© Laurent Garcin MP Dumont d’Urville

4. D’après la formule de transfert

E(|X1 − X2 | = ∑ |𝑥𝑖 − 𝑥𝑗 |P(X1 = 𝑥𝑖 ∩ X2 = 𝑥𝑗 ) = ∑ |𝑥𝑖 − 𝑥𝑗 |P(X1 = 𝑥𝑖 )P(X2 = 𝑥𝑗 )


1≤𝑖,𝑗≤𝑛 1≤𝑖,𝑗≤𝑛

car X1 et X2 sont indépendantes. De plus, 𝑥1 ≤ 𝑥2 ≤ ⋯ ≤ 𝑥𝑛 donc

E(|X1 − X2 |) = 2 ∑ (𝑥𝑗 − 𝑥𝑖 )𝑝𝑖 𝑝𝑗


1≤𝑖≤𝑗≤𝑛

=2 ∑ 𝑥𝑗 𝑝𝑖 𝑝𝑗 − 2 ∑ 𝑥𝑖 𝑝𝑖 𝑝𝑗
1≤𝑖≤𝑗≤𝑛 1≤𝑖≤𝑗≤𝑛
𝑛 𝑛 𝑛 𝑗
= 2 ∑ 𝑝𝑖 ∑ 𝑥𝑗 𝑝𝑗 − 2 ∑ 𝑝𝑗 ∑ 𝑥𝑖 𝑝𝑖
𝑖=1 𝑗=𝑖 𝑗=1 𝑖=1
𝑛 𝑖−1 𝑛 𝑗
= 2 ∑ 𝑝𝑖 (E(X) − ∑ 𝑥𝑗 𝑝𝑗 ) − 2 ∑ 𝑝𝑗 ∑ 𝑥𝑖 𝑝𝑖
𝑖=1 𝑗=1 𝑗=1 𝑖=1
𝑛 𝑛
= 2 ∑ 𝑝𝑖 (E(X) − E(X)𝑣𝑖−1 ) − 2 ∑ 𝑝𝑗 E(X)𝑣𝑗
𝑖=1 𝑗=1
𝑛 𝑛 𝑛
= 2 ∑ 𝑝𝑘 E(X) − 2 ∑ E(X)𝑝𝑘 𝑣𝑘−1 − 2 ∑ E(X)𝑝𝑘 𝑣𝑘
𝑘=1 𝑘=1 𝑘=1
𝑛
= 2E(X) (1 − ∑ 𝑝𝑘 (𝑣𝑘−1 + 𝑣𝑘 )) = 2E(X)I(X)
𝑘=1

E(|X1 − X2 |)
Par conséquent, I(X) = .
2E(X)
Solution 29

1. Pas de difficultés.
2. P(E) = 18/36, P(F) = 11/36, P(G) = 4/36, P(E ∩ F) = 6/36, P(F ∩ G) = 2/36, P(E ∪ F) = 1 − P(E ∪ F) = 1 − 13/36 = 23/36.
3. P(F ∪ G) = 13/36, P(E ∪ F) = 1 − 6/36 = 30/36, P(F ∩ G) = 1 − 13/36 = 23/36.
Solution 30

Notons 𝑛 le nombre de billets achetés et pn la probabilité d’avoir au moins un billet gagnant parmi eux. (En particulier 𝑝0 = 0, 𝑝999 =
𝑝1000 = 1 et (𝑝𝑛 )𝑛∈J0,100K est une suite croissante.) Par l’habituel passage au contraire on a

(998
𝑛
)
1 − 𝑝𝑛 =
(1000
𝑛
)
998! 𝑛!(1000 − 𝑛)!
= ×
𝑛!(998 − 𝑛)! 1000!
(1000 − 𝑛)(999 − 𝑛)
= .
1000 × 999
Ainsi on trouve que

1 (1000 − 𝑛)(999 − 𝑛) 1
𝑝𝑛 ⩾ ⟺ ⩽
2 1000 × 999 2
⟺ 𝑛2 − 1999𝑛 + 1000 × 999 ⩽ 500 × 900
⟺ 𝑛2 − 1999𝑛 + 500 × 999 ⩽ 0.

Ce trinôme est négatif entre ses deux racines qu’on obtient par un calcul de discriminant : l’une est proche de 292.75 et l’autre supérieure à
1000. Donc il faut acheter au moins 293 billets.

http://lgarcin.github.io 12
© Laurent Garcin MP Dumont d’Urville

Solution 31

Les sommes en question sont

9=1+2+6=1+3+5=1+4+4
= 2 + 3 + 4 = 2 + 2 + 5 = 3 + 3 + 3,
10 = 1 + 3 + 6 = 1 + 4 + 5 = 2 + 4 + 4
= 2 + 5 + 3 = 2 + 2 + 6 = 3 + 3 + 4.

Mais elles n’ont pas toutes la même probabilité. En fait lancer trois dés revient à lancer un dé trois fois, en tenant compte de l’ordre. Donc
une somme avec tous chiffres égaux, comme 3 + 3 + 3, a probabilité 1/216, tandis qu’une somme avec exactement deux chiffres égaux a
probabilité 3/216 et, enfin, une somme de trois chiffres distincts a probabilité 6/216. Ainsi on trouve
6+6+3+6+3+1 25
P(9) = = ,
216 216
6+6+3+6+3+3 27
P(10) = = .
216 216
La différence est tellement faible que le prince de Toscane l’a certainemnt pas trouvée empiriquement mais par le calcul !
Solution 32
5 4
Notons A1 et A2 les évènements considérés (dans l’ordre de l’énoncé). On trouve facilement : P(A1 ) = 1 − ( ) ≃ 0.52 > P(A2 ) =
6
35 24
1 − ( ) ≃ 0.49.
36
Solution 33

5 10 25
1. On vérifie facilement que la probabilité d’avoir exactement un 6 vaut + = .
72 36 72
5 3 5 3 91
2. La probabilité de n’avoir aucun 6 vaut ( ) , donc celle d’obtenir au moins un 6 vaut 1 − ( ) = .
6 6 216
3. Pour tout 1 ≤ 𝑖 ≤ 6, notons A𝑖 l’évènement « on obtient au moins deux fois le numéro 𝑖». Ces évènements étant disjoints et équi-
6
probables, la probabilité cherchée est clairement : 𝑝 = ∑ P(A𝑖 ) = 6P(A6 ). Or d’après les questions précédentes, on déduit que
𝑖=1
91 25 91 − 75 16 2
P(A6 ) = − = = = . On en conclut que la probabilité d’obtenir au moins deux faces identiques vaut :
216 72 216 216 27
2 4
𝑝=6× = .
27 9

Solution 34
𝑛−1
𝑖
On obtient facilement que la probabilité que tous les élèves de la classe soient nés à des dates différentes est ∏(1 − ). Il s’ensuit que la
𝑖=1
365
probabilité cherchée est :
𝑛−1
𝑖
𝑝𝑛 = 1 − ∏(1 − ).
𝑖=1
365

Application numérique : on trouve 𝑝22 ≃ 0.476, 𝑝23 ≃ 0.507. La probabilité dépasse 0.5 à partir de 23 élèves. Par ailleurs on trouve
𝑝50 ≃ 0.970.
Solution 35

2
1. a. .
9

http://lgarcin.github.io 13
© Laurent Garcin MP Dumont d’Urville

4
b. .
9
(25)(10 ) 10 × 120
2. 3
= =≃ 0.4.
(15
5
) 3003

Solution 36

Soit 𝑛 le nombre de lancers.


1. La probabilité d’obtenir au moins un six est 1 − (5/6)𝑛 . On cherche donc le plus petit 𝑛 ∈ ℕ tel que

5 𝑛
1 − ( ) ⩾ 0.9
6
ou encore
5 𝑛
( ) ⩽ 0.1
6
On trouve (soit en essayant différentes valeurs avec la calculatrice, soit avec le logarithme) que 𝑛 = 13.
2. La probabilité d’obtenir au moins deux six est
5 𝑛 𝑛 5 𝑛−1
1−( ) − ( ) .
6 6 6
On doit résoudre l’inégalité
5 𝑛 𝑛 5 𝑛−1
( ) + ( ) ⩽ 0.1
6 6 6
ou encore
5 𝑛 𝑛
( ) (1 + ) ⩽ 0.1
6 5
On ne peut pas isoler 𝑛 qui figure à l’exposant et « en bas». Soit on essaye avec la calculatrice, soit on trace la courbe de la fonction
5 𝑥 𝑥
𝑥 ↦ ( ) (1 + ) grâce à un logiciel, puis on regarde où sa courbe passe en-dessous de la droite 𝑦 = 0.1 et on obtient 𝑛 = 22.
6 5

Solution 37

(83) 8×7×6 7 7
1. = = =
(32
3
) 32 × 31 × 30 4 × 31 × 5 620

(43) 4×3×2 1 1
2. = = =
(32
3
) 32 × 31 × 30 8 × 31 × 5 1240

(82)(81) 8×7×8×3 7 7
3. = = =
(32
3
) 32 × 31 × 30 31 × 5 155

Solution 38

1 3×2×1 34
1. 1 − =1− =
(37) 7×6×5 35

(33) + (43) 5×3×2 6


2. 1 − =1− =
(37) 7×6×5 7

http://lgarcin.github.io 14
© Laurent Garcin MP Dumont d’Urville

3. Notons X le nombre de boules blanches tirées. Alors X suit une loi binomiale, plus précisément X ∼ B (3, ). On en déduit :
4
7

P(X ⩾ 2) = P(X = 2) + P(X = 3)


3 4 23 3 4 3
= ( )( ) + ( )( )
2 7 7 3 7
42 16 × 13 208
= (3 × 3 + 4) = = .
73 73 343
Remarquons que le passage au contraire est

P(X ⩾ 2) = 1 − P(X = 0) − P(X = 1),

ce qui donnerait le même résultat mais n’est pas plus rapide.


Solution 39

1. Il y a 5! arrangements possibles, dont 2! donnent BETTY. La probabilité est donc 2!/5! = 1/60.
2. Il y a 8! arrangements possibles, dont 3!2 donnent COCORICO. La probabilité est donc

3!2 1 1 1
= = = .
8! 8×7×5×4 56 × 20 1120

Solution 40

Notons G𝑘 l’événement « le 𝑘-ième malade guérit», 𝑘 = 1, 2, 3. Ces trois événements étant indépendants on a :

P(G1 ∩ G2 ∩ G3 ∩) = P(G1 )P(G2 )P(G2 ) = 0.953 ≈ 0.86


P(G1 ∩ G2 ∩ G3 ∩) = P(G1 )P(G2 )P(G2 ) = 0.053 = 1.25 × 10−4
P(« au moins un reste malade») = 1 − P(G1 ∩ G2 ∩ G3 ) ≈ 1 − 0.86 = 0.14

Solution 41

Notons 𝑛 le nombre de billets achetés et pn la probabilité d’avoir au moins un billet gagnant parmi eux. (En particulier 𝑝0 = 0, 𝑝999 =
𝑝1000 = 1 et (𝑝𝑛 )𝑛∈J0,100K est une suite croissante.) Par l’habituel passage au contraire on a

(998
𝑛
)
1 − 𝑝𝑛 =
(1000
𝑛
)
998! 𝑛!(1000 − 𝑛)!
= ×
𝑛!(998 − 𝑛)! 1000!
(1000 − 𝑛)(999 − 𝑛)
= .
1000 × 999
Ainsi on trouve que

1 (1000 − 𝑛)(999 − 𝑛) 1
𝑝𝑛 ⩾ ⟺ ⩽
2 1000 × 999 2
2
⟺ 𝑛 − 1999𝑛 + 1000 × 999 ⩽ 500 × 900
⟺ 𝑛2 − 1999𝑛 + 500 × 999 ⩽ 0.

Ce trinôme est négatif entre ses deux racines qu’on obtient par un calcul de discriminant : l’une est proche de 292.75 et l’autre supérieure à
1000. Donc il faut acheter au moins 293 billets.

http://lgarcin.github.io 15
© Laurent Garcin MP Dumont d’Urville

Indépendance
Solution 42

L’événement A est l’événement contraire de l’événement «la famille n’a que des enfants de même sexe», ce dernier événement étant l’union
disjointe des événements «la famille a 𝑛 garçons» et «la famille a 𝑛 filles». On en déduit que
1
P(A) = 1 − 2 × = 1 − 21−𝑛
2𝑛
L’événement B est la réunion disjointe des événements «la famille n’a aucune fille» et «la famille a exactement une fille». On en déduit que

1 𝑛 1
P(B) = + ( ) 𝑛 = (𝑛 + 1)2−𝑛
2𝑛 1 2

L’événement A ∩ B est l’événement «la famille a une unique fille». Ainsi

𝑛 1
P(A ∩ B) = ( ) 𝑛 = 𝑛2−𝑛
1 2

Les événements A et B sont indépendants si et seulement si P(A ∩ B) = P(A)P(B) autrement dit si et seulement si

(1 − 21−𝑛 )(𝑛 + 1)2−𝑛 = 𝑛2−𝑛

ou encore, après simplification,


2𝑛 − 2𝑛 − 2 = 0
Soit 𝑓 ∶ 𝑡 ∈ ℝ ↦ 2𝑡 −2𝑡−2. 𝑓 est dérivable sur ℝ de dérivée 𝑓′ ∶ 𝑡 ↦ 2𝑡 ln 2−2. 𝑓′ est strictement croissante sur ℝ et 𝑓′ (2) = 4 ln 2−2 > 0.
Ainsi 𝑓′ est strictement positive sur [2, +∞[ et donc 𝑓 est strictement croissante sur [2, +∞[. Puisque 𝑓(3) = 0, 𝑓 s’annule uniquement en
3 sur [2, +∞[, ce qui prouve que A et B sont indépendants si et seulement si 𝑛 = 3.
Solution 43

On note A =«b+r=7», B = «b=4» et C = «|𝑏 − 𝑟| est pair». On vérifie facilement que A et B sont indépendants, B et C aussi, mais pas A et
C car A ∩ C = ∅ donc P(A ∩ C) = 0 ≠ P(A)P(C).
Solution 44
1 1
On vérifie sans problème que P(A) = P(B) = P(C) = et que P(A ∩ B) = P(A ∩ C) = P(B ∩ C) = , donc A, B et C sont deux à deux
2 4
indépendants.
1
En revanche, P(A ∩ B ∩ C) = P(B ∩ C) = ≠ P(A)P(B)P(C), donc A, B et C ne sont pas mutuellement indépendants.
4
Solution 45

1. P(A ∩ (B ∪ C)) = P(A ∩ B) + P(A ∩ C) − P(A ∩ B ∩ C) = P(A)(P(B) + P(C) − P(B ∩ C)) = P(A)P(B ∪ C).

2. 1 − P(B ∪ C) = P(B)P(C) > 0.


Solution 46
𝑛 𝑛 𝑛 𝑛
P( A𝑖 ) = 1 − P( A𝑖 ) = 1 − ∏ P(A𝑖 ) (car les évènements (A𝑖 )1≤𝑖≤𝑛 sont mutuellement indépendants), c’est-à-dire : P( A𝑖 ) =
⋃ ⋂ ⋃
𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑛
1 − ∏(1 − 𝑝𝑖 ).
𝑖=1
Application : On pose A𝑖 : « la personne a un accident à la 𝑖-ième expérience ». Par hypothèse, les (A𝑖 )1≤𝑖≤𝑛 sont mutuellement indépendants,
et P(A𝑖 ) = 𝑝 pour tout 𝑖 ∈ {1, ⋯ , 𝑛}. En appliquant ce qui précède, on obtient que la probabilité qu’elle ait au moins un accident est
𝑛
P( A𝑖 ) = 1 − (1 − 𝑝)𝑛 .

𝑖=1

http://lgarcin.github.io 16
© Laurent Garcin MP Dumont d’Urville

Solution 47

Notons A𝑛,𝑗 l’évènement « l’erreur numéro 𝑗 n’est pas corrigée à l’issue de la n-ième lecture », pour tout 1 ≤ 𝑗 ≤ 4.
1. A chaque lecture, il y a une probabilité 2/3 que l’erreur numéro 1 ne soit pas corrigée, et comme les relectures sont indépendantes, on
obtient P(A𝑛,1 ) = (2/3)𝑛 .
4 4
2. On cherche P(B𝑛 ) où B𝑛 = A𝑛,𝑗 . Puisque les évènements (A𝑛,𝑗 )1≤𝑗≤4 sont mutuellement indépendants, on a P(B𝑛 ) = ∏ P(A𝑛,𝑗 ).

𝑗=1 𝑗=1
Or pour chaque 𝑗, on a P(A𝑛,𝑗 ) = P(A𝑛,1 ) = 1 − (2/3)𝑛 . Ainsi P(B𝑛 ) = (1 − (2/3)𝑛 )4 . On en déduit :

P(B𝑛 ) ≥ 0.9 ⇔ 1 − (2/3)𝑛 ≥ (0.9)1/4


⇔ (2/3)𝑛 ≤ 1 − (0.9)1/4
⇔ 𝑛 ln(2/3) ≤ ln(1 − (0.9)1/4 )
ln(1 − (0.9)1/4 )
⇔ 𝑛≥ ≈ 9.002
ln(2/3)
(Attention dans la dernière équivalence à ne pas oublier que ln(2/3) < 0 et donc à changer le sens de l’inégalité !)
En conclusion, il faut au moins dix relectures.

Probabilités conditionnelles
Solution 48

Notons X le nombre de bonnes réponses.


1. Si la personne devine au hasard, alors X suit la loi ℬ(10, 0.5). La probabilité recherchée est donc
10
10 1 10 10 × 9 × 8 10 × 9 176 11
P(X ⩾ 7) = ∑ ( ) ( ) = 2−10 ( + + 10 + 1) = = ≈ 0.172.
𝑘=7
𝑘 2 1 × 2 × 3 1 × 2 1024 64

2. Dans ce cas X ∼ ℬ(10, ) et


1
3

10
10 1 𝑘 2 10−𝑘 10 × 9 × 8 × 23 10 × 9 × 22
P(X ⩾ 7) = ∑ ( ) ( ) ( ) = 3−10 ( + + 10 × 2 + 1)
𝑘=7
𝑘 3 3 1×2×3 1×2
1161 43
= 10 = 7 ≈ 0.02.
3 3

Solution 49

Notons S l’état d’ébriété et T le résultat positif du test. On a P(T|S) = 0.95 et P(T|S) = 0.96. On calcule la probabilité recherchée avec le
formule de Bayes.
P(T|S) P(S)
P(S|T) =
P(T|S) P(S) + P(T|S) P(S)
0.95 × 0.02
= ≈ 0.33
0.95 × 0.02 + 0.04 × 0.98
Alternative : On trouve le même résultat avec un tableau à double-entrée.

S S
T
T
0.02 0.98 1

On le remplit avec les données de l’énoncé :

http://lgarcin.github.io 17
© Laurent Garcin MP Dumont d’Urville

S S
T 0.95 × 0.02 0.04 × 0.98
T 0.05 × 0.02 0.96 × 0.98
0.02 0.98 1
On trouve
P(S ∩ T)
P(S|T) =
P(T)
0.95 × 0.02
= ≈ 0.33
0.95 × 0.02 + 0.04 × 0.98
Cela démystifie le formule de Bayes…
Solution 50

Notons M l’évènement «être Malade» et T l’événement « le test est positif». On sait que P(M) = 0.005, P(T|M) = 0.9, P(T|M) = 0.85.
On cherche ici P(M|T). Pour cela on applique la formule de Bayes :
P(T|M)P(M)
P(M|T) =
P(T|M)P(M) + P(T|M)P(M)
0.9 × 0.005
= = 0.029.
0.9 × 0.005 + 0.15 × 0.995
Solution 51

Soit A l’évènement « il pleut» et B l’évènement « le baromètre prédit la pluie». On sait que P(A) = 0.4, P(A) = 0.6, P(B|A) = 0.1 et
P(B|A) = 0.2. On obtient avec la formule de Bayes
P(B|A)P(A) 0.9 × 0.4
P(A|B) = = = 0.75
P(B|A)P(A) + P(B|A)P(A) 0.9 × 0.4 + 0.2 × 0.6
P(B|A)P(A) 0.1 × 0.4 1
P(A|B) = = = ≈ 0.077.
P(B|A)P(A) + P(B|A)P(A) 0.1 × 0.4 + 0.8 × 0.6 13

Solution 52

1. Notons S l’événement « un colis se perd».


P(S) = PA (S)P(A) + PB (S)P(B) + PC (S)P(C)
3 1 1
= 0.01 × + × + 0.03 ×
4 8 8
= 0.0075 + 0.0025 + 0.00175 = 0.01375

2. On trouve
P(A ∩ S) P (S)P(A)
PS (A) = = A
P(S) P(S)
0.0075
= ≈ 0.545
0.01375
Même si le transporteur A peut se vanter d’être plus fiable que ses concurrents, la probabilité qu’on vient de calculer est très élévée.
Cela s’explique par le fait que A transporte beaucoup plus de colies que les autres.
Solution 53

Au total il y a 63 résultats équiprobables lorsqu’on lance trois dés. Parmi eux 6 × 5 × 4 sont à chiffres distincts. Parmi ces derniers 3 × (5 × 4)
contiennent un 1. Ainsi la probabilité recherchée est
3×5×4 1
= .
6×5×4 2

http://lgarcin.github.io 18
© Laurent Garcin MP Dumont d’Urville

Solution 54

On définit les événement suivants.


AR La boule tirée dans l’urne A est rouge.
AV La boule tirée dans l’urne A est verte.
X Les deux boules tirées dans l’urne B sont rouges.
La probabilité recherchée est P(AV|X). D’après la formule de Bayes
P(X|AV)P(AV)
P(AV|X) =
P(X|AV)P(AV) + P(X|AR)P(AR)
3 2
Il est clair que P(AV) = et P(AR) = .
5 5
Par ailleurs, P(X|AV) est la probabilité de tirer successivement et sans remise deux boules rouges dans une urne contenant trois boules rouges
3 2 1
et trois boules vertes. Autrement dit, P(X|AV) = × = .
6 5 5
De même, P(X|AR) est la probabilité de tirer successivement et sans remise deux boules rouges dans une urne contenant quatre boules rouges
4 3 2
et deux boules vertes. Autrement dit, P(X|AR) = × = .
6 5 5
3
Après calcul, on trouve P(AV|X) = .
7
Solution 55

On note ER l’événement «la face exposée est rouge» et CB l’événement «la face cachée est blanche». On note RR l’événement «la carte tirée
est celle aux deux faces rouges», BB l’événement «la carte tirée est celle aux deux faces blanches» et RB l’événement «la carte tirée est celle
aux faces rouge et blanche».
P(CB∩ER)
On cherche à calculer P(CB|ER). Par définition, P(CB|ER) = .
P(ER)
Tout d’abord
1 1 1 1 1
P(ER) = P(ER|RR)P(RR) + P(ER|BB)P(BB) + P(ER|RB)P(ER) = 1 × +0× + × =
3 3 2 3 2
De même
1 1 1 1 1
P(CB ∩ ER) = P(CB ∩ ER|RR)P(RR) + P(CB ∩ ER|BB)P(BB) + P(CB ∩ ER|RB)P(ER) = 0 × +0× + × =
3 3 2 3 6
Ainsi la probabilité recherchée est
1
6 1
P(CB|ER) = 1
=
3
2
Solution 56

On notera :
• A l’événement le «composant provient de la chaîne A» ;
• B l’événement le «composant provient de la chaîne B» ;
• D l’événement le «composant est défectueux».
1. On cherche P(D). D’après la formule des probabilités totales
2 30 4 20 7
P(D) = P(D|A)P(A) + P(D|B)P(B) = × + × = = 0, 028
100 50 100 50 250
Autrement dit le composant est défectueux avec un probabilité de 2, 8%.
2. On cherche P(B|D). D’après la formule de Bayes
4 20
P(D|B)P(B) × 4
100 50
P(B|D) = = 7
=
P(D) 7
250

Autrement dit, si le composant est défectueux, il y 4 chances sur 7 qu’il provienne de la chaîne B.

http://lgarcin.github.io 19
© Laurent Garcin MP Dumont d’Urville

Solution 57

Pour 𝑘 ∈ J1, 7K, on note E𝑘 l’événement «le parapluie se trouve au 𝑘ème étage. On note A l’événement «le parapluie ne se trouve pas dans
l’immeuble». On cherche à calculer P (E7 | ∩6𝑘=1 E𝑘 ).
Or ∩6𝑘=1 E𝑘 = E7 ∪ A. Finalement la probabilité recherchée est également, P (E7 |E7 ∪ A). Par définition
P (E7 ∩ (E7 ∪ A))
P (E7 |E7 ∪ A) =
P(E7 ∪ A)
P(E7 )
Or E7 ∩ (E7 ∪ A) = E7 car les événements E7 et A sont incompatibles. Ainsi la probabilité recherchée est . Puisque les événements
P(E7 ∪ A)
E7 et A sont incompatibles,
𝑝 6𝑝
P(E7 ∪ A) = P(E7 ) + P(A) = +1−𝑝=1−
7 7
La probabilité recherchée est donc
𝑝
7 𝑝
6𝑝
=
1− 7 − 6𝑝
7
Solution 58

On notera U𝑘 l’événement «l’urne choisie est l’urne numéro 𝑘» et B l’événement la boule tirée est blanche.
1. On recherche donc P(B). D’après la formule des probabilités totales,
𝑛 𝑛 𝑛
𝑘 1 1 𝑛+1
P(B) = ∑ P(B|U𝑘 )P(U𝑘 ) = ∑ × = 2 ∑𝑘=
𝑘=1 𝑘=1
𝑛 𝑛 𝑛 𝑘=1
2𝑛

2. On recherche P(U𝑘 |B). Par définition


𝑘 1
P(B ∩ U𝑘 ) P(B|U𝑘 )P(U𝑘 ) × 2𝑘
𝑛 𝑛
P(U𝑘 |B) = = = 𝑛+1
=
P(B) P(B) 𝑛(𝑛 + 1)
2𝑛

Solution 59

On notera A𝑛 l’événement «le buveur ne boit pas le 𝑛ème jour. L’énoncé signifie que P(A𝑛+1 |A𝑛 ) = 0, 4 et P(A𝑛+1 |A𝑛 ) = 0, 8 pour tout
𝑛 ∈ ℕ∗ . On suppose de plus que le buveur ne boit pas le premier jour, autrement dit P(A1 ) = 1.
1. Pour simplifier, posons 𝑝𝑛 = P(A𝑛 ). D’après la formule des probabilités totales, pour tout 𝑛 ∈ ℕ∗

𝑝𝑛+1 = P(A𝑛+1 ) = P(A𝑛+1 |A𝑛 )P(A𝑛 ) + P(A𝑛+1 |A𝑛 )P(A𝑛 ) = 0, 4𝑝𝑛 + 0, 8(1 − 𝑝𝑛 ) = 0, 8 − 0, 4𝑝𝑛

2. La suite (𝑝𝑛 ) est arithmético-géométrique. On introduit l’unique solution 𝑝 de l’équation 𝑥 = 0, 8 − 0, 4𝑥 autrement dit 𝑝 = . Pour
4
7
tout 𝑛 ∈ ℕ∗
𝑝𝑛+1 − 𝑝 = (0, 8 − 0, 4𝑝𝑛 ) − (0, 8 − 0, 4𝑝) = −0, 4(𝑝𝑛 − 𝑝)
Une récurrence évidente montre que pour tout 𝑛 ∈ ℕ∗

𝑝𝑛 − 𝑝 = (−0, 4)𝑛−1 (𝑝1 − 𝑝)

Autrement dit
2 2 𝑛−1 5
𝑝𝑛 = + (− )
7 5 7

3. Puisque ||− || < 1, lim𝑛→+∞ 𝑝𝑛 = .


2 2
5 7

Solution 60

On note E l’événement «l’étudiant a préparé l’examen», X le nombre de bonnes réponses obtenues par l’étudiant et R l’événement «l’étudiant
a réussi l’examen».

http://lgarcin.github.io 20
© Laurent Garcin MP Dumont d’Urville

1. La variable X conditionnée par l’événement E suit une loi binomiale de paramètre 0, 8. Ainsi
15
15 30388191232
P(R|E) = P(X ≥ 8|E) = ∑ ( )(0, 8)𝑘 (0, 2)15−𝑘 = ≈ 0, 996
𝑘=8
𝑘 30517578125
1
La variable X conditionnée par l’événement E suit une loi binomiale de paramètre . Ainsi
3
15
15 1 𝑘 2 15−𝑘 422009
P(R|E) = P(X ≥ 8|E) = ∑ ( ) ( ) ( ) = ≈ 0, 088
𝑘=8
𝑘 3 3 4782969

D’après la formule des probabilités totales


30388191232 7 422009 3 352018838093984677
P(R) = P(R|E)P(E) + P(R|E)P(E) = × + × = ≈ 0, 724
30517578125 10 4782969 10 486548767089843750
2. Par définition
P(R|E)P(E) (1 − P(R|E)) P(E) 1443991495859073
P(E|R) = = = ≈ 0, 011
P(R) 1 − P(R) 134529928995859073
A bon entendeur, salut !
Solution 61

1. a. Le père et la mère jouent des rôles symétriques.


P(E = 1|F = 1, M = 1) = 1
1
P(E = 1|F = 2, M = 2) =
4
P(E = 1|F = 3, M = 3) = 0
1
P(E = 1|F = 1, M = 2) = P(E = 1|F = 2, M = 1) =
2
P(E = 1|F = 1, M = 3) = P(E = 1|F = 3, M = 1) = 0
P(E = 1|F = 2, M = 3) = P(E = 1|F = 3, M = 2) = 0

b. D’après la formule des probabilités totales,


3 3
P(E = 1) = ∑ ∑ P(E = 1|F = 𝑖, M = 𝑗)P(F = 𝑖, M = 𝑗)
𝑖=1 𝑗=1

Les mariages étant supposés aléatoires, P(F = 𝑖, M = 𝑗) = P(F = 𝑖)P(M = 𝑗) = 𝑢𝑖 𝑢𝑗 . Ainsi


3 3
P(E = 1) = ∑ ∑ P(E = 1|F = 𝑖, M = 𝑗)𝑢𝑖 𝑢𝑗
𝑖=1 𝑗=1

A l’aide de la question précédente, on trouve


1 1 𝑢 2
P(E = 1) = 𝑢21 + 𝑢22 + 𝑢1 𝑢2 = (𝑢1 + 2 )
4 2 2
En échangeant les rôles des gènes 𝑎 et A, on obtient
𝑢2 2
P(E = 3) = (𝑢3 + )
2
c. On a évidemment 𝑞1 = θ2 .
Puisque 𝑢1 + 𝑢2 + 𝑢3 = 1,
𝑢2 2 𝑢 2
𝑞3 = (𝑢3 + ) = (1 − 𝑢1 − 2 ) = (1 − θ)2
2 2
Enfin
𝑞2 = 1 − 𝑞1 − 𝑞3 = 1 − θ2 − (1 − θ)2 = 2θ(1 − θ)

http://lgarcin.github.io 21
© Laurent Garcin MP Dumont d’Urville

d. A la seconde génération, la nouvelle valeur du paramètre θ est 𝑞1 + 2 = θ2 + θ(1 − θ) = θ. Autrement dit, θ reste inchangé au
𝑞
2
cours des générations. Les proportions des divers génotypes restent donc constantes au cours des générations.
2. a. Pour 𝑗 ∈ {1, 2, 3}, la loi de N𝑗 est la loi binomiale ℬ(𝑛, 𝑞𝑗 ). On a donc E(N𝑗 ) = 𝑛𝑞𝑗 et V(N𝑗 ) = 𝑛𝑞𝑗 (1 − 𝑞𝑗 ).
b.
1
Cov(N1 , N2 ) = (V(N1 + N2 ) − V(N1 ) − V(N3 ))
2
1
= (V(𝑛 − N3 ) − V(N1 ) − V(N2 ))
2
1
= (V(N3 ) − V(N1 ) − V(N2 ))
2
𝑛
= (𝑞3 (1 − 𝑞3 ) − 𝑞1 (1 − 𝑞1 ) − 𝑞2 (1 − 𝑞2 ))
2
Or on sait que 𝑞3 = 1 − 𝑞1 − 𝑞2 ce qui permet d’obtenir
Cov(N1 , N2 ) = −𝑛𝑞1 𝑞2
c. Par linéarité
1 1 𝑞
E(θ𝑛 ) = E(N1 ) + E(N2 ) = 𝑞1 + 2 = θ2 + θ(1 − θ) = θ
𝑛 2𝑛 2
d.
1 1
V(θ𝑛 ) = (V(N1 ) + V(N2 ) + Cov(N1 , N2 ))
𝑛2 4
1 1
= (𝑞1 (1 − 𝑞1 ) + 𝑞2 (1 − 𝑞2 ) − 𝑞1 𝑞2 )
𝑛 4
1 2 1
= (θ (1 − θ ) + θ(1 − θ)(1 − 2θ(1 − θ)) − 2θ3 (1 − θ))
2
𝑛 2
θ(1 − θ)
=
2𝑛
Ainsi lim𝑛→+∞ V(θ𝑛 ) = 0.
Solution 62

1. S suit évidemment la loi ℬ (𝑛, ).


1
6

2. La loi de F conditionnée par l’événement S = 𝑠 est la loi ℬ (𝑠, ).


1
2

3. F est clairement à valeurs dans J0, 𝑛K. Soit donc 𝑘 ∈ J0, 𝑛K. D’après la formule des probabilités totales,
𝑛
P(F = 𝑘) = ∑ P(F = 𝑘|S = 𝑠)P(S = 𝑠)
𝑠=0
Il est clair que P(F = 𝑘|S = 𝑠) = 0 pour 𝑠 < 𝑘 donc
𝑛
P(F = 𝑘) = ∑ P(F = 𝑘|S = 𝑠)P(S = 𝑠)
𝑠=𝑘
𝑛
1 𝑠 𝑠 1 𝑠 5 𝑛−𝑠 𝑛
= ∑ ( ) ( )( ) ( ) ( )
𝑠=𝑘
2 𝑘 6 6 𝑠
𝑛
5𝑛−𝑠 𝑠 𝑛
=∑ ( )( )
𝑠=𝑘
2𝑠 6𝑛 𝑘 𝑠
𝑛
5𝑛−𝑠 𝑛 𝑛 − 𝑘
=∑ ( )( )
𝑠=𝑘
2𝑠 6𝑛 𝑘 𝑠 − 𝑘
𝑛 𝑛−𝑘 5𝑛−𝑠−𝑘 𝑛 − 𝑘
= ( ) ∑ 𝑠+𝑘 𝑛 ( )
𝑘 𝑠=0 2 6 𝑠
𝑛 5𝑛 𝑛−𝑘 1 𝑛 − 𝑘
= ( ) 𝑘 𝑛 ∑ 𝑠( )
𝑘 10 6 𝑠=0 10 𝑠

http://lgarcin.github.io 22
© Laurent Garcin MP Dumont d’Urville

En appliquant la formule du binôme


𝑛 5𝑛 1 𝑛−𝑘
P(F = 𝑘) = ( ) 𝑘 𝑛 (1 + )
𝑘 10 6 10
𝑛 5𝑛 11𝑛−𝑘
=( )
𝑘 10𝑛 6𝑛
𝑛 11𝑛−𝑘
=( )
𝑘 12𝑛
𝑛 1 𝑘 11 𝑛−𝑘
= ( )( ) ( )
𝑘 12 12
1
On en déduit donc que F suit la loi binomiale ℬ (𝑛, ).
12

Solution 63

1. A et M sont indépendants si et seulement si l’une des trois égalités équivalentes est vérifiée :
P(M) = P(M|A), P(A) = P(A|M),
P(M ∩ A) = P(M)P(A).
Nous allons utiliser la première égalité comme critère.
1
P(M) = ,
10
20 10 1
P(M|A) = = ≈ = P(M) ,
20 + 182 101 10
80 1 1
P(M|B) = = ≠ = P(M) ,
80 + 160 3 10
50 1 1
P(M|C) = = ≠ = P(M) .
50 + 50 2 10
La maladie M est indépendante du symptome A. En revanche, elle est beaucoup plus fréquente chez les personnes ayant le symptome
B et de même pour le symptome C ; ainsi elle est dépendante de ces symptomes. On pourra donc dire que B et C (mais pas A) indiquent
une éventuelle présence de la maladie.
2. Il y a 240 + 100 − 10 = 330 personnes qui ont les symptomes B ou C. Donc 670 n’ont ni B ni C.
En formalisme :
||B ∩ C|| = ||B ∪ C|| = 1000 − |B ∪ C|
= 1000 − |B| − |C| + |B ∩ C|
= 1000 − 240 − 100 + 10 = 670.

Solution 64

Notons N𝑘 l’événement «tirer une boule noire au 𝑘ème tirage. D’après la formule des probabilités totales
P(N3 ) = P(N3 |N1 ∩ N2 )P(N1 ∩ N2 ) + P(N3 |N1 ∩ N2 )P(N1 ∩ N2 ) + P(N3 |N1 ∩ N2 )P(N1 ∩ N2 ) + P(N3 |N1 ∩ N2 )P(N1 ∩ N2 )
Or
1 2 1
P(N3 |N1 ∩ N2 ) = 0 P(N1 ∩ N2 ) = P(N2 |N1 )P(N1 ) = × =
9 10 45
1 2 8 8
P(N3 |N1 ∩ N2 ) = P(N1 ∩ N2 ) = P(N2 |N1 )P(N1 ) = × =
8 9 10 45
1 8 2 8
P(N3 |N1 ∩ N2 ) = P(N1 ∩ N2 ) = P(N2 |N1 )P(N1 ) = × =
8 9 10 45
2 1 7 8 28
P(N3 |N1 ∩ N2 ) = = P(N1 ∩ N2 ) = P(N2 |N1 )P(N1 ) = × =
8 4 9 10 45

http://lgarcin.github.io 23
© Laurent Garcin MP Dumont d’Urville

Ainsi
1 1 8 1 8 1 28 9 1
P(N3 ) = 0 × + × + × + × = =
45 8 45 8 45 4 45 45 5
Solution 65

Notons D la variable aléatoire correspondant au chiffre obtenu avec le dé. On utilise à plusieurs reprises la formule des probabilités totales.
Remarquons que P(X = 0|D = 𝑘) = 0 dès que 𝑘 > 3. Ainsi

P(X = 0) = P(X = 0|D = 1)P(D = 1) + P(X = 0|D = 2)P(D = 2) + P(X = 0|D = 3)P(D = 3)
(31) 3
1 (2) 1 1 1
= 6
+× 6
× + 6 ×
(1) 6 (2) 6 (3) 6
1 1 1 1
= + + =
12 30 120 8
Remarquons que P(X = 1|D = 𝑘) = 0 dès que 𝑘 > 4. Ainsi

P(X = 1) = P(X = 1|D = 1)P(D = 1) + P(X = 1|D = 2)P(D = 2) + P(X = 1|D = 3)P(D = 3) + P(X = 1|D = 4)P(D = 4)
2
(31) 3
1 (1)
3 3 3
1 (1)(2) 1 (1) 1
= +× × + × + ×
(61) 6 (62) 6 (63) 6 (6) 6
4
1 1 3 1 7
= + + + =
12 10 40 30 24
Remarquons que P(X = 2|D = 𝑘) = 0 dès que 𝑘 > 5 ou 𝑘 < 2. Ainsi

P(X = 2) = P(X = 2|D = 2)P(D = 2) + P(X = 2|D = 3)P(D = 3) + P(X = 2|D = 4)P(D = 4) + P(X = 2|D = 5)P(D = 5)
2
(32) 3 3
1 ( )( ) 1 ( )
3 3
1 () 1
= 6 × + 2 6 1 × + 26 × + 62 ×
(2) 6 (3) 6 (4) 6 () 6
5
1 3 1 1 7
= + + + =
30 40 10 12 24
Remarquons que P(X = 3|D = 𝑘) = 0 dès que 𝑘 < 3. Ainsi

P(X = 3) = P(X = 3|D = 3)P(D = 3) + P(X = 3|D = 4)P(D = 4) + P(X = 3|D = 5)P(D = 5) + P(X = 3|D = 6)P(D = 6)
3 3
1 1 (1) 1 (2) 1 1
= 6 × + 6 × + 6 × +1×
(3) 6 (4) 6 (5) 6 6
1 1 1 1 7
= + + + =
120 30 12 6 24
3
Remarque. On aurait bien entendu pu utiliser le fait que ∑ P(X = 𝑘) = 1 pour calculer P(X = 3) après avoir calculé P(X = 0), P(X = 1)
𝑘=0
et P(X = 2).

Solution 66

1. X et Y sont à valeurs dans J1, 𝑛K. On utilise la formule des probabilités totales. Pour 𝑘 ∈ ℕ∗
𝑛 𝑛 𝑛 𝑛
1 1 1
P(Y = 𝑘) = ∑ P(Y = 𝑘|X = 𝑙)P(X = 𝑙) = ∑ P(Y = 𝑘|X = 𝑙)P(X = 𝑙) = ∑ = ∑
𝑙=1 𝑙=𝑘 𝑙=𝑘
𝑙𝑛 𝑛 𝑙=𝑘 𝑙

http://lgarcin.github.io 24
© Laurent Garcin MP Dumont d’Urville

2. Il s’agit de procéder à une interversion de sommation.


𝑛
E(Y) = ∑ 𝑘P(Y = 𝑘)
𝑘=1
𝑛 𝑛
1 𝑘
= ∑∑
𝑛 𝑘=1 𝑙=𝑘 𝑙
1 𝑘
= ∑
𝑛 1≤𝑘≤𝑙≤𝑛 𝑙
𝑛 𝑙
1 𝑘
= ∑∑
𝑛 𝑙=1 𝑘=1 𝑙
𝑛
1 𝑙+1
= ∑
𝑛 𝑙=1 2
𝑛+3
=
4

3. On a clairement E(Y) ∼
𝑛
.
𝑛→+∞ 4

Solution 67

1. Il existe (62) issues possibles à ce tirage. La variable aléatoire X est à valeurs dans {0, 1, 2}.
• L’événement X = 0 correspond à tirer les deux boules parmi les quatre rouges. On en déduit que
(42) 2
P(X = 0) = =
(62) 5

• L’événement X = 1 correspond à tirer une boule parmi les deux noires et une boule parmi les quatre rouges. On en déduit que
(21)(41) 8
P(X = 1) = =
(62) 15

• L’événement X = 2 correspond à tirer les deux boules parmi les deux noires. On en déduit que
(22) 1
P(X = 2) = =
(62) 15

2. La variable aléatoire Y est encore à valeurs dans {0, 1, 2}. D’après la formule des probabilités totales,
P(Y = 0) = P(Y = 0|X = 0)P(X = 0) + P(Y = 0|X = 1)P(X = 1) + P(Y = 0|X = 2)P(X = 2)
(22) 3
2 (2) 8 1
= × + 4 × +1×
(42) 5 ( ) 15
2
15
2
=
5
P(Y = 1) = P(Y = 1|X = 0)P(X = 0) + P(Y = 1|X = 1)P(X = 1) + P(Y = 1|X = 2)P(X = 2)
(21)(21) 3 1
2 (1)(1) 8 1
= × + 4 × +0×
(42) 5 (2) 15 15
8
=
15
P(Y = 2) = P(Y = 2|X = 0)P(X = 0) + P(Y = 2|X = 1)P(X = 1) + P(Y = 2|X = 2)P(X = 2)
(22) 2 8 1
= × +0× +0×
(42) 5 15 15
1
=
15

http://lgarcin.github.io 25
© Laurent Garcin MP Dumont d’Urville

3. On utilise la formule de Bayes


P(Y = 1|X = 1)P(X = 1)
P(X = 1|Y = 1) =
P(Y = 1)
Or P(Y = 1) = P(X = 1) et on a vu à la question précédente que

(31)(11) 1
P(Y = 1|X = 1) = =
(42) 2

Ainsi la probabilité d’avoir obtenu une seule boule noire au premier tirage sachant que l’on a tiré une seule boule noire au second tirage
1
est .
5

4. La probabilité recherchée est :

(31)(11) 8 (2) 2 1
P(X = 1, Y = 1) + P(X = 0, Y = 2) = P(Y = 1|X = 1)P(X = 1) + P(Y = 2|X = 0)P(X = 0) = × + 42 × =
(42) 15 ( ) 5
2
3

Solution 68
1
En appliquant la formule de Bayes, on trouve que la probabilité que ce soit une fausse alerte vaut
23
Solution 69
1 1
On vérifie que PV (M) = > = PV (M) donc le vaccin est légèrement efficace.
9 12
Solution 70

2
1. α = .
𝑛(𝑛 + 1)
6𝑘(𝑛 + 1 − 𝑘)
2.
𝑛(𝑛 + 1)(𝑛 + 2)
Solution 71

1. a. Soit 𝑛 ≥ 1. On calcule 𝑝𝑛+1 = P(A𝑛+1 ) par la formule des probabilités totales avec le système complet (A𝑛 , A𝑛 ) :

𝑝𝑛+1 = PA𝑛 (A𝑛+1 )P(A𝑛 ) + PA𝑛 (A𝑛+1 )P(A𝑛 ) = PA𝑛 (A𝑛+1 )𝑝𝑛 + PA𝑛 (A𝑛+1 )(1 − 𝑝𝑛 ) .

D’après les hypothèses, PA𝑛 (A𝑛+1 ) est la probabilité pour, qu’ayant effectué le 𝑛-ième tirage dans l’urne U1 , celui-ci donne une
5 5
boule blanche, c’est-à-dire PA𝑛 (B𝑛 ). Puisque la proportion de boules blanches dans l’urne U1 est , on a PA𝑛 (B𝑛 ) = , d’où
6 6
5
PA𝑛 (A𝑛+1 ) = .
6
De même, PA𝑛 (A𝑛+1 ) est la probabilité pour, qu’ayant effectué le 𝑛-ième tirage dans l’urne U2 , celui-ci donne une boule noire,
4 4
c’est-à-dire PA𝑛 (B𝑛 ). La proportion de boules noires dans l’urne U2 est de , donc PA𝑛 (A𝑛+1 ) = .
6 6
Finalement on obtient la formule de récurrence suivante :
5 4 1 4
∀𝑛 ≥ 1, 𝑝𝑛+1 = 𝑝 + (1 − 𝑝𝑛 ) = 𝑝𝑛 + . (1)
6 𝑛 6 6 6

b. La relation (1) prouve que (𝑝𝑛 )𝑛≥1 est une suite arithmético-géométrique. La fonction associée 𝑥 ↦
1 4
𝑥+ admet l’unique
6 6
4 1 1 𝑛−1
point fixe ℓ = . On sait alors que (𝑝𝑛 − ℓ)𝑛≥1 est géométrique de raison , d’où l’on tire 𝑝𝑛 − ℓ = ( ) (𝑝1 − ℓ) pour tout
5 6 6
1
𝑛 ≥ 1. Comme on choisit au hasard l’urne dans laquelle s’effectue le premier tirage, on a 𝑝1 = , et on obtient finalement :
2
4 3 1 𝑛−1
∀𝑛 ≥ 1, 𝑝𝑛 = − ( ) .
5 10 6

http://lgarcin.github.io 26
© Laurent Garcin MP Dumont d’Urville

c. Puisque || || < 1, on en déduit que (𝑝𝑛 )𝑛≥1 est convergente de limite ℓ = .


1 4
6 5

2. a. Soit 𝑛 ≥ 1. On calcule 𝑞𝑛 = P(B𝑛 ) en appliquant à nouveau la formule des probabilités totales avec le système complet (A𝑛 , A𝑛 ) :
𝑞𝑛 = P(B𝑛 ) = PA𝑛 (B𝑛 )P(A𝑛 ) + PA𝑛 (B𝑛 )P(A𝑛 )
5 2 1 1
= 𝑝 + (1 − 𝑝𝑛 ) = 𝑝𝑛 + .
6 𝑛 6 2 3
5 2
(on a déjà vu que PA𝑛 (B𝑛 ) = , et PA𝑛 (B𝑛 ) = 1 − PA𝑛 (B𝑛 ) = ).
6 6

b. Puisque (𝑝𝑛 )𝑛≥1 est convergente de limite , on en déduit que (𝑞𝑛 )𝑛≥1 est convergente de limite ℓ′ =
4 14 1 11
+ = .
5 25 3 15

Variables aléatoires
Solution 72

1. On note T la variable aléatoire désignant le chiffre obtenu par Tom et J la variable aléatoire désignant le chiffre obtenu par Jerry. Les
variables aléatoires T et J sont indépendantes puisque les deux lancers sont indépendants.
a. La probabilité que Tom gagne est
4 2
P(T = 3, J = 2) = P(T = 3)P(J = 2) = 1 × =
6 3
b. La probabilité que Tom gagne est
P(T = 2, J = 1) + P(T = 6, J = 1) + P(T = 6, J = 5) = P(T = 2)P(J = 1) + P(T = 6)P(J = 1) + P(T = 6)P(J = 5)
1 1 1 1 1 1 3
= × + × + × =
2 2 2 2 2 2 4
c. La probabilité que Tom gagne est
P(T = 1, J = 0) + P(T = 5, J = 4) + P(T = 5, J = 0) = P(T = 1)P(J = 0) + P(T = 5)P(J = 4) + P(T = 5)P(J = 0)
1 1 1 2 1 1 2
= × + × + × =
2 3 2 3 2 3 3
d. La probabilité que Tom gagne est
4 2
P(T = 4, J = 3) = P(T = 4)P(J = 3) = 1 × =
6 3
2. a. On suppose que le deuxième joueur est en mesure de déterminer le dé lui donnant la plus forte probabilité de jouer (le choix du
dé n’est donc pas fait au hasard).
La question précédente montre que quelque soit le choix du dé du premier joueur le second joueur peut choisir un dé qui lui donne
une probabilité plus grande de gagner.
• Si le premier joueur choisit le dé A, il suffit que le second joueur choisisse le dé D.
• Si le premier joueur choisit le dé B, il suffit que le second joueur choisisse le dé A.
• Si le premier joueur choisit le dé C, il suffit que le second joueur choisisse le dé B.
• Si le premier joueur choisit le dé D, il suffit que le second joueur choisisse le dé C.
Il vaut donc mieux jouer en deuxième, autrement dit à la place de Jerry.
b. Tout d’abord, résumons la probabilité que Tom gagne suivant les différents choix de dés dans le tableau suivant.

Jerry
A B C D
Tom
2 1 1
A
3 2 3
1 3 2
B
3 4 3
1 1 3
C
2 4 4
2 1 1
D
3 3 4

http://lgarcin.github.io 27
© Laurent Garcin MP Dumont d’Urville

La question est assez ambiguë. On supposera qu’une fois que Tom a choisi son dé, Jerry choisira le dé qui donne à Tom la plus
faible probabilité de gagner et que Tom soit au courant de la stratégie de Jerry.
1
Tom choisira donc les dés A ou B pour s’assurer une probabilité de gagner d’au moins de gagner. En effet, le choix des dés C
3
1
ou D permet à Jerry de choisir un dé donnant une probabilité à Tom de gagner égale à . Ainsi Tom choisira le dé A et Jerry le
4
dé D ou Tom le dé B et Jerry le dé A. Dans les deux cas, l’espérance du gain de Tom est
1 2 α−2
× α + × (−1) =
3 3 3
Tom n’acceptera donc de jouer que si α ≥ 2.
3. Notons T la variable aléatoire correspondant au résultat obtenu par Tom et J la variable aléatoire correspondant au résultat obtenu par
Jerry.
Si Tom sélectionne les dés A et B, alors Jerry joue avec les dés C et D. Dans ce cas, T est à valeurs dans {5, 9} et J est à valeurs dans
{1, 5, 9}. La probabilité que Tom gagne (on exclut le match nul) est

P(T = 5, J = 1) + P(T = 9, J = 1) + P(T = 9, J = 5) = P(T = 5)P(J = 1) + P(T = 9)P(J = 1) + P(T = 9)P(J = 5)

De plus
2 2
P(T = 5) = P(T1 = 3)P(T2 = 2) = 1 × =
3 3
2 2
P(T = 9) = P(T1 = 3)P(T2 = 6) = 1 × =
3 3
1 1 1
P(J = 1) = P(J1 = 1)P(J2 = 0) = × =
2 3 6
1 2 1 1 1
P(J = 5) = P(J1 = 1)P(J2 = 4) + P(J1 = 5)P(J2 = 0) = × + × =
2 3 2 3 2
La probabilité que Tom gagne est donc
2 1 2 1 2 1 5
× + × + × =
3 6 3 6 3 2 9
Tom a donc plus de chance de gagner que Jerry en sélectionnant les dés A et B. Il vaut donc mieux être à la place de Tom.
Solution 73

1. Soit 𝑝 ∈ J0, 2𝑛 −1K. Il existe un unique 𝑛-uplet (𝑥0 , … , 𝑥𝑛−1 ) ∈ {0, 1}𝑛 tel que 𝑝 = ∑𝑘=0 2𝑘 𝑥𝑘 . Ainsi ℙ(U = 𝑝) = ℙ (∩𝑛−1
𝑛−1
𝑘=0 [X𝑘 = 𝑥𝑘 ]).
𝑛−1 1
Comme les X𝑘 sont indépendantes, ℙ(U = 𝑝) = ∏𝑘=0 ℙ(X𝑘 = 𝑥𝑘 ) = . U suit bien la loi uniforme sur J0, 2𝑛 − 1K.
2𝑛

2. L’application
{0, 1}𝑛 ⟶ J0, 2𝑛 − 1
Φ∶ { 𝑛−1
(𝑥0 , … , 𝑥𝑛−1 ) ⟼ ∑𝑘=0 2𝑘 𝑥𝑘
Soit (𝑥0 , … , 𝑥𝑛−1 ) ∈ {0, 1}𝑛 . Alors
𝑛−1
ℙ( [X𝑘 = 𝑥𝑘 ]) = ℙ ((X0 , … , X𝑛−1 ) = (𝑥0 , … , 𝑥𝑛−1 ))

𝑘=0
= ℙ (Φ(X0 , … , X𝑛−1 ) = (𝑥0 , … , 𝑥𝑛−1 )) car Φ est injective
= ℙ(U = 𝑝) en posant 𝑝 = Φ(𝑥0 , … , 𝑥𝑛−1 )
1
= 𝑛 car U suit la loi uniforme sur J0, 2𝑛 − 1K
2
Fixons 𝑘 ∈ J0, 𝑛 − 1K et 𝑥 ∈ {0, 1}. Posons
{0, 1}𝑛 ⟶ {0, 1}
π𝑘 ∶ {
(𝑥0 , … , 𝑥𝑛−1 ) ⟼ 𝑥𝑘

http://lgarcin.github.io 28
© Laurent Garcin MP Dumont d’Urville

Alors
ℙ(X𝑘 = 𝑥) = ℙ(π𝑘 (X0 , … , X𝑛−1 ) = 𝑥)
= ℙ((X0 , … , X𝑛−1 ) ∈ π−1
𝑘 ({𝑥}))
= ∑ ℙ((X0 , … , X𝑛−1 ) = (𝑥0 , … , 𝑥𝑛−1 ))
(𝑥0 ,…,𝑥𝑛−1 )∈π−1
𝑘 ({𝑥})

card π−1
𝑘 ({𝑥})
= d’après ce qui précède
2𝑛
2𝑛−1 1
= 𝑛 =
2 2
1
Ceci prouve à la fois que les X𝑘 sont bien des variables de Bernoulli de paramètre et qu’elles sont mutuellement indépendantes.
2

Solution 74

1. a. Y et Z sont clairement à valeurs dans J1, 𝑛K. Soit 𝑘 ∈K1, 𝑛K.


P(Y = 𝑘) = P (X1 ∈ J1, 𝑘 − 1K, X2 = 𝑘) + P (X1 = 𝑘, X2 ∈ J1, 𝑘 − 1K) + P(X1 = 𝑘, X2 = 𝑘)
= P(X1 ∈ J1, 𝑘 − 1K)P(X2 = 𝑘) + P(X1 = 𝑘)P(X2 ∈ J1, 𝑘 − 1K) + P(X1 = 𝑘)P(X2 = 𝑘) par indépendance de X1 et X2
𝑘−1 1 1 𝑘−1 1 2𝑘 − 1
= × + × + 2 =
𝑛 𝑛 𝑛 𝑛 𝑛 𝑛2
P(Z = 𝑘) = P (X1 ∈ J𝑘 + 1, 𝑛K, X2 = 𝑘) + P (X1 = 𝑘, X2 ∈ J𝑘 + 1, 𝑛K) + P(X1 = 𝑘, X2 = 𝑘)
= P(X1 ∈ J𝑘 + 1, 𝑛K)P(X2 = 𝑘) + P(X1 = 𝑘)P(X2 ∈ J𝑘 + 1, 𝑛K) + P(X1 = 𝑘)P(X2 = 𝑘) par indépendance de X1 et X2
𝑛−𝑘 1 1 𝑛−𝑘 1 2𝑛 − 2𝑘 + 1
= × + × + 2 =
𝑛 𝑛 𝑛 𝑛 𝑛 𝑛2
b. Calculons d’abord les espérances.
𝑛 𝑛
1 1 𝑛(𝑛 + 1)(2𝑛 + 1) 𝑛(𝑛 + 1) (𝑛 + 1)(4𝑛 − 1)
E(Y) = ∑ 𝑘P(Y = 𝑘) = ∑ 2𝑘2 − 𝑘 = 2 ( − )=
𝑘=1
𝑛2 𝑘=1 𝑛 3 2 6𝑛
𝑛 𝑛
1 1 𝑛(𝑛 + 1)(2𝑛 + 1) 𝑛(𝑛 + 1) (𝑛 + 1)(2𝑛 + 1)
E(Z) = ∑ 𝑘P(Z = 𝑘) = 2
∑ 2𝑛𝑘 − 2𝑘2 + 𝑘 = 2 (𝑛2 (𝑛 + 1) − + )=
𝑘=1
𝑛 𝑘=1 𝑛 6 2 6𝑛

Remarque. On peut aussi déterminer E(Z) plus simplement en remarquant que Y + Z = X1 + X2 et donc, par linéarité de
𝑛+1
l’espérance, E(Y) + E(Z) = E(X1 ) + E(X2 ). Or on a évidemment E(X1 ) = E(X2 ) = .
2

Calculons maintenant les variances. Tout d’abord


𝑛 𝑛
1 (𝑛 + 1)(3𝑛2 + 𝑛 − 1)
E(Y2 ) = ∑ 𝑘2 P(Y = 𝑘) = 2
∑ 2𝑘3 − 𝑘2 =
𝑘=1
𝑛 𝑘=1 6𝑛
𝑛 𝑛
1 (𝑛 + 1)(𝑛2 + 𝑛 + 1)
E(Z2 ) = ∑ 𝑘2 P(Z = 𝑘) = ∑ 2𝑛𝑘 2
− 2𝑘 3
+ 𝑘 2
=
𝑘=1
𝑛2 𝑘=1 6𝑛

On en déduit
2
(𝑛 + 1)(3𝑛2 + 𝑛 − 1) (𝑛 + 1)(4𝑛 − 1) (𝑛 − 1)(𝑛 + 1)(2𝑛2 + 1)
V(Y) = E(Y2 ) − E(Y)2 = −( ) =
6𝑛 6𝑛 36𝑛2
2
(𝑛 + 1)(𝑛2 + 𝑛 + 1) (𝑛 + 1)(2𝑛 + 1) (𝑛 − 1)(𝑛 + 1)(2𝑛2 + 1)
V(Z) = E(Z2 ) − E(Z)2 = −( ) =
6𝑛 6𝑛 36𝑛2
c. On a facilement
2𝑛 𝑛
E(Y) ∼ E(Z) ∼
𝑛→+∞ 3 𝑛→+∞ 3
𝑛2 𝑛2
V(Y) ∼ V(Z) ∼
𝑛→+∞ 18 𝑛→+∞ 18

http://lgarcin.github.io 29
© Laurent Garcin MP Dumont d’Urville

d. Dans le cas particulier 𝑛 = 1, Y et Z sont indépendantes puisque P(Y = 1, Z = 1) = 1 = P(Y = 1)P(Z = 1).
Supposons maintenant 𝑛 ≥ 2. Soit (𝑘, 𝑙) ∈ J1, 𝑛K2 tel que 𝑘 < 𝑙. Alors P(Y = 𝑘, Z = 𝑙) = 0 puisque Y ≥ Z. Mais P(Y = 𝑘)P(Z =
𝑙) ≠ 0 d’après la question 1.a. On en déduit que Y et Z ne sont pas indépendantes.
Remarque. On peut aussi remarquer que V(Y+Z) ≠ V(Y)+V(Z) en remarquant que V(Y+Z) = V(X1 +X2 ) = V(X1 )+V(X2 ).
(𝑛+1)(𝑛−1)
Or on a facilement V(X1 ) = V(X2 ) = .
12

2. a. A nouveau, Y et Z sont bien à valeurs dans J1, 𝑛K. Soit 𝑘 ∈ J1, 𝑛K. Par indépendance mutuelle de X1 , … , X𝑝
𝑝
𝑘 𝑝
P(Y ≤ 𝑘) = P(X1 ≤ 𝑘, … , X𝑝 ≤ 𝑘) = ∏ P(X𝑗 ≤ 𝑘) = ( )
𝑗=1
𝑛
𝑝
𝑛−𝑘+1 𝑝
P(Z ≥ 𝑘) = P(X1 ≥ 𝑘, … , X𝑝 ≥ 𝑘) = ∏ P(X𝑗 ≥ 𝑘) = ( )
𝑗=1
𝑛

On a alors
𝑘 𝑝 𝑘−1 𝑝
P(Y = 𝑘) = P(Y ≤ 𝑘) − P(Y ≤ 𝑘 − 1) = ( ) − ( )
𝑛 𝑛
𝑛−𝑘+1 𝑝 𝑛−𝑘 𝑝
P(Z = 𝑘) = P(Z ≥ 𝑘) − P(Z ≥ 𝑘 + 1) = ( ) −( )
𝑛 𝑛

b.
𝑛
𝑘 𝑝 𝑘−1 𝑝
E(Y) = ∑ 𝑘 [( ) − ( ) ]
𝑘=1
𝑛 𝑛
𝑛 𝑛
𝑘 𝑝 𝑘−1 𝑝
= ∑ 𝑘( ) − ∑ 𝑘( )
𝑘=1
𝑛 𝑘=1
𝑛
𝑛−1 𝑛
𝑘 𝑝 𝑘−1 𝑝
= 𝑛 + ∑ 𝑘( ) − ∑ 𝑘( )
𝑘=1
𝑛 𝑘=2
𝑛
𝑛−1 𝑛−1
𝑘 𝑝 𝑘 𝑝
= 𝑛 + ∑ 𝑘 ( ) − ∑ (𝑘 + 1) ( )
𝑘=1
𝑛 𝑘=1
𝑛
𝑛−1
𝑘 𝑝
=𝑛− ∑( )
𝑘=1
𝑛
𝑛
𝑛−𝑘+1 𝑝 𝑛−𝑘 𝑝
E(Z) = ∑ 𝑘 [( ) −( ) ]
𝑘=1
𝑛 𝑛
𝑛 𝑛
𝑛−𝑘+1 𝑝 𝑛−𝑘 𝑝
= ∑ 𝑘( ) − ∑ 𝑘( )
𝑘=1
𝑛 𝑘=1
𝑛
𝑛 𝑛−1
𝑛−𝑘+1 𝑝 𝑛−𝑘 𝑝
= 1 + ∑ 𝑘( ) − ∑ 𝑘( )
𝑘=2
𝑛 𝑘=1
𝑛
𝑛−1 𝑛−1
𝑛−𝑘 𝑝 𝑛−𝑘 𝑝
= 1 + ∑ (𝑘 + 1) ( ) − ∑ 𝑘( )
𝑘=1
𝑛 𝑘=1
𝑛
𝑛−1
𝑛−𝑘 𝑝
=1+ ∑( )
𝑘=1
𝑛
𝑛−1
𝑘 𝑝
=1+ ∑( )
𝑘=1
𝑛

http://lgarcin.github.io 30
© Laurent Garcin MP Dumont d’Urville

Remarque. Pour le calcul de E(Z), on aurait aussi pu remarquer via le changement d’indice 𝑙 = 𝑛 − 𝑘 + 1 que
𝑛
𝑛−𝑘+1 𝑝 𝑛−𝑘 𝑝
E(Z) = ∑ 𝑘 [( ) −( ) ]
𝑘=1
𝑛 𝑛
𝑛
𝑙 𝑝 𝑙−1 𝑝
= ∑(𝑛 + 1 − 𝑙) [( ) − ( ) ]
𝑙=1
𝑛 𝑛
𝑛 𝑛
𝑙 𝑝 𝑙−1 𝑝 𝑙 𝑝 𝑙−1 𝑝
= (𝑛 + 1) ∑ [( ) − ( ) ] − ∑ 𝑙 [( ) − ( ) ]
𝑙=1
𝑛 𝑛 𝑙=1
𝑛 𝑛
= 𝑛 + 1 − E(Y) par télescopage dans la première somme
𝑛−1
𝑘 𝑝
=1+ ∑( )
𝑘=1
𝑛

𝑘 𝑘 𝑝
Pour 𝑘 ∈ J1, 𝑛 − 1K, 0 < < 1 donc lim ( ) = 0.
𝑛 𝑝→+∞ 𝑛
Par opération sur les limites, il vient

lim E(Y) = 𝑛 lim E(Y) = 1


𝑝→+∞ 𝑝→+∞

Ceci est bien cohérent avec l’intuition.


𝑘 𝑝
c. Posons S𝑛 = ∑𝑘=1 ( ) . D’après le théorème sur les sommes de Riemann
𝑛−1
𝑛

1
1 1
limS𝑛 = ∫ 𝑡𝑝 d𝑡 =
𝑛→+∞ 𝑛 𝑝 + 1
0

𝑛
ou encore S𝑛 = + 𝑜(𝑛). On en déduit
𝑛→+∞ 𝑝+1

𝑛𝑝 𝑛
E(Y) = + 𝑜(𝑛) E(Z) = + 𝑜(𝑛)
𝑛→+∞ 𝑝+1 𝑛→+∞ 𝑝+1
ou encore
𝑛𝑝 𝑛
E(Y) ∼ E(Z) ∼
𝑛→+∞ 𝑝+1 𝑛→+∞ 𝑝+1

Remarque. On est passé par des petits 𝑜 pour pouvoir effectuer des additions.

Solution 75

On note X le nombre d’essais effectués avant de trouver la bonne clé.


1. Puisque chaque clé a a priori la même probabilité d’être la bonne clé, le nombre moyen d’essais est
𝑛 𝑛
𝑘 𝑛+1
E(X) = ∑ 𝑘P(X = 𝑘) = ∑ =
𝑘=1 𝑘=1
𝑛 2

2. A chaque tentative, le concierge choisit la bonne clé avec une probabilité égale à
1 1
et une mauvaise clé avec une probabilité de 1 − .
𝑛 𝑛
Il s’ensuit que pour 𝑘 ∈ ℕ∗
1 𝑘−1 1
P(X = 𝑘) = (1 − )
𝑛 𝑛
Le nombre moyen d’essais est donc
+∞
1 𝑘−1 1 1 1 1
E(X) = ∑ 𝑘 (1 − ) = = 2
=𝑛
𝑛 𝑛 𝑛 𝑛 1
𝑘=1 (1 − (1 − ))
𝑛

http://lgarcin.github.io 31
© Laurent Garcin MP Dumont d’Urville

Solution 76

1. La probabilité d’ouvrir la boîte gauche vide et qu’il reste 𝑟 allumettes dans la boîte droite, est la probabilité d’avoir choisi N fois la
boîte gauche et N − 𝑟 fois la boîte droite pendant les 2N − 𝑟 premiers choix et d’avoir choisi la dernière fois la boîte gauche c’est-à-dire

2N − 𝑟 1 N 1 N−𝑟 1 (2N−𝑟
N
)
( )( ) ( ) × = 2N−𝑟+1
N 2 2 2 2

Puisque les boîtes gauche et droite jouent des rôles symétriques, la probabilité d’ouvrir la boîte droite vide et qu’il reste 𝑟 allumettes
dans la boîte gauche est la même. Finalement
(2N−𝑟
N
) (2N−𝑟
N
)
μ𝑟,N = 2 2N−𝑟+1 = 2N−𝑟
2 2
(2N
N)
2. On a μ0,N =
1
. En utilisant la formule de Stirling, on obtient μ0,N ∼ .
22N N→+∞ √Nπ

3. Soient N ∈ ℕ et 𝑟 ∈ J0, NK.

(2(N+1)−(𝑟+1)
N+1
)
(2N + 2)μ𝑟+1,N+1 = 2(N + 1)
22(N+1)−(𝑟+1)
(N + 1)(2N+1−𝑟
N+1
)
= 2N−𝑟
2
(2N + 1 − 𝑟)(2N−𝑟
N
)
=
22N−𝑟
= (2N + 1 − 𝑟)μ𝑟,N

4. Si on note XN la variable aléatoire correspondant au nombre d’allumettes restantes, EN est l’espérance de XN , c’est-à-dire que
N
EN = ∑ 𝑟μ𝑟,N
𝑟=0

Soit N ∈ ℕ. D’après la question précédente, pour tout 𝑟 ∈ J0, NK

𝑟μ𝑟,N = (2N + 1)μ𝑟,N − (2N + 2)μ𝑟+1,N+1

donc
N N N
∑ 𝑟μ𝑟,N = (2N + 1) ∑ μ𝑟,N − 2(N + 1) ∑ μ𝑟+1,N+1
𝑟=0 𝑟=0 𝑟=0
ou encore en changeant d’indice dans la dernière somme
N N+1
EN = (2N + 1) ∑ μ𝑟,N − 2(N + 1) ∑ μ𝑟,N+1
𝑟=0 𝑟=1

Mais le nombre d’allumettes restantes est un entier compris entre 0 et N (dans le cas où il y a N allumettes dans chaque boîte au départ)
N N+1
donc ∑ μ𝑟,N = 1. Pour la même raison, ∑ μ𝑟,N+1 = 1. On en déduit
𝑟=0 𝑟=0

EN = (2N + 1) − 2(N + 1)(1 − μ0,N+1 )

http://lgarcin.github.io 32
© Laurent Garcin MP Dumont d’Urville

(2N+2
N+1 )
Or μ0,N+1 = donc
22N+2

(N + 1)(2N+2
N+1
)
EN = −1
22N+1
(2N + 2)(2N+1
N
)
= 2N+1
−1
2
(N + 1)(2N+1
N
)
= 2N
−1
2
2N+1
(N + 1)(2N+1−N )
= 2N
−1
2
(N + 1)(2N+1
N+1
)
= −1
22N
2N
(2N + 1)( N )
= −1
22N

5. En utilisant à nouveau la formule de Stirling, on obtient EN


N
∼ 2√ .
N→+∞ π

6. Notons YN la variable correspondant au nombre d’allumettes utilisées. On a évidemment XN + YN = 2N. FN est l’espérance de YN ,
c’est-à-dire
2N + 1 2N (2N
N
)
FN = E(YN ) = E(2N − XN ) = 2N − EN = 2N + 1 − ( ) = (2N + 1) (1 − )
22N N 22N

Solution 77

1. U suit la loi binomiale ℬ (𝑛, ). Son espérance est


ᵆ 𝑛ᵆ 𝑛ᵆ ᵆ
et sa variance est (1 − ).
𝑏 𝑏 𝑏 𝑏
𝑑 𝑡
De même, D et T suivent respectivement les lois binomiales ℬ (𝑛, ) et ℬ (𝑛, ).
𝑏 𝑏

2. On peut par exemple remarquer que P(U = 𝑛) ≠ 0 et P(D = 𝑛) ≠ 0 tandis que P(U = 𝑛, D = 𝑛) = 0. Ainsi P(U = 𝑛, D = 𝑛) ≠
P(U = 𝑛)P(D = 𝑛), ce qui prouve que U et D ne sont pas indépendantes.
3. Puisque U + D + T = 𝑛, pour tout 𝑘 ∈ J0, 𝑛K,
P(U + D = 𝑘) = P(T = 𝑛 − 𝑘)
𝑡
On en déduit aisément que U + D suit la loi binomiale ℬ (𝑛, 1 − ).
𝑏
De plus,
𝑛𝑡 𝑛(𝑏 − 𝑡)
E(U + D) = E(𝑛 − T) = 𝑛 − E(T) = 𝑛 − =
𝑏 𝑏
Enfin,
𝑛𝑡 𝑡
V(U + D) = V(𝑛 − T) = V(T) = (1 − )
𝑏 𝑏
4. On sait que
1
Cov(U, D) = (V(U + D) − V(U) − V(D))
2
Ainsi
1 𝑛𝑡 𝑡 𝑛𝑢 𝑢 𝑛𝑑 𝑑
Cov(U, D) = ( (1 − ) − (1 − ) − (1 − ))
2 𝑏 𝑏 𝑏 𝑏 𝑏 𝑏
𝑛
= 2 (𝑡(𝑏 − 𝑡) − 𝑢(𝑏 − 𝑢) − 𝑑(𝑏 − 𝑑))
2𝑏
𝑛
= 2 ((𝑏 − 𝑢 − 𝑑)(𝑢 + 𝑑) − 𝑢(𝑏 − 𝑢) − 𝑑(𝑏 − 𝑑))
2𝑏
−𝑛𝑢𝑑
=− 2
𝑏

http://lgarcin.github.io 33
© Laurent Garcin MP Dumont d’Urville

Solution 78

1. a. Notons comme d’habitude Ω l’univers associé à l’expérience aléatoire décrite dans l’énoncé. On a bien-sûr X(Ω) = {1, ⋯ , 𝑛 + 1}.
Si pour tout entier 𝑖 ∈ {1, ⋯ , 𝑛}, on note A𝑖 l’évènement « le i-ième candidat réussit le test », on voit que pout tout 𝑘 ∈ {1, ⋯ , 𝑛},
on a {X = 𝑘} = A1 ∩ … ∩ A𝑘−1 ∩ A𝑘 . D’après la formule des probabilités composées, on a donc :

P(X = 𝑘) = P(A1 )PA1 (A2 ) … PA1∩…∩A (A𝑘−1 )PA1∩…∩A (A𝑘 ) .


𝑘−2 𝑘−1

Pour chaque entier 𝑗 ∈ {1, ⋯ , 𝑘 − 1}, PA1∩…∩A (A𝑗 ) est juste la probabilité que le j-ième candidat rate son test (car il ne le
𝑗−1
passe que si les j-1 candidats précédents ont échoué), et vaut donc 1 − 𝑝 = 𝑞. On a de même PA1∩…∩A (A𝑘 ) = 𝑝, d’où la
𝑘−1
formule :
∀𝑘 ∈ {1, ⋯ , 𝑛}, P(X = 𝑘) = 𝑞𝑘−1 𝑝 . (2)
Enfin, {X = 𝑛 + 1} = A1 ∩ … ∩ A𝑛 . En appliquant une nouvelle fois la formule des probabilités composées, on obtient de la
même manière que :
P(X = 𝑛 + 1) = 𝑞𝑛 . (3)
(2) et (3) donnent bien la loi de X.
b. En se rappelant de la formule :
𝑛
1 − 𝑥𝑛+1
∀𝑥 ≠ 1, ∑ 𝑥𝑘 = , (4)
𝑘=0
1−𝑥
on obtient (puisque 𝑝 ≠ 0 donc 𝑞 ≠ 1) :
𝑛+1 𝑛 𝑛−1
∑ P(X = 𝑘) = ∑ 𝑞𝑘−1 𝑝 + 𝑞𝑛 = 𝑝 ∑ 𝑞𝑘 + 𝑞𝑛
𝑘=1 𝑘=1 𝑘=0
1 − 𝑞𝑛
= 𝑝 + 𝑞 𝑛 = 1 − 𝑞𝑛 + 𝑞 𝑛 = 1
1−𝑞

2. a. En dérivant les deux fonctions dans la formule (4), on obtient l’identité :


𝑛
𝑛𝑥𝑛+1 − (𝑛 + 1)𝑥𝑛 + 1
∀𝑥 ≠ 1, ∑ 𝑘𝑥𝑘−1 = . (5)
𝑘=1
(1 − 𝑥)2

𝑛+1
b. Puisqu’ici X(Ω) = {1, ⋯ , 𝑛 + 1}, on a par définition E(X) = ∑ 𝑘P(X = 𝑘). Compte-tenu de ce qu’on a vu en 1.a et de (5), on
𝑘=1
obtient :
𝑛
𝑛𝑞𝑛+1 − (𝑛 + 1)𝑞𝑛 + 1
E(X) = ∑ 𝑘𝑝𝑞𝑘−1 + (𝑛 + 1)𝑞𝑛 = 𝑝 + (𝑛 + 1)𝑞𝑛
𝑘=1
(1 − 𝑞)2
𝑛+1
𝑛𝑞 − (𝑛 + 1)𝑞𝑛 + 1 + (𝑛 + 1)𝑞𝑛 (1 − 𝑞)
= (car 𝑝 = 1 − 𝑞)
1−𝑞
1 − 𝑞𝑛+1
= .
1−𝑞

3. Notons A l’évènement « l’un des 𝑛 candidats est recruté ». On voit que A = {1 ≤ X ≤ 𝑛}, en d’autres termes A = {X = 𝑛 + 1}. Ainsi
1 1 1
P(A) ≥ ⇔ P(A) ≤ ⇔ P(X = 𝑛 + 1) ≤ . Puisque P(X = 𝑛 + 1) = 𝑞𝑛 , on obtient :
2 2 2

1 1 1 1
P(A) ≥ ⇔ 𝑞𝑛 ≤ ⇔ 𝑞 ≤ ⇔𝑝≥1− .
2 2 𝑛
√2 𝑛
√2
Avec 𝑛 = 4 (resp. 𝑛 = 10), on obtient (en arrondissant à trois chiffres après la virgule) la condition 𝑝 ≥ 0.159 (resp. 𝑝 ≥ 0.067).
Solution 79

http://lgarcin.github.io 34
© Laurent Garcin MP Dumont d’Urville

1. On vérifie aisément que X1 (Ω) = {−1, 1}, X2 (Ω) = {−2, 0, 2},


et X3 (Ω) = {−3, −1, 1, 3}.
2. Soit 𝑛 ≥ 1. Notons D𝑛 le nombre de déplacements vers la droite du mobile entre les instants 0 et 𝑛 − 1. D𝑛 peut prendre toutes les
valeurs entières entre 0 (cas où le mobile se déplace les 𝑛 fois à gauche) et 𝑛 (cas où le mobile se déplace les 𝑛 fois à droite). Or si
D𝑛 = 𝑘, on a X𝑛 = 𝑘 − (𝑛 − 𝑘) = 2𝑘 − 𝑛, d’où le résultat :

X𝑛 (Ω) = {2𝑘 − 𝑛, 0 ≤ 𝑘 ≤ 𝑛} = {−𝑛, −𝑛 + 2, … , 𝑛 − 2, 𝑛} .

3. Fixons 𝑘 ∈ {0, … , 𝑛}. Avec les notations qui précèdent, l’évènement {X𝑛 = 2𝑘 − 𝑛} est égal à {D𝑛 = 𝑘}. Il y a (𝑛𝑘) façons de choisir les
𝑘 déplacements vers la droite parmi les 𝑛, et, ce choix effectué, la probabilité qu’il y ait eu ces 𝑘 déplacements vers la droite et 𝑛 − 𝑘
déplacements vers la gauche aux instants restants est 𝑝𝑘 𝑞𝑛−𝑘 . On en déduit que P(X𝑛 = 2𝑘 − 𝑛) = (𝑛𝑘)𝑝𝑘 𝑞𝑛−𝑘 .
4. a. On a en fait Y𝑛 = D𝑛 avec les notations précédentes, puisque Y𝑛 = 𝑘 ⟺ X𝑛 = 2𝑘 − 𝑛 ⟺ D𝑛 = 𝑘. Ainsi Y𝑛 (Ω) = D𝑛 (Ω) =
{0, … , 𝑛} et
𝑛
∀0 ≤ 𝑘 ≤ 𝑛, P(Y𝑛 = 𝑘) = ( )𝑝𝑘 𝑞𝑛−𝑘 .
𝑘
La loi de Y𝑛 est donc la loi binomiale de paramètres 𝑛 et 𝑝. On sait alors que E(Y𝑛 ) = 𝑛𝑝 et V(Y𝑛 ) = 𝑛𝑝𝑞.
b. Puisque X𝑛 = 2Y𝑛 − 𝑛, on en déduit que E(X𝑛 ) = 2E(Y𝑛 ) − 𝑛 = 𝑛(2𝑝 − 1) et que V(X𝑛 ) = 22 V(Y𝑛 ) = 4𝑛𝑝𝑞.
c. La limite de E(X𝑛 ) dépend du signe de 2𝑝 − 1 :
1
⎧ si 0<𝑝< ,
2
lim E(X𝑛 ) = −∞
𝑛→+∞
⎪ 1
si 𝑝 = , lim E(X𝑛 ) = 0
⎨ 2 𝑛→+∞
⎪ si 1
< 𝑝 < 1, lim E(X𝑛 ) = +∞
⎩ 2 𝑛→+∞

1
Notons que dans le cas 𝑝 = , la variable X𝑛 est centrée pour tout 𝑛 : la position moyenne du mobile reste toujours 0, ce qui n’est
2
pas étonnant puisqu’à chaque déplacement il a autant de chances d’aller à droite qu’à gauche.
Puisque 0 < 𝑝 < 1, on a 𝑝𝑞 = 𝑝(1 − 𝑝) > 0, donc lim V(X𝑛 ) = +∞.
𝑛→+∞
Ainsi pour toute valeur de 𝑝 ∈]0, 1[, la dispersion de X𝑛 par rapport à sa moyenne tend vers l’infini, ce qui traduit le fait que plus
𝑛 est grand plus il est difficile de prédire la position qu’aura le mobile au bout de 𝑛 déplacements.
Solution 80

1. Numérotons les boules rouges de 1 à 5, les blanches de 6 à 10 et les bleues de 11 à 16. L’ensemble Ω des tirages possibles est alors
l’ensemble des 4-listes d’éléments distincts de {1, ⋯ , 16} :

Ω = {(𝑛1 , 𝑛2 , 𝑛3 , 𝑛4 ) ∈ ℕ416 / 𝑛𝑖 distincts 2 à 2} .

(𝑛𝑖 correspondant au numéro de la 𝑖-ème boule tirée).


Le cardinal de Ω est par définition A416 = 16.15.14.13 = 43680. Comme le tirage s’effectue au hasard, la probabilité est uniforme sur
1
Ω : chaque 4-liste a la même probabilité .
43680
La variable aléatoire X peut prendre les valeurs 0, 1, 2, 3 ou 4. Pour chaque 𝑘 ∈ {0, … , 4}, on dénombre les cas favorables à l’évènement
{X = 𝑘} :
• les tirages favorables appartenant à {X = 0} sont les 4-listes d’éléments distincts de {6, … , 16} (tirages de boules blanches ou
bleues uniquement), il y en a donc A411 = 11.10.9.8 = 7920. Ainsi :

A411 7920 33
P(X = 0) = = = .
43680 43680 182

• pour qu’un tirage appartienne à {X = 1}, il y a (15) = 5 façcons de choisir le numéro de la boule rouge tirée, puis 4 façons de
choisir le rang d’apparition de cette boule rouge, et A311 = 11.10.9 façons de compléter le tirage avec 3 boules blanches ou bleues.
Ainsi :
(5).4.A311 19800 165
P(X = 1) = 1 = = .
43680 43680 364

http://lgarcin.github.io 35
© Laurent Garcin MP Dumont d’Urville

• pour qu’un tirage appartienne à {X = 2}, il y a (25) façons de choisir les numéros des deux boules rouges tirées, puis A24 façons
de choisir les rangs d’apparition de ces boules rouges, et A211 = 11.10 façons de compléter le tirage avec 2 boules blanches ou
bleues. Ainsi
(5).A24 .A211 13200 55
P(X = 2) = 2 = = .
43680 43680 182
• par le même raisonnement on obtient aisément :

(35).A34 .A111 2640 11



⎪ P(X = 3) = = =
43680 43680 182

⎪ P(X = 4) (45).A44 120 1
⎩ = = =
43680 43680 364
Remarque : La formule générale pour P(X = 𝑘) est donc :

(𝑘5 ).A𝑘4 .A4−𝑘


11
∀ 0 ≤ 𝑘 ≤ 4, P(X = 𝑘) = .
43680
On peut aussi exprimer ce résultat avec des coefficients binômiaux ; en effet 43680 = A416 = 4! × (16
4
) et

4! 11! 11
A𝑘4 .A4−𝑘
11 = × = 4! × ( ),
(4 − 𝑘)! (11 − 4 + 𝑘)! 4−𝑘

d’où finalement, en simplifiant en haut et en bas par 4! :

(𝑘5 )(4−𝑘
11
)
∀ 0 ≤ 𝑘 ≤ 4, P(X = 𝑘) = .
(16
4
)

On aurait pu trouver directement cette formule si on avait considéré le résultat d’un tirage comme une partie de 4 éléments parmi 16
(sans attribuer de numéros aux boules, ni tenir compte de l’ordre des tirages).
4
Connaissant les P(X = 𝑘) pour 0 ≤ 𝑘 ≤ 4 (penser à vérifier qu’on a bien qu’on a bien ∑ P(X = 𝑘) = 1), on en déduit l’espérance :
𝑘=0

4
165 55 11 1
E(X) = ∑ 𝑘P(X = 𝑘) = 1 ⋅ +2⋅ + 3. + 4.
𝑘=0
364 182 182 364
455 5
= = .
364 4

2. On a toujours Y(Ω) = {0, 1, 2, 3, 4}.


Dénombrons les cas favorables à {Y = 𝑘} pour 0 ≤ 𝑘 ≤ 4 fixé :
d’abord il y a (𝑘4) façons de fixer les 𝑘 tirages où on obtient une boule rouge parmi les 4 tirages en tout. Ensuite, puisqu’à chaque tirage
5 11
on a la même probabilité (resp. ) de tirer une boule rouge (resp. blanche ou bleue), la probabilité de tirer une boule rouge (resp.
16 16
5 𝑘 11 4−𝑘
blanche ou bleue) à chacun des 𝑘 (resp. 4 − 𝑘) tirages fixés précédemment vaut ( ) (resp. ( ) ).
16 16
On en conclut que :
4 5 𝑘 11 4−𝑘
∀ 0 ≤ 𝑘 ≤ 4, P(Y = 𝑘) = ( ).( ) .( ) .
𝑘 16 16

On en déduit alors l’espérance de Y en écrivant que 𝑘(𝑘4) = 4(𝑘−1


3
) pour tout 1 ≤ 𝑘 ≤ 4, puis en utilisant la formule du binôme de
Newton :
4
4 5 𝑘 11 4−𝑘
E(Y) = ∑ 𝑘( ).( ) .( )
𝑘=1
𝑘 16 16
4
5 3 5 𝑘−1 11 3−(𝑘−1)
= 4. ∑( )( ) ( )
16 𝑘=1 𝑘 − 1 16 16
3
5 3 5 𝑗 11 3−𝑗 5 5 11 3 5
= 4. ∑ ( )( ) ( ) = ( + ) = .
16 𝑗=0 𝑗 16 16 4 16 16 4

http://lgarcin.github.io 36
© Laurent Garcin MP Dumont d’Urville

Solution 81

Les trois tirages étant indépendants on trouve


1 2 3 1 1 2 3 1 1 3 1 2 1 11
P(X = 0) = = , P(X = 1) = + + = ,
2 3 4 4 2 3 4 2 3 4 2 3 4 24
1 1 1 1 1 1 3 1 2 1 1 1 1 1
P(X = 3) = = , P(X = 2) = + + = .
2 3 4 24 2 3 4 2 3 4 2 3 4 6
Bien sûr, on peut aussi calculer la dernière probabilité par
1 11 1 1
P(X = 2) = 1 − P(X ≠ 2) = 1 − − − = .
4 24 24 6
Solution 82

𝑛 𝑛
1 1 𝑛+1
E(X) = ∑ ×𝑘= ∑𝑘=
𝑘=1
𝑛 𝑛 𝑘=1
2
𝑛
1 𝑛 + 1 2 (𝑛 + 1)(2𝑛 + 1) (𝑛 + 1)2 𝑛2 − 1
V(X) = E(X2 ) − E(X)2 = ∑𝑘−( ) = − =
𝑛 𝑘=1 2 6 4 12
√ 𝑛2 − 1
σ(X) =
2√3

Lois de variables aléatoires


Solution 83

1. X𝑛 est à valeurs dans J0, 𝑛K. Soit donc 𝑘 ∈ J0, 𝑛K.


Se donner une application de E𝑛 à 𝑘 points fixes revient à
• choisir les 𝑘 points fixes parmi les 𝑛 éléments de J1, 𝑛K soit (𝑛𝑘) possibilités ;
• choisir pour chacun des 𝑛 − 𝑘 éléments restants une image autre que lui-même soit (𝑛 − 1)𝑛−𝑘 possibilités.
On en déduit qu’il existe (𝑛𝑘)(𝑛 − 1)𝑛−𝑘 applications de E𝑛 ayant exactement 𝑘 points fixes. Puisque card E𝑛 = 𝑛𝑛 ,

𝑛 (𝑛 − 1)𝑛−𝑘
P(X𝑛 = 𝑘) = ( )
𝑘 𝑛𝑛

2. D’après la question précédente pour 𝑛 ≥ 𝑘

𝑛(𝑛 − 1) … (𝑛 − 𝑘 + 1) (𝑛 − 1)𝑛−𝑘
P(X𝑛 = 𝑘) =
𝑘! 𝑛𝑛
ou encore
𝑛(𝑛 − 1) … (𝑛 − 𝑘 + 1) (𝑛 − 1)𝑛−𝑘
P(X𝑛 = 𝑘) =
𝑛𝑘 𝑘! 𝑛𝑛−𝑘
On a clairement 𝑛(𝑛 − 1) … (𝑛 − 𝑘 + 1) ∼ 𝑛𝑘 donc

𝑛(𝑛 − 1) … (𝑛 − 𝑘 + 1) 1
lim =
𝑛→+∞ 𝑘
𝑛 𝑘! 𝑘!
De plus,
(𝑛 − 1)𝑛−𝑘 1 𝑛−𝑘 1
= (1 − ) = exp ((𝑛 − 𝑘) ln (1 − ))
𝑛 𝑛−𝑘 𝑛 𝑛

http://lgarcin.github.io 37
© Laurent Garcin MP Dumont d’Urville

1 1 1
Or ln (1 − ) ∼ − donc lim𝑛→+∞ (𝑛 − 𝑘) ln (1 − ) = −1 puis
𝑛 𝑛→+∞ 𝑛 𝑛

(𝑛 − 1)𝑛−𝑘
lim = 𝑒−1
𝑛→+∞ 𝑛𝑛−𝑘
Finalement
𝑒−1
lim P(X𝑛 = 𝑘) =
𝑛→+∞ 𝑘!
Solution 84

1.
N
E(Y) = ∑ 𝑘P(Y = 𝑘)
𝑘=1
N
= ∑ 𝑘 (P(Y > 𝑘 − 1) − P(Y > 𝑘))
𝑘=1
N 𝑛
= ∑ 𝑘P(Y > 𝑘 − 1) − ∑ 𝑘P(Y > 𝑘)
𝑘=1 𝑘=1
N−1 N
= ∑ (𝑘 + 1)P(Y > 𝑘) − ∑ 𝑘P(Y > 𝑘) par changement d’indice
𝑘=0 𝑘=1
N−1 N
= ∑ (𝑘 + 1)P(Y > 𝑘) − ∑ 𝑘P(Y > 𝑘)
𝑘=0 𝑘=0
N−1
= ∑ P(Y > 𝑘) − NP(Y > N)
𝑘=0
N−1
= ∑ P(Y > 𝑘) car P(Y > 𝑛) = 0
𝑘=0

2. a. Soit 𝑘 ∈ J1, NK.


P(T𝑛 ≤ 𝑘) = P(X1 ≤ 𝑘, X2 ≤ 𝑘, … , X𝑛 ≤ 𝑘) = P(X1 ≤ 𝑘)P(X2 ≤ 𝑘) … P(X𝑛 ≤ 𝑘)
car les variables X1 , … , X𝑛 sont mutuellement indépendantes. Mais comme chacune de ces variables suit la loi uniforme sur
J1, NK
𝑘 𝑛
P(T𝑛 ≤ 𝑘) = ( )
N
b. Pour tout 𝑘 ∈ J, NK
𝑘 𝑛 𝑘−1 𝑛
P(T𝑛 = 𝑘) = P(T𝑛 ≤ 𝑘) − P(T𝑛 ≤ 𝑘 − 1) = ( ) − ( )
N N
c.
N
𝑘 𝑛 𝑘−1 𝑛
E(T𝑛 ) = ∑ 𝑘 (( ) − ( ) )
𝑘=1
N N
N N
𝑘 𝑛 𝑘−1 𝑛
= ∑ 𝑘( ) − ∑ 𝑘( )
𝑘=1
N 𝑘=1
N
N N−1
𝑘 𝑛 𝑘 𝑛
= ∑ 𝑘 ( ) − ∑ (𝑘 + 1) ( )
𝑘=1
N 𝑘=0
N
N N−1
𝑘 𝑛 𝑘 𝑛
= ∑ 𝑘 ( ) − ∑ (𝑘 + 1) ( )
𝑘=0
N 𝑘=0
N
= N − 𝑎𝑛 (N)

http://lgarcin.github.io 38
© Laurent Garcin MP Dumont d’Urville

3. a. Soit 𝑘 ∈ J0, N − 1K.

P(Z𝑛 > 𝑘) = P(X1 > 𝑘, X2 > 𝑘, … , X𝑛 > 𝑘) = P(X1 > 𝑘)P(X2 > 𝑘) … P(X𝑛 > 𝑘)

car les variables X1 , … , X𝑛 sont mutuellement indépendantes. Mais comme chacune de ces variables suit la loi uniforme sur
J1, NK
N−𝑘 𝑛
P(Z𝑛 > 𝑘) = ( )
N
b. En utilisant la première question
N−1 N
N−𝑘 𝑛 𝑘 𝑛
E(Z𝑛 ) = ∑ ( ) = ∑( )
𝑘=0
N 𝑘=1
N
via un changement d’indice. Autrement dit, E(Z𝑛 ) = 1 + 𝑎𝑛 (N).
𝑘 𝑛
4. a. Pour 𝑘 ∈ J1, N − 1K, 0 ≤ < 1 donc lim𝑛→+∞ ( ) = 0. Ainsi lim𝑛→+∞ 𝑎𝑛 (N) = 0. Or E(T𝑛 ) = N − 𝑎𝑛 (N) pour tout 𝑛 ∈ ℕ∗
𝑘
N N
donc lim𝑛→+∞ E(T𝑛 ) = N.
b. Par linéarité, E(S𝑛 ) = E(T𝑛 ) + E(Z𝑛 ) − 1 = N en utilisant les questions précédentes.
Solution 85

Posons X = 1A + 21B . Alors X(Ω) = {0, 1, 2, 3}. On a


5
P(X = 0) = P(Ā ∩ B)̄ = 1 − P(A ∪ B) = 1 − P(A) − P(B) + P(A ∩ B) =
12
1
P(X = 1) = P(1A = 0, 1B = 1) = P(A ∩ B)̄ = P(A) − P(A ∩ B) =
4
1
P(X = 2) = P(1A = 0, 1B = 1) = P(Ā ∩ B) = P(B) − P(A ∩ B) =
12
1
P(X = 3) = P(1A = 1, 1B = 1) = P(A ∩ B) =
4
Remarque. On vérifie que ∑𝑘=0 P(X = 𝑘) = 1.
3

On en déduit
3
7
E(X) = ∑ 𝑘P(X = 𝑘) =
𝑘=0
6
3
7 2 53
V(X) = E(X2 ) − E(X)2 = ∑ 𝑘2 P(X = 𝑘) − ( ) =
𝑘=0
6 36

Solution 86

Puisque le rang d’apparition des boules rouges ne dépend que du placement des boules rouges, on peut prendre comme univers l’ensemble
des combinaisons des 𝑟 places parmi N.
Fixons 𝑛 ∈ J1, 𝑟K. Remarquons que X𝑛 est à valeurs dans J𝑛, N − 𝑟 + 𝑛K puisqu’il y a 𝑛 − 1 boules rouges avant la 𝑛ème et 𝑟 − 𝑛 après.
Fixons donc 𝑘 ∈ J𝑛, N−𝑟+𝑛K et dénombrons les combinaisons faisant apparaître la 𝑛ème boule en 𝑘ème position. Choisir une telle combinaison
revient à placer 𝑛 − 1 boules parmi les 𝑘 − 1 places précédant la 𝑘ème et 𝑟 − 𝑛 parmi les N − 𝑘 places lui succédant. Il existe donc (𝑛−1
𝑘−1 N−𝑘
)( 𝑟−𝑛 )
ème ème
combinaisons faisant apparaître la 𝑛 boule en 𝑘 position.
Puisqu’il existe (N𝑟) combinaisons de 𝑟 places parmi N et que tous les tirages sont implicitement équiprobables
𝑘−1 N−𝑘
(𝑛−1 )( 𝑟−𝑛 )
P(X𝑛 = 𝑘) =
(N𝑟)

Solution 87

Remarquons tout d’abord que X est à valeurs dans {1, 2, 3, 4}.


On a clairement card(X = 1) = 6.
Se donner une issue de l’événement X = 2 consiste à :

http://lgarcin.github.io 39
© Laurent Garcin MP Dumont d’Urville

1. choisir deux numéros : (62) possibilités ;


2. choisir combien de fois chacun des numéros apparaîtra autrement dit à écrire 4 comme somme de deux entiers naturels non nuls
(4=1+3=2+2=3+1) : 3 possibilités.
Ainsi card(X = 2) = 3(62) = 45.
De même, se donner une issue de l’événement X = 3 consiste à :

1. choisir deux numéros : (63) possibilités ;


2. choisir combien de fois chacun des numéros apparaîtra autrement dit à écrire 4 comme somme de trois entiers naturels non nuls
(4=1+1+2=1+2+1=2+1+1) : 3 possibilités.
Ainsi card(X = 3) = 3(63) = 60.
Enfin, on a clairement card(X = 4) = (46) = 15.
4
Puisque (X = 𝑘)1≤𝑘≤4 est un système complet d’événements, card(Ω) = ∑𝑘=1 card(X = 𝑘) = 126 puis

card(X = 1) 1 card(X = 2) 5 card(X = 3) 10 card(X = 4) 5


P(X = 1) = = P(X = 2) = = P(X = 3) = = P(X = 4) = =
card(Ω) 21 card(Ω) 14 card(Ω) 21 card(Ω) 42

Il vient alors
4
1 5 10 5 8
E(X) = ∑ 𝑘P(X = 𝑘) = 1 × +2× +3× +4× =
𝑘=1
21 14 21 42 3
et enfin
4
1 5 10 5 8 2 23 64 5
V(X) = ∑ 𝑘2 P(X = 𝑘) − E(X)2 = 1 × +4× +9× + 16 × −( ) = − =
𝑘=1
21 14 21 42 3 3 9 9
Solution 88

1. X suit évidemment la loi binomiale de paramètres 𝑛 et


N1 𝑛N1 𝑛N1 N2
. Classiquement, E(X) = et V(X) = .
N N N2

2. L’univers Ω de l’expérience aléatoire est formé des 𝑛-arrangements de N boules. Ainsi card(Ω) =
N!
.
(N−𝑛)!
Y est à valeurs dans Jmax(0, 𝑛 − N2 ), min(𝑛, N1 )K. Soit 𝑘 dans cet ensemble. Se donner une issue de l’événement Y = 𝑘 consiste à
choisir les emplacements des 𝑘 boules blanches ((𝑛𝑘) possibilités) puis à se donner un 𝑘-arrangement des N1 boules blanches et un
(𝑛 − 𝑘)-arrangement des N2 boules blanches. Ainsi

𝑛 N1 ! N2 ! N1 N2
card(Y = 𝑘) = ( ) = 𝑛!( )( )
𝑘 (N1 − 𝑘)! (N2 − 𝑛 + 𝑘)! 𝑘 𝑛−𝑘

puis
card(Y = 𝑘) 𝑛!(N𝑘1)(𝑛−𝑘
N2
) (N𝑘1)(𝑛−𝑘
N2
)
P(Y = 𝑘) = = =
card(Ω) N! N
(𝑛)
(N−𝑛)!

On peut calculer l’espérance et la variance de Y à l’aide de formules sur les coefficients binomiaux mais les calculs s’avèrent fastidieux
et longs. On va adopter une méthode plus astucieuse.
Notons ℬ l’ensemble des boules blanches et pour 𝑏 ∈ ℬ, Y𝑏 la variable aléatoire valant 1 si la boule 𝑏 a été tirée au cours des 𝑛 tirages
et 0 sinon. Il est clair que Y = ∑ Y𝑏 . Ainsi E(Y) = ∑ E(Y𝑏 ). Or pour tout 𝑏 ∈ ℬ, Y𝑏 est une variable de Bernoulli dont le paramètre
𝑏∈ℬ 𝑏∈ℬ
𝑛
𝑝 est la probabilité P(Y = 1) dans le cas où N1 vaut 1. Autrement dit 𝑝 = . Ainsi
N

𝑛 𝑛N1
E(Y) = ∑ =
𝑏∈ℬ
N N

Si N = 1, on a évidemment V(Y) = 0. Supposons donc 𝑛 ≥ 2.


𝑛(N−𝑛)
Soit 𝑏 ∈ ℬ. Y𝑏 étant une variable de Bernoulli, V(Y𝑏 ) = 𝑝(1 − 𝑝) = .
N2

http://lgarcin.github.io 40
© Laurent Garcin MP Dumont d’Urville

Soit (𝑏1 , 𝑏2 ) ∈ ℬ2 tel que 𝑏1 ≠ 𝑏2 . Alors Cov(Y𝑏1 , Y𝑏2 ) = E(Y𝑏1 Y𝑏2 ) − E(Y𝑏1 )E(Y𝑏2 ). Mais Y𝑏1 Y𝑏2 est à nouveau une variable de
Bernoulli dont le paramètre est la probabilité P(Y = 2) lorsque N1 vaut 2. On en déduit

𝑛(𝑛 − 1) 𝑛 2 𝑛(N − 𝑛)
Cov(Y𝑏1 , Y𝑏2 ) = −( ) =− 2
N(N − 1) N N (N − 1)
Enfin

V(Y) = V( ∑ Y𝑏 )
𝑏∈ℬ
= ∑ V(Y𝑏 ) + ∑ Cov(Y𝑏1 , Y𝑏2 )
𝑏∈ℬ (𝑏1 ,𝑏2 )∈ℬ2 ,𝑏1 ≠𝑏2
N1 𝑛(N − 𝑛) N1 (N1 − 1)𝑛(N − 𝑛)
= −
N2 N2 (N − 1)
N1 𝑛(N − 𝑛)(N − 1) − N1(N1 − 1)𝑛(N − 𝑛)
=
N2 (N − 1)
N 𝑛(N − 𝑛)(N − N1 )
= 1
N2 (N − 1)
N1 N2 N − 𝑛
=
N N N−1

3. L’univers Ω de l’expérience aléatoire est formé des 𝑛-combinaisons de N boules. Ainsi card(Ω) = (N 𝑛
).
Z est encore à valeurs dans Jmax(0, 𝑛 − N2 ), min(𝑛, N1 )K. Soit 𝑘 dans cet ensemble. Se donner une issue de l’événement Z = 𝑘
correspond à choisir 𝑘 boules parmi les N1 boules blanches et 𝑛 − 𝑘 boules parmi les N2 boules noires. Ainsi

N1 N2
card(Z = 𝑘) = ( )( )
𝑘 𝑛−𝑘

puis
card(Z = 𝑘) (N1)( N2 )
P(Z = 𝑘) = = 𝑘 N𝑛−𝑘
card(Ω) (𝑛)
Z suit donc la même loi que Y et a donc même espérance et même variance.

Remarque. La loi de Y et Z s’appelle la loi hypergéométrique de paramètres 𝑛, N et


N1
.
N

Solution 89

1. Posons X = (X1 , … , X𝑛 )⊤ . Alors M = XX⊤ . La matrice M est donc de rang au plus 1 (toutes ses colonnes sont coliénaires à X). Ainsi
M suit une loi de Bernoulli. De plus, par indépendance des X𝑖 ,
𝑛 𝑛
ℙ(rg M = 0) = ℙ(M = 0) = ℙ ( X𝑖 = 0) = ∏ ℙ(X𝑖 = 0) = (1 − 𝑝)𝑛

𝑖=1 𝑖=1

Ainsi rg M suit une loi de Bernoulli de paramètre 1 − (1 − 𝑝)𝑛 .


2. Remarquons que tr(M) = ∑𝑖=1 X2𝑖 . Mais comme les X𝑖 sont à valeurs dans {0, 1}, X2𝑖 = X𝑖 . Finalement, tr(M) = ∑𝑖=1 X𝑖 suit une loi
𝑛 𝑛

binomiale de paramètres 𝑛 et 𝑝 car les X𝑖 sont indépendantes.


Solution 90

Pour 1 ≤ 𝑖 ≤ 6, notons 𝑝𝑖 (resp. 𝑞𝑖 ) la probabilité d’obtenir 𝑖 en lançant le premier (resp. le deuxième) dé. De même, pour 2 ≤ 𝑖 ≤ 12, notons
𝑟𝑖 la probabilité d’obtenir 𝑖 en lançant deux dés. On a la relation suivante : 𝑟𝑘 = ∑ 𝑝𝑖 𝑞𝑗 .
𝑖+𝑗=𝑘
6 6 12
Notons P = ∑ 𝑝𝑖 X𝑖−1 , Q = ∑ 𝑞𝑖 X𝑖−1 et R = ∑ 𝑞𝑖 X𝑖−2 . La relation précédente signifie que R = PQ. S’il y avait équiprobabilité sur les
𝑖=1 𝑖=1 𝑖=2

http://lgarcin.github.io 41
© Laurent Garcin MP Dumont d’Urville

10
1 1
sommes, on aurait 𝑟𝑖 = pour 2 ≤ 𝑖 ≤ 12 i.e. R = ∑ X𝑖 .
11 11 𝑖=0
Les racines de R sont les racines 11èmes de l’unité privées de 1. Aucune de ces racines n’est réelle. De plus, deg P ≤ 5 et deg Q ≤ 5. Puisque
deg R = deg PQ = 10, deg P = deg Q = 5. Puisque 5 est impair, les polynômes P et Q admettent chacun au moins une racine réelle en vertu
du théorème des valeurs intermédiaires, d’où une contradiction.
Il est donc impossible de piper deux dés de manière à avoir équiprobabilité sur les sommes.
Solution 91

Si 𝑛 = 0, la réponse est évidemment affirmative. Supposons maintenant 𝑛 ≥ 1.


Supposons qu’il existe deux variables aléatoires indépendantes A et B à valeurs dans J0, 𝑛K dont la somme C = A + B suive la loi uniforme
sur J0, 2𝑛K. Posons 𝑎𝑘 = P(A = 𝑘) et 𝑏𝑘 = P(B = 𝑘) pour 𝑘 ∈ J0, 𝑛K. De même, posons 𝑐𝑘 = P(C = 𝑘) pour 𝑘 ∈ J0, 2𝑛K. On a alors pour
tout 𝑘 ∈ J0, 2𝑛K
𝑐𝑘 = ∑ 𝑎𝑖 𝑏𝑗
𝑖+𝑗=𝑘
1 1
Mais puisque C = A + B suit une loi uniforme sur J0, 2𝑛K, 𝑐𝑘 = pour tout 𝑘 ∈ J0, 2𝑛K. On a donc en particulier 𝑎0 𝑏0 = 𝑎𝑛 𝑏𝑛 = .
2𝑛+1 2𝑛+1
Puisque 𝑛 ≥ 1
𝑐𝑛 = ∑ 𝑎𝑖 𝑏𝑗 ≥ 𝑎0 𝑏𝑛 + 𝑎𝑛 𝑏0
𝑖+𝑗=𝑛

(la somme comporte au moins ces deux termes). Ainsi


1
≥ 𝑎0 𝑏𝑛 + 𝑎𝑛 𝑏0
2𝑛 + 1
1
En vertu des égalités 𝑎0 𝑏0 = 𝑎𝑛 𝑏𝑛 = , les réels 𝑎0 , 𝑎𝑛 , 𝑏0 , 𝑏𝑛 sont non nuls et même strictement positifs puisqu’il s’agit de probabilités.
2𝑛+1
1 1
On peut donc affirmer que 𝑎0 𝑏𝑛 + 𝑎𝑛 𝑏0 est strictement supérieur à 𝑎0 𝑏𝑛 et 𝑎𝑛 𝑏0 . On a donc 0 ≤ 𝑎0 𝑏𝑛 < et 0 ≤ 𝑎𝑛 𝑏0 < . Il s’ensuit
2𝑛+1 2𝑛+1
que
1
(𝑎0 𝑏𝑛 )(𝑎𝑛 𝑏0 ) <
(2𝑛 + 1)2
1
Or (𝑎0 𝑏𝑛 )(𝑎𝑛 𝑏0 ) = (𝑎0 𝑏0 )(𝑎𝑛 𝑏𝑛 ) = d’où une contradiction.
(2𝑛+1)2
Il n’existe donc pas deux variables aléatoires indépendantes à valeurs dans J0, 𝑛K dont la somme suit une loi uniforme sur J0, 2𝑛K.
Solution 92

Remarquons tout d’abord que X + Y est à valeurs dans J2, 𝑛K tandis que Z est à valeurs dans J1, 𝑛K. Puisque X + Y et Z sont indépendantes,
𝑛 𝑛 𝑛
1
P(X + Y = Z) = ∑ P(X + Y = 𝑘, Z = 𝑘) = ∑ P(X + Y = 𝑘)P(Z = 𝑘) = ∑ P(X + Y = 𝑘)
𝑘=2 𝑘=2
𝑛 𝑘=2

De plus, pour tout 𝑘 ∈ J2, 𝑛K,


𝑘−1 𝑘−1
𝑘−1
P(X + Y = 𝑘) = ∑ P(X = 𝑗, Y = 𝑘 − 𝑗) = ∑ P(X = 𝑗)P(Y = 𝑘 − 𝑗) =
𝑗=1 𝑗=1
𝑛2

Ainsi 𝑛
1 𝑛−1
P(X + Y = Z) = ∑𝑘−1=
𝑛3 𝑘=2 2𝑛2
Solution 93

1. X est à valeurs dans J0, 𝑛K. Soit 𝑘 ∈ J0, 𝑛K.


𝑛 𝑛
1 1
P(X = 𝑘) = ∑ P(X = 𝑘, Y = 𝑙) = ∑ 2
=
𝑙=0 𝑙=0
(𝑛 + 1) 𝑛 + 1

http://lgarcin.github.io 42
© Laurent Garcin MP Dumont d’Urville

Ainsi X suit la loi 𝒰 (J0, 𝑛K).


On démontre de même que Y suit la loi 𝒰 (J0, 𝑛K).
X + Y est à valeurs dans J0, 2𝑛K. Soit 𝑘 ∈ J0, 2𝑛K.
𝑛
P(X + Y = 𝑘) = ∑ P(X = 𝑙, Y = 𝑘 − 𝑙)
𝑙=0

Si 𝑘 ≤ 𝑛,
𝑘 𝑘
1 𝑘+1
P(X + Y = 𝑘) = ∑ P(X = 𝑙, Y = 𝑘 − 𝑙) = ∑ 2
=
𝑙=0 𝑙=0
(𝑛 + 1) (𝑛 + 1)2
Si 𝑘 ≥ 𝑛,
𝑛 𝑛
1 2𝑛 − 𝑘 + 1
P(X + Y = 𝑘) = ∑ P(X = 𝑙, Y = 𝑘 − 𝑙) = ∑ 2
=
𝑙=𝑘−𝑛 𝑙=𝑘−𝑛
(𝑛 + 1) (𝑛 + 1)2
De manière générale, pour tout 𝑘 ∈ J0, 2𝑛K,
(𝑛 + 1) − |𝑘 − 𝑛|
P(X + Y = 𝑘) =
(𝑛 + 1)2

2. Les variables X et Y sont indépendantes puisque pour tout (𝑘, 𝑙) ∈ J0, 𝑛K2 ,
1
P(X = 𝑘, Y = 𝑙) = = P(X = 𝑘)P(Y = 𝑙)
(𝑛 + 1)2

Solution 94

On calcule dans un premier temps P(X = Y). L’événement X = Y est la réunion disjointes des événements (X = 𝑘) ∩ (Y = 𝑘) pour 𝑘
décrivant J1, 𝑛K. On en déduit que
𝑛
P(X = Y) = ∑ P([X = 𝑘] ∩ [Y = 𝑘])
𝑘=1
Or les variables aléatoires X et Y sont indépendantes donc
𝑛 𝑛
1 1
P(X = Y) = ∑ P(X = 𝑘)P(Y = 𝑘) = ∑ 2
=
𝑘=1 𝑘=1
𝑛 𝑛

On en déduit que
1
P(X ≠ Y) = 1 − P(X = Y) = 1 −
𝑛
Solution 95

Via la formule de transfert,


𝑛
μ𝑟 = ∑ ℙ(X = 𝑘)(𝑘 − 𝑛𝑝)𝑟
𝑘=0
(𝑘−𝑛𝑝)𝑟 𝑥𝑟 μ𝑟 𝑥 𝑟
Puisque pour tout 𝑘 ∈ J0, 𝑛K, la série ∑𝑟∈ℕ converge (série exponentielle), il en est de même de la série ∑𝑛∈ℕ et, de plus,
𝑟! 𝑟!

+∞ 𝑛 +∞
μ𝑟 𝑥𝑟 (𝑘 − 𝑛𝑝)𝑟 𝑥𝑟
∑ = ∑ ℙ(X = 𝑘) ∑
𝑟=0
𝑟! 𝑘=0 𝑟=0
𝑟!
𝑛
= ∑ ℙ(X = 𝑘)𝑒(𝑘−𝑛𝑝)𝑥
𝑘=0
𝑛
𝑛
= 𝑒−𝑛𝑝𝑥 ∑ ( )𝑝𝑘 𝑒𝑘𝑥 (1 − 𝑝)𝑛−𝑘
𝑘=0
𝑘
𝑛
= 𝑒−𝑛𝑝𝑥 (𝑝𝑒𝑥 + 1 − 𝑝)𝑛 = [𝑝𝑒(1−𝑝)𝑥 + (1 − 𝑝)𝑒−𝑝𝑥 ]

Solution 96

http://lgarcin.github.io 43
© Laurent Garcin MP Dumont d’Urville

ω𝑘 −1
1. Notons S𝑗,𝑘 la somme de l’énoncé. Si ω𝑗 = 1, autrement dit si 𝑘 divise 𝑗, S𝑗,𝑘 = 𝑘. Sinon, S𝑗,𝑘 = = 0.
ω−1

2. X𝑛 suit clairement la loi binomiale de paramètres 𝑛 et . D’après la question précédente,


1
2
𝑛
S𝑗,𝑘
ℙ(𝑘 ∣ X𝑛 ) = ∑ ℙ(X = 𝑗)
𝑗=0
𝑘
𝑛
S𝑗,𝑘 1 𝑛
=∑ ⋅ 𝑛 ⋅( ) car X𝑛 ∼ ℬ(𝑛, 1/2)
𝑗=0
𝑘 2 𝑗
𝑛 𝑘−1
1 𝑛
= 𝑛
∑ ∑ ( )ωℓ𝑗
2 𝑘 𝑗=0 ℓ=0 𝑗
𝑘−1 𝑛
1 𝑛
= ∑ ∑ ( )ωℓ𝑗 car les deux sommes sont finies
2𝑛 𝑘 ℓ=0 𝑗=0 𝑗
𝑘−1
1 1
= ∑ 𝑛 (1 + ωℓ )𝑛
𝑘 ℓ=0 2
1
Lorsque ℓ = 0, (1 + ωℓ )𝑛 = 1 et lorsque ℓ ∈ J1, 𝑘 − 1K,
2𝑛

πℓ |
|1 + ωℓ | = 2 ||cos |<2
| 𝑘 |
1
Ainsi, dans ce cas, lim𝑛→+∞ (1 + ωℓ )𝑛 = 0. On en déduit que
2𝑛

1
lim ℙ(𝑘 ∣ X𝑛 ) =
𝑛→+∞ 𝑘
ce qui est conforme à l’intuition.

Chaînes de Markov
Solution 97

1. D’après la formule des probabilités totales

𝑎𝑛+1 = ℙ(A𝑛+1 ) = ℙ(A𝑛+1 |A𝑛 )P(A𝑛 ) + ℙ(A𝑛+1 |B𝑛 )P(B𝑛 ) + ℙ(A𝑛+1 |C𝑛 )P(C𝑛 )
3 3
= 0 × 𝑎𝑛 + × 𝑏𝑛 + 0 × 𝑐𝑛 = 𝑏𝑛
4 4
𝑏𝑛+1 = ℙ(B𝑛+1 ) = ℙ(B𝑛+1 |A𝑛 )P(A𝑛 ) + ℙ(B𝑛+1 |B𝑛 )P(B𝑛 ) + ℙ(B𝑛+1 |C𝑛 )P(C𝑛 )
3 3
= × 𝑎𝑛 + 0 × 𝑏𝑛 + 1 × 𝑐𝑛 = 𝑎𝑛 + 𝑐𝑛
4 4
𝑐𝑛+1 = ℙ(C𝑛+1 ) = ℙ(C𝑛+1 |A𝑛 )P(A𝑛 ) + ℙ(C𝑛+1 |B𝑛 )P(B𝑛 ) + ℙ(C𝑛+1 |C𝑛 )P(C𝑛 )
1 1 1 1
= × 𝑎𝑛 + × 𝑏𝑛 + 0 × 𝑐𝑛 = 𝑎𝑛 + 𝑏𝑛
4 4 4 4
3
⎛0 4 0⎞
3
2. Il suffit de choisir M = ⎜ 0 1 ⎟.
⎜ 41 1 ⎟
⎝ 4 4 0⎠
3. On trouve
13 3 1 3
P(λ) = −λ3 + X+ = −(λ − 1) (λ + ) (λ + )
16 16 4 4
1 3
On peut donc choisir λ1 = 1, λ2 = − et λ3 = − .
4 4

http://lgarcin.github.io 44
© Laurent Garcin MP Dumont d’Urville

4. On cherche donc une matrice non nulle dans Ker(M − λ𝑘 I3 ) pour chaque 𝑘 ∈ {1, 2, 3}.
3 1
⎛ −1 4 4 ⎞ ⎛ 12 ⎞
3 1
M − λ 1 I1 = M − I 3 = ⎜ −1 ⎟ donc U1 = ⎜ 16 ⎟ ∈ Ker(M − λ1 I3 ).
⎜ 4 4 ⎟ ⎜ ⎟
⎝ 0 1 −1 ⎠ ⎝ 7 ⎠
1 3 1
⎛4 4 4 ⎞ ⎛ 3 ⎞
1 3 1 1
M − λ 2 I3 = M + I3 = ⎜ ⎟ donc U2 = ⎜ −1 ⎟ ∈ Ker(M − λ2 I3 ).
4 ⎜ 4 4 4
1 ⎟ ⎜ ⎟
⎝0 1 4 ⎠ ⎝ −2 ⎠
3 3 1
⎛4 4 4 ⎞ ⎛ 1 ⎞
1 3 3 1
M − λ 2 I3 = M + I3 = ⎜ ⎟ donc U3 = ⎜ −1 ⎟ ∈ Ker(M − λ3 I3 ).
4 ⎜4 4 4
3 ⎟ ⎜ ⎟
⎝0 1 4 ⎠ ⎝ 0 ⎠

5. Soit P la matrice (U1 |U2 |U3 ). Les trois relations MU𝑘 = λ𝑘 U𝑘 pour 𝑘 ∈ {1, 2, 3} peuvent s’écrire matriciellement MP = PD avec la
⎛ λ1 0 0 ⎞
matrice P définie à la question précédente et D = ⎜ 0 λ2 0 ⎟. Puisque det(P) = −70 ≠ 0, P est inversible de sorte que M = PDP−1 .
⎜ ⎟
⎝ 0 0 λ3 ⎠

6. Une récurrence évidente montre que M 𝑛 = PD𝑛 P−1 pour tout 𝑛 ∈ ℕ. Or

𝑛 1 0 0
⎛ λ1 0 0 ⎞ ⎛ 1 𝑛

𝑛 𝑛 ⎜
D = ⎜ 0 λ2 0 ⎟ = 0 (− ) 0 ⎟
⎜ 𝑛
⎟ ⎜ 4
3 𝑛 ⎟
⎝ 0 0 λ3 ⎠ ⎝ 0 0 (− )
4 ⎠

Par pivot de Gauss, on obtient


1 1 1
⎛ 35 35 35 ⎞
1 1 2
P−1 =⎜ − ⎟
⎜ 10 10 5
5 9 6 ⎟
⎝ −
14 14 7 ⎠
de sorte que
12 3 1 𝑛 5 3 𝑛 12 3 1 𝑛 9 3 𝑛 12 6 1 𝑛 6 3 𝑛
⎛ + (− ) + (− ) + (− ) − (− ) − (− ) +
(− ) ⎞
35 10 4 14 4 35 10 4 14 4 35 5 4 4 7
1 𝑛 3 𝑛 1 𝑛 3 𝑛 1 𝑛 3 𝑛
M 𝑛 = ⎜⎜ + (− ) − (− ) ⎟⎟
16 1 5 16 1 9 16 2 6
− (− ) − (− ) − (− ) + (− )
35 10 4 14 4 35 10 4 14 4 35 5 4 7 4
⎜ 1 1 1 𝑛 1 1 1 𝑛 1 4 1 𝑛 ⎟
⎝ − (− ) − (− ) + (− ) ⎠
5 5 4 5 5 4 5 5 4

Puisque X𝑛 = M X0 pour tout 𝑛 ∈ ℕ, on obtient


𝑛

12 3 1 𝑛 5 3 𝑛 12 3 1 𝑛 9 3 𝑛 12 6 1 𝑛 6 3 𝑛
𝑎𝑛 = ( + (− ) + (− ) ) 𝑎0 + ( + (− ) − (− ) ) 𝑏0 + ( − (− ) + (− ) ) 𝑐0
35 10 4 14 4 35 10 4 14 4 35 5 4 7 4
𝑛 𝑛
16 1 1 𝑛
5 3 16 1 1 𝑛
9 3 16 2 1 𝑛 6 3 𝑛
𝑏𝑛 = ( − (− ) − (− ) ) 𝑎0 + ( − (− ) + (− ) ) 𝑏0 + ( + (− ) − (− ) ) 𝑐0
35 10 4 14 4 35 10 4 14 4 35 5 4 7 4
1 1 1 𝑛 1 1 1 𝑛 1 4 1 𝑛
𝑐𝑛 = ( − (− ) ) 𝑎0 + ( − (− ) ) 𝑏0 + ( + (− ) ) 𝑐0
5 5 4 5 5 4 5 5 4

7. Puisque ||− || < 1 et ||− || < 1 et que 𝑎0 + 𝑏0 + 𝑐0 = 1, les suites (𝑎𝑛 ), (𝑏𝑛 ), (𝑐𝑛 ) convergent respectivement vers
1 3 12 16 1
, et .
4 4 35 35 5

Solution 98

1. On a évidemment

𝑝0 = 1 𝑞0 = 0 𝑟0 = 0 𝑝1 = 0 𝑞1 = 1 𝑟1 = 0

http://lgarcin.github.io 45
© Laurent Garcin MP Dumont d’Urville

2. D’après la formule des probabilités totales,

𝑝𝑛+1 = P(X𝑛+1 = 0) = P(X𝑛+1 = 0|X𝑛 = 0)P(X𝑛 = 0) + P(X𝑛+1 = 0|X𝑛 = 1)P(X𝑛 = 1) + P(X𝑛+1 = 0|X𝑛 = 2)P(X𝑛 = 2)
1 1
= 0 × 𝑝𝑛 + × 𝑞𝑛 + 0 × 𝑟𝑛 = 𝑞𝑛
4 4
𝑞𝑛+1 = P(X𝑛+1 = 1) = P(X𝑛+1 = 1|X𝑛 = 0)P(X𝑛 = 0) + P(X𝑛+1 = 1|X𝑛 = 1)P(X𝑛 = 1) + P(X𝑛+1 = 1|X𝑛 = 2)P(X𝑛 = 2)
1 1
= 1 × 𝑝𝑛 + × 𝑞𝑛 + 1 × 𝑟𝑛 = 𝑝𝑛 + 𝑞𝑛 + 𝑟𝑛
2 2
𝑟𝑛+1 = P(X𝑛+1 = 2) = P(X𝑛+1 = 2|X𝑛 = 0)P(X𝑛 = 0) + P(X𝑛+1 = 2|X𝑛 = 1)P(X𝑛 = 1) + P(X𝑛+1 = 2|X𝑛 = 2)P(X𝑛 = 2)
1 1
= 0 × 𝑝𝑛 + × 𝑞𝑛 + 0 × 𝑟𝑛 = 𝑞𝑛
4 4

3. On a alors pour tout 𝑛 ∈ ℕ


1 1 1 1 1 1
𝑞𝑛+2 = 𝑝𝑛+1 + 𝑞𝑛+1 + 𝑟𝑛+1 = 𝑞𝑛 + 𝑞𝑛+1 + 𝑞𝑛 = 𝑞𝑛+1 + 𝑞𝑛
2 4 2 4 2 2

4. L’équation caractéristique liée à la relation de récurrence linéaire 𝑞𝑛+2 − 𝑞𝑛+1 − 𝑞𝑛 = 0 est X2 − X −


1 1 1 1
= 0 dont les racines sont
2 2 2 2
1 1 𝑛
− et 1. Il s’ensuit qu’il existe (λ, μ) ∈ ℝ tel que pour tout 𝑛 ∈ ℕ, 𝑞𝑛 = λ + μ (− ) . Les conditions initiales 𝑞0 = 0 et 𝑞1 = 1
2
2 2
2 2
fournissent λ = et μ = − . Ainsi pour tout 𝑛 ∈ ℕ
3 3

2 1 𝑛
𝑞𝑛 = (1 − (− ) )
3 2
1
Puisque pour tout 𝑛 ∈ ℕ 𝑝𝑛+1 = 𝑟𝑛+1 = 𝑞𝑛 , pour tout 𝑛 ∈ ℕ∗ ,
4

1 1 𝑛−1
𝑝𝑛 = 𝑟𝑛 = (1 − (− ) )
6 2
De plus, on a vu que 𝑝0 = 1 et que 𝑟0 = 0.

5. Puisque ||− || =
1 1 2 1
< 1, lim𝑛→+∞ 𝑞𝑛 = et lim𝑛→+∞ 𝑝𝑛 = lim𝑛→+∞ 𝑟𝑛 = .
2 2 3 6

Couples de variables aléatoires


Solution 99

1. Première méthode :
Soit (𝑘, 𝑙) ∈ J1, 𝑛K2 . Si 𝑘 ≥ 𝑙, P(X = 𝑘, Z = 𝑙) = 0. Par contre, si 𝑘 < 𝑙,
𝑛−2 𝑛−3 𝑛−𝑘 2 𝑛−𝑘−1 𝑛−𝑙+1 1
P(X = 𝑘, Z = 𝑙) = × ×⋯ × × × ⋯× ×
⏟𝑛 𝑛
⏟ −1 𝑛⎵
⏟− 𝑘⎵+
⎵⏟ ⎵⏟2 ⏟𝑛⎵

⎵⏟𝑘⎵+
⎵⏟1 ⏟⎵𝑛⎵⏟
−⎵𝑘
⎵⏟ 𝑛 − 𝑙 + 2 ⏟⎵⏟⎵⏟
⏟⎵⏟⎵⏟ 𝑛−𝑙+1
1er tirage 2e tirage (𝑘 − 1)e tirage 𝑘e tirage (𝑘 + 1)e tirage (𝑙 − 1)e tirage 𝑙e tirage
2
=
𝑛(𝑛 − 1)

Seconde méthode :
L’univers Ω est l’ensemble des permutations des 𝑛 boules de sorte que card Ω = 𝑛!.
Soit (𝑘, 𝑙) ∈ J1, 𝑛K2 . Si 𝑘 ≥ 𝑙, [X = 𝑘] ∩ [Y = 𝑙] est impossible donc P(X = 𝑘, Z = 𝑙) = 0. Supposons maintenant 𝑘 < 𝑙. Se donner
une issue de [X = 𝑘] ∩ [Y = 𝑙] revient à se donner une permutation des 2 boules rouges et une permutation des 𝑛 − 2 boules rouges.
Ainsicard([X = 𝑘] ∩ [Y = 𝑙]) = 2!(𝑛 − 2)!. Finalement
2!(𝑛 − 2)! 2
P(X = 𝑘, Z = 𝑙) = =
𝑛! 𝑛(𝑛 − 1)

http://lgarcin.github.io 46
© Laurent Garcin MP Dumont d’Urville

2. Soit 𝑙 ∈ J1, 𝑛K.


𝑙−1
2(𝑙 − 1)
P(Z = 𝑙) = ∑ P(X = 𝑘, Z = 𝑙) =
𝑘=1
𝑛(𝑛 − 1)

Solution 100

1. La relation est évidente si 𝑎 = 𝑏. Supposons maintenant 𝑎 + 1 ≤ 𝑏. On utilise la relation du triangle de Pascal.


𝑏 𝑛
𝑘 𝑘
∑ ( )=1+ ∑ ( )
𝑘=𝑎
𝑎 𝑘=𝑎+1
𝑎
𝑏
𝑘+1 𝑘 𝑏+1 𝑎+1 𝑏+1
=1+ ∑ ( )−( ) =1+( )−( )=( )
𝑘=𝑎+1
𝑎+1 𝑎+1 𝑎+1 𝑎+1 𝑎+1

2. Si on note Ω l’univers de l’expérience aléatoire, alors card(Ω) = (N 𝑛


).
X est à valeurs dans J𝑛, NK. Soit donc 𝑘 ∈ J𝑛, NK. Choisir 𝑛 boules dont le plus grand numéro est 𝑘 revient à choisir 𝑛 − 1 boules parmi
(𝑘−1)
celles numérotées de 1 à 𝑘 − 1. Ainsi card(X = 𝑘) = (𝑛−1𝑘−1
) puis P(X = 𝑘) = 𝑛−1 .
(N𝑛)
Y est à valeurs dans J1, N − 𝑛 + 1K. Soit donc 𝑘 ∈ J1, N − 𝑛 + 1K. Choisir 𝑛 boules dont le plus petit numéro est 𝑘 revient à choisir
(N−𝑘)
𝑛 − 1 boules parmi celles numérotées de 𝑘 + 1 à N. Ainsi card(Y = 𝑘) = (N−𝑘 ) puis P(Y = 𝑘) = 𝑛−1 .
𝑛−1 (N𝑛)

3. (X, Y) est à valeurs dans {(𝑖, 𝑗) ∈ J1, NK2 , 𝑖 − 𝑗 ≥ 𝑛 − 1}. Soit donc (𝑖, 𝑗) dans cet ensemble.
Choisir 𝑛 boules dont le plus grand numéro est 𝑖 et le plus petit 𝑗 revient à choisir 𝑛 − 2 boules parmi celles numérotées de 𝑗 + 1 à
(𝑖−𝑗−1
𝑛−2 )
𝑖 − 1. Ainsi card([X = 𝑖] ∩ [𝑦 = 𝑗]) = (𝑖−𝑗−1 ) puis P(X = 𝑖, Y = 𝑗) = .
𝑛−2 (N𝑛)
Remarquons que X − Y est à valeurs dans J𝑛 − 1, N − 1K. Soit 𝑘 ∈ J𝑛 − 1, N − 1K. Alors
N−𝑘 N−𝑘 𝑘−1
(N − 𝑘)(𝑛−2 )
P(X − Y = 𝑘) = ∑ P(X − Y = 𝑘, Y = 𝑗) = ∑ P(X = 𝑗 + 𝑘, Y = 𝑗) =
𝑗=1 𝑗=1 (N
𝑛
)

4. Tout d’abord
N
E(X) = ∑ 𝑘P(X = 𝑘)
𝑘=𝑛
N
1 𝑘−1
= N
∑ 𝑘( )
( ) 𝑘=𝑛 𝑛 −1
𝑛
N
𝑛 𝑘
= N
∑ ( )
( ) 𝑘=𝑛 𝑛
𝑛
𝑛(N+1
𝑛+1
)
=
(N
𝑛
)
𝑛(N + 1)
=
𝑛+1

http://lgarcin.github.io 47
© Laurent Garcin MP Dumont d’Urville

Pour le calcul de l’espérance de Y, on peut remarquer que P(Y = 𝑘) = P(X = N + 1 − 𝑘) pour tout 𝑘 ∈ J1, N − 𝑛 + 1K. Ainsi
N−𝑛+1
E(Y) = ∑ 𝑘P(Y = 𝑘)
𝑘=1
N−𝑛+1
= ∑ 𝑘P(X = N + 1 − 𝑘)
𝑘=1
N
= ∑ (N + 1 − 𝑘)P(X = 𝑘)
𝑘=𝑛
N
= (N + 1) ∑ P(X = 𝑘) − E(X)
𝑘=𝑛
𝑛(N + 1) N+1
=N+1− =
𝑛+1 𝑛+1

5. Tout d’abord
N
E(X2 ) = ∑ 𝑘2 P(X = 𝑘)
𝑘=𝑛
N
E(X2 ) = ∑ [𝑘(𝑘 + 1) − 𝑘]P(X = 𝑘)
𝑘=𝑛
N
1 𝑘−1
= N
∑ 𝑘(𝑘 + 1)( ) − E(X)
( ) 𝑘=𝑛 𝑛−1
𝑛
N
𝑛(𝑛 + 1) 𝑘+1 𝑛(N + 1)
= ∑( )−
(N ) 𝑘=𝑛
𝑛+1 𝑛+1
𝑛
N+1
𝑛(𝑛 + 1) 𝑘 𝑛(N + 1)
= ∑ ( )−
(N ) 𝑘=𝑛+1
𝑛+1 𝑛+1
𝑛
𝑛(𝑛 + 1) N + 2 𝑛(N + 1)
= ( )−
N
( ) 𝑛+2 𝑛+1
𝑛
𝑛(N + 1)(N + 2) 𝑛(N + 1)
= −
𝑛+2 𝑛+1
(N𝑛 + 𝑛 + N)(N + 1)𝑛
=
(𝑛 + 1)(𝑛 + 2)
Enfin
2
(N𝑛 + 𝑛 + N)(N + 1)𝑛 𝑛(N + 1) 𝑛(N + 1)(N − 𝑛)
V(X) = E(X2 ) − E(X)2 = −( ) =
(𝑛 + 1)(𝑛 + 2) 𝑛+1 (𝑛 + 2)(𝑛 + 1)2
En remarquant que P(Y = 𝑘) = P(X = N + 1 − 𝑘) pour tout 𝑘 ∈ J1, N − 𝑛 + 1K et que E(Y) = N + 1 − E(X)

V(Y) = E(Y − E(Y)2 )


N−𝑛+1
= ∑ (𝑘 − E(Y))2 P(Y = 𝑘)
𝑘=1
N−𝑛+1
= ∑ (𝑘 − (N + 1) + E(X))2 P(X = N + 1 − 𝑘)
𝑘=1
N
= ∑ (E(X) − 𝑘)2 P(X = 𝑘)
𝑘=𝑛
(N𝑛 + 𝑛 + N)(N + 1)𝑛
= V(X) =
(𝑛 + 1)(𝑛 + 2)

http://lgarcin.github.io 48
© Laurent Garcin MP Dumont d’Urville

6. Tout d’abord
N−1
E((X − Y)2 ) = ∑ 𝑘2 P(X − Y = 𝑘)
𝑘=𝑛−1
N−1 𝑘−1
𝑘2 (N − 𝑘)(𝑛−2 )
= ∑
𝑘=𝑛−1 (N
𝑛
)
N−1 N−1
1 𝑘−1 𝑘−1
= (N ∑ 𝑘2 ( ) − ∑ 𝑘3 ( ))
(N
𝑛
) 𝑘=𝑛−1
𝑛−2 𝑘=𝑛−1
𝑛−2

N−1
Posons S𝑚 = ∑𝑘=𝑛−1 𝑘𝑚 (𝑛−2
𝑘−1
). On trouve successivement

N−1
𝑘−1
S1 = ∑ 𝑘( )
𝑘=𝑛−1
𝑛−2
N−1
𝑘
= (𝑛 − 1) ∑ ( )
𝑘=𝑛−1
𝑛−1
N
= (𝑛 − 1)( )
𝑛

puis
N−1
𝑘−1
S2 = ∑ 𝑘 2 ( )
𝑘=𝑛−1
𝑛 −2
N−1 N−1
𝑘−1 𝑘−1
= ∑ 𝑘(𝑘 + 1)( ) − ∑ 𝑘( )
𝑘=𝑛−1
𝑛 − 2 𝑘=𝑛−1
𝑛 −2
N−1
𝑘+1
= (𝑛 − 1)𝑛 ∑ ( ) − S1
𝑘=𝑛−1
𝑛
N
𝑘 N
= (𝑛 − 1)𝑛 ∑ ( ) − (𝑛 − 1)( )
𝑘=𝑛
𝑛 𝑛
N+1 N
= (𝑛 − 1)𝑛( ) − (𝑛 − 1)( )
𝑛+1 𝑛

et enfin
N−1
𝑘−1
S3 = ∑ 𝑘 3 ( )
𝑘=𝑛−1
𝑛−2
N−1
𝑘−1
= ∑ 𝑘(𝑘 + 1)(𝑘 + 2)( ) − 3S2 − 2S1
𝑘=𝑛−1
𝑛−2
N−1
𝑘+2 N+1 N N
= (𝑛 − 1)𝑛(𝑛 + 1) ∑ ( ) − 3 ((𝑛 − 1)𝑛( ) − (𝑛 − 1)( )) − 2(𝑛 − 1)( )
𝑘=𝑛−1
𝑛+1 𝑛+1 𝑛 𝑛
N+1
𝑘 N+1 N
= (𝑛 − 1)𝑛(𝑛 + 1) ∑ ( ) − 3(𝑛 − 1)𝑛( ) + (𝑛 − 1)( )
𝑘=𝑛+1
𝑛+1 𝑛+1 𝑛
N+2 N+1 N
= (𝑛 − 1)𝑛(𝑛 + 1)( ) − 3(𝑛 − 1)𝑛( ) + (𝑛 − 1)( )
𝑛+2 𝑛+1 𝑛

http://lgarcin.github.io 49
© Laurent Garcin MP Dumont d’Urville

Il vient enfin
1
E((X − Y)2 ) = (NS2 − S3 )
(N
𝑛
)
1 N+1 N N+2 N+1 N
= (N(𝑛 − 1)𝑛( ) − N(𝑛 − 1)( ) − (𝑛 − 1)𝑛(𝑛 + 1)( ) + 3(𝑛 − 1)𝑛( ) − (𝑛 − 1)( ))
(N
𝑛
) 𝑛+1 𝑛 𝑛+2 𝑛+1 𝑛
1 N+1 N N+2
= ((𝑛 − 1)𝑛(N + 3)( ) − (𝑛 − 1)(N + 1)( ) − (𝑛 − 1)𝑛(𝑛 + 1)( ))
(N
𝑛
) 𝑛+1 𝑛 𝑛+2
(𝑛 − 1)𝑛(N + 3)(N + 1) (𝑛 − 1)𝑛(N + 2)(N + 1)
= − (𝑛 − 1)(N + 1) −
𝑛+1 𝑛+2
(𝑛 − 1)(N + 1)(𝑛N + 𝑛 − 2)
=
(𝑛 + 1)(𝑛 + 2)
Finalement

V(X − Y) = E((X − Y)2 ) − E(X − Y)2


(𝑛 − 1)(N + 1)(𝑛N + 𝑛 − 2)
= − (E(X) − E(Y))2
(𝑛 + 1)(𝑛 + 2)
2
(𝑛 − 1)(N + 1)(𝑛N + 𝑛 − 2) 𝑛(N + 1) N + 1
= −( − )
(𝑛 + 1)(𝑛 + 2) 𝑛+1 𝑛+1
2(𝑛 − 1)(N + 1)(N − 𝑛)
=
(𝑛 + 1)2 (𝑛 + 2)
On en déduit que
1
Cov(X, Y) = (V(X) + V(Y) − V(X − Y))
2
1 2(N𝑛 + 𝑛 + N)(N + 1)𝑛 2(𝑛 − 1)(N + 1)(N − 𝑛)
= ( − )
2 (𝑛 + 1)(𝑛 + 2) (𝑛 + 1)2 (𝑛 + 2)
𝑛(𝑛 + 1)(N + 1)(N𝑛 + 𝑛 + N) − (𝑛 − 1)(N + 1)(N − 𝑛)
=
(𝑛 + 1)2 (𝑛 + 2)
(N + 1)(2𝑛 N + 𝑛 N + 2𝑛2 + 𝑛3 + N − 𝑛)
2 3
=
(𝑛 + 1)2 (𝑛 + 2)

Solution 101

Y1 et Y2 sont à valeurs dans F. Soit 𝑦 ∈ F.

P(Y1 = 𝑦) = E(1Y1=𝑦 )
= ∑ δ𝑦,𝑓(𝑥1,𝑥2) P(X1 = 𝑥1 , X2 = 𝑥2 ) par formule de transfert
(𝑥1 ,𝑥2 )∈E2

= ∑ δ𝑦,𝑓(𝑥1,𝑥2) P(X1 = 𝑥1 )P(X2 = 𝑥2 ) par indépendance de (X1 , X2 )


(𝑥1 ,𝑥2 )∈E2

= ∑ δ𝑦,𝑓(𝑥2,𝑥1) P(X1 = 𝑥1 )P(X2 = 𝑥2 )


(𝑥1 ,𝑥2 )∈E2

= ∑ δ𝑦,𝑓(𝑥1,𝑥2) P(X1 = 𝑥2 )P(X2 = 𝑥1 ) car (𝑥1 , 𝑥2 ) ↦ (𝑥2 , 𝑥1 ) est une involution de E 2


(𝑥2 ,𝑥1 )∈E2

= ∑ δ𝑦,𝑓(𝑥1,𝑥2) P(X2 = 𝑥1 , X1 = 𝑥2 ) par indépendance de (X1 , X2 )


(𝑥2 ,𝑥1 )∈E2
= E(1Y2=𝑦 ) par formule de transfert
= P(Y2 = 𝑦)

Ceci prouve que Y1 et Y2 ont même loi.

http://lgarcin.github.io 50
© Laurent Garcin MP Dumont d’Urville

Espérance et variance
Solution 102

1. a. Puisque X est à valeurs dans ℕ, (X = 𝑛)𝑛∈ℕ est us système complet d’événements de sorte que
+∞
GX (1) = ∑ P(X = 𝑛) = 1
𝑛=0

b.
+∞
G′X = ∑ 𝑛P(X = 𝑛)X𝑛−1
𝑛=0
donc
+∞
G′X (1) = ∑ 𝑛P(X = 𝑛) = E(X)
𝑛=0
c.
+∞
G″X = ∑ 𝑛(𝑛 − 1)P(X = 𝑛)X𝑛−2
𝑛=0
donc
+∞ +∞ +∞
G″X (1)+G′X (1)−G′X (1)2 = ∑ 𝑛(𝑛−1)P(X = 𝑛)+ ∑ 𝑛P(X = 𝑛)−E(X)2 = ∑ 𝑛2 P(X = 𝑛)−E(X)2 = E(X2 )−E(X)2 = V(X)
𝑛=0 𝑛=0 𝑛=0

2.
+∞ 𝑛
GX GY = ∑ ( ∑ P(X = 𝑘)P(Y = 𝑛 − 𝑘)) X𝑛
𝑛=0 𝑘=0
+∞ 𝑛
= ∑ ( ∑ P(X = 𝑘, Y = 𝑛 − 𝑘)) X𝑛
𝑛=0 𝑘=0
+∞ 𝑛
= ∑ ( ∑ P(X + Y = 𝑛, X = 𝑘)) X𝑛
𝑛=0 𝑘=0
+∞ +∞
= ∑ ( ∑ P(X + Y = 𝑛, X = 𝑘)) X𝑛
𝑛=0 𝑘=0
+∞
= ∑ P(X + Y = 𝑛)X𝑛
𝑛=0
= GX+Y

3. 𝑛
𝑛
GX = ∑ ( )𝑝𝑘 (1 − 𝑝)𝑛−𝑘 X𝑘 = (𝑝X + 1 − 𝑝)𝑛
𝑘=0
𝑘
On en déduit

G′X = 𝑛𝑝(𝑝X + 1 − 𝑝)𝑛−1 G″X = 𝑛(𝑛 − 1)𝑝2 (𝑝X + 1 − 𝑝)𝑛−2

donc

E(X) = G′X (1) = 𝑛𝑝 V(X) = G″X (1) + G′X (1) − G′X (1)2 = 𝑛(𝑛 − 1)𝑝2 + 𝑛𝑝 − 𝑛2 𝑝2 = 𝑛𝑝 − 𝑛𝑝2 = 𝑛𝑝(1 − 𝑝)

Solution 103

http://lgarcin.github.io 51
© Laurent Garcin MP Dumont d’Urville

1. D’après la formule de transfert


E(Z) = ∑ |𝑖 − 𝑗|P(X = 𝑖, Y = 𝑗)
(𝑖,𝑗)∈J0,𝑛K2

Mais les variables X et Y étant indépendantes,


1
E(Z) = ∑ |𝑖 − 𝑗|P(X = 𝑖)P(Y = 𝑗) = ∑ |𝑖 − 𝑗|
(𝑖,𝑗)∈J0,𝑛K2
(𝑛 + 1)2 (𝑖,𝑗)∈J0,𝑛K2

On peut alors découper la somme double


𝑛
1
E(Z) = ( ∑ |𝑖 − 𝑗| + ∑ |𝑖 − 𝑗| + ∑ |𝑘 − 𝑘|)
(𝑛 + 1)2 0≤𝑖<𝑗≤𝑛 0≤𝑗<𝑖≤𝑛 𝑘=0
2
= ∑ 𝑗−𝑖
(𝑛 + 1)2 0≤𝑖<𝑗≤𝑛

2
= ( ∑ 𝑗 − ∑ 𝑖)
(𝑛 + 1)2 0≤𝑖<𝑗≤𝑛 0≤𝑖<𝑗≤𝑛
𝑛 𝑗−1 𝑛−1 𝑛
2
= ( ∑ ∑ 𝑗 − ∑ ∑ 𝑖)
(𝑛 + 1)2 𝑗=1 𝑖=0 𝑖=0 𝑗=𝑖+1
𝑛 𝑛−1
2
= ( ∑ 𝑗2 − ∑ (𝑛 − 𝑖)𝑖)
(𝑛 + 1)2 𝑗=1 𝑖=0
𝑛 𝑛
2
= ( ∑ 𝑗2 − ∑ (𝑛 − 𝑖)𝑖)
(𝑛 + 1)2 𝑗=0 𝑖=0
𝑛 𝑛
2
= (2 ∑ 𝑘2 − 𝑛 ∑ 𝑘)
(𝑛 + 1)2 𝑘=0 𝑘=0
2 𝑛(𝑛 + 1)(2𝑛 + 1) 𝑛2 (𝑛 + 1)
= 2
( − )
(𝑛 + 1) 3 2
2𝑛 2𝑛 + 1 𝑛
= ( − )
𝑛+1 3 2
𝑛(𝑛 + 2)
=
3(𝑛 + 1)

2. On remarque que
1
T= (X + Y − Z)
2
donc par linéarité de l’espérance

1 1 𝑛(𝑛 + 2) 𝑛(2𝑛 + 1)
E(T) = (E(X) + E(Y) − E(Z)) = (𝑛 − )=
2 2 3(𝑛 + 1) 6(𝑛 + 1)

3. Puisque Z2 = X2 + Y2 − 2XY, on obtient par linéarité de l’espérance

E(Z2 ) = E(X2 ) + E(Y2 ) − 2E(XY)

Mais les variables aléatoires X et Y étant indépendantes, E(XY) = E(X)E(Y). Puisqu’elles sont de même loi

E(Z2 ) = 2E(X2 ) − 2E(X)2 = 2V(X)

Remarque. On peut montrer que


𝑛(𝑛 + 2)
V(X) =
12

http://lgarcin.github.io 52
© Laurent Garcin MP Dumont d’Urville

Solution 104

D’après la formule de transfert,


𝑛
1 1
E( )= ∑ P(X = 𝑘)
X(X + 1) 𝑘=1
𝑘(𝑘 + 1)
𝑛
1 1
= ∑
𝑛 𝑘=1 𝑘(𝑘 + 1)
𝑛
1 1 1
= ∑ −
𝑛 𝑘=1 𝑘 𝑘 + 1
1 1
= (1 − )
𝑛 𝑛+1
Solution 105

D’après la formule de transfert


1
E(Z) = ∑ P(X = 𝑘, Y = 𝑙)
0≤𝑘,𝑙≤𝑛
𝑘 + 𝑙+1
X et Y étant indépendantes

1 1 1 𝑛 𝑛
E(Z) = ∑ P(X = 𝑘)P(Y = 𝑙) = 2𝑛 ∑ ( )( )
0≤𝑘,𝑙≤𝑛
𝑘 + 𝑙 + 1 2 0≤𝑘,𝑙≤𝑛
𝑘 + 𝑙 + 1 𝑘 𝑙

Pour 𝑡 ∈ ℝ, posons
1 𝑛 𝑛
𝑓(𝑡) = ∑ ( )( )𝑡𝑘+𝑙+1
0≤𝑘,𝑙≤𝑛
𝑘 + 𝑙 + 1 𝑘 𝑙
𝑓 est dérivable sur ℝ et pour tout 𝑡 ∈ ℝ
𝑛 2
𝑛 𝑛 𝑛
𝑓′ (𝑡) = ∑ ( )( )𝑡𝑘+𝑙 = ( ∑ ( )𝑡𝑘 ) = (1 + 𝑡)2𝑛
0≤𝑘,𝑙≤𝑛
𝑘 𝑙 𝑘=0
𝑘

Puisque 𝑓(0) = 0, on a donc pour tout 𝑡 ∈ ℝ,


1
𝑓(𝑡) = ((1 + 𝑡)2𝑛+1 − 1)
2𝑛 + 1
On en déduit
𝑓(1) 1 1
E(Z) = = (2 − 2𝑛 )
22𝑛 2𝑛 + 1 2
Solution 106

D’après la formule de transfert


1
E(Z) = ∑ P(X = 𝑘, Y = 𝑙)
0≤𝑘,𝑙≤𝑛
𝑘 + 𝑙+1
X et Y étant indépendantes

1 1 𝑛 𝑛
E(Z) = ∑ P(X = 𝑘)P(Y = 𝑙) = ∑ ( )( )𝑝𝑘+𝑙 (1 − 𝑝)2𝑛−𝑘−𝑙
0≤𝑘,𝑙≤𝑛
𝑘 + 𝑙 + 1 0≤𝑘,𝑙≤𝑛
𝑘 + 𝑙 + 1 𝑘 𝑙

Pour 𝑡 ∈ ℝ, posons
1 𝑛 𝑛
𝑓(𝑡) = ∑ ( )( )𝑝𝑘+𝑙 (1 − 𝑝)2𝑛−𝑘−𝑙 𝑡𝑘+𝑙+1
0≤𝑘,𝑙≤𝑛
𝑘 + 𝑙 + 1 𝑘 𝑙
𝑓 est dérivable sur ℝ et pour tout 𝑡 ∈ ℝ
𝑛 2
𝑛 𝑛 𝑛
𝑓 (𝑡) = ∑ ( )( )𝑝𝑘+𝑙 (1 − 𝑝)2𝑛−𝑘−𝑙 𝑡𝑘+𝑙 = ( ∑ ( )𝑝𝑘 (1 − 𝑝)𝑛−𝑘 𝑡𝑘 ) = (𝑝𝑡 + 1 − 𝑝)2𝑛

0≤𝑘,𝑙≤𝑛
𝑘 𝑙 𝑘=0
𝑘

http://lgarcin.github.io 53
© Laurent Garcin MP Dumont d’Urville

Puisque 𝑓(0) = 0, on a donc pour tout 𝑡 ∈ ℝ,


1
𝑓(𝑡) = ((𝑝𝑡 + 1 − 𝑝)2𝑛+1 − (1 − 𝑝)2𝑛+1 )
(2𝑛 + 1)𝑝

On en déduit
1
E(Z) = 𝑓(1) = (1 − (1 − 𝑝)2𝑛+1 )
(2𝑛 + 1)𝑝
Solution 107

Pour 𝑘 ∈ J1, 𝑛K, notons X𝑘 la variable aléatoire valant 1 si la boule numéro 𝑘 a été tirée lors des 𝑛 tirages et 0 sinon. Chaque X𝑘 suit une loi
𝑛−1 𝑛 𝑛
de Bernoulli de paramètre 1 − ( ) . Puisque X = ∑𝑘=1 X𝑘 , on obtient par linéarité de l’espérance
𝑛

𝑛
𝑛−1 𝑛
E(X) = ∑ E(X𝑘 ) = 𝑛 (1 − ( ) )
𝑘=1
𝑛

𝑛−1 𝑛 1 1
On montre classiquement que lim𝑛→+∞ ( ) = . Ainsi E(X) ∼ 𝑛 (1 − ).
𝑛 𝑒 𝑛→+∞ 𝑒
Solution 108
𝑛
Pour 𝑘 ∈ J1, 𝑛K, on note X𝑘 la variable aléatoire qui à une permutation associe 1 si 𝑘 est un point fixe et 0 sinon. On a donc X = ∑𝑘=1 X𝑘 .
On détermine ensuite la loi de X𝑘 par dénombrement. Le nombre de permutations fixant 𝑘 est (𝑛 − 1)! et comme la probabilité sur S𝑛 est
(𝑛−1)! 1 1 1
uniforme, ℙ(X𝑘 = 1) = = . Ainsi X𝑘 suit une loi de Bernoulli de paramètre de sorte que 𝔼(X𝑘 ) = . Par linéarité de l’espérance,
𝑛! 𝑛 𝑛 𝑛

𝑛
𝔼(X) = ∑ δ(X𝑘 ) = 1
𝑘=1

Pour le calcul de la variance, il faut prendre garde au fait que les variables aléatoires X𝑘 ne sont pas indépendantes. Néanmoins
𝑛 𝑛 𝑛
𝕍(X) = Cov ( ∑ X𝑘 , ∑ X𝑙 ) = ∑ Cov(X𝑘 , X𝑙 ) = ∑ V(X𝑘 ) + ∑ Cov(X𝑘 , X𝑙 )
𝑘=1 𝑙=1 1≤𝑘,𝑙≤𝑛 𝑘=1 1≤𝑘≠𝑙≤𝑛

1 1
Puisque les X𝑘 sont des variables aléatoires de Bernoulli, 𝕍(X𝑘 ) = (1 − ) et pour 𝑘 ≠ 𝑙,
𝑛 𝑛

12
Cov(X𝑘 , X𝑙 ) = 𝔼(X𝑘 X𝑙 ) − 𝔼(X𝑘 )𝔼(X𝑙 ) = ℙ(X𝑘 = 1, X𝑙 = 1) −
𝑛
A nouveau, on calcule ℙ(X𝑘 = 1, X𝑙 = 1) par dénombrement. Le nombre de permutations pour lesquelles 𝑘 et 𝑙 sont fixes est (𝑛 − 2)! donc
(𝑛−2)! 1 1 1 1
ℙ(X𝑘 = 1, X𝑙 = 1) = = . Ainsi Cov(X𝑘 , X𝑙 ) = − 2 = 2 . Finalement,
𝑛! 𝑛(𝑛−1) 𝑛(𝑛−1) 𝑛 𝑛 (𝑛−1)

𝑛
1 1 1 1 1
𝕍(X) = ∑ (1 − ) + ∑ 2 (𝑛 − 1)
= 1 − + 𝑛(𝑛 − 1) 2 =1
𝑘=1
𝑛 𝑛 1≤𝑘≠𝑙≤𝑛
𝑛 𝑛 𝑛 (𝑛 − 1)

car card ({(𝑘, 𝑙) ∈ J1, 𝑛K2 , 𝑘 ≠ 𝑙}) = 𝑛(𝑛 − 1).

Inégalités
Solution 109

Par stricte croissance de 𝑔, les événement |X| ≥ 𝑎 et 𝑔(|X|) ≥ 𝑔(𝑎) sont identiques et ont donc même probabilité. D’après l’inégalité de
E(𝑔(|X|)
Markov, P (𝑔(|X| ≥ 𝑎) ≤ ce qui permet de conclure.
𝑔(𝑎)
Solution 110

Notons F la variable aléatoire qui désigne le nombre de «faces» obtenus avec 𝑛 lancers. Alors F ∼ ℬ(𝑛, 𝑝) avec 𝑝 = 1/2. Donc E(F) = 𝑛𝑝 =

http://lgarcin.github.io 54
© Laurent Garcin MP Dumont d’Urville

𝑛/2 et V(F) = 𝑛𝑝(1 − 𝑝) = 𝑛/4.


Notons X = F/𝑛 la fréquence des «faces» parmi les 𝑛 lancers.

F E(F) 1
E(X) = E ( ) = = ,
𝑛 𝑛 2
F V(F) 1
V(X) = V ( ) = 2 = .
𝑛 𝑛 4𝑛
D’après l’inégalité de Tchebychev, pour tout ε > 0,
V(X)
P(|X − E(X)| > ε) ≤
ε2
Dans notre cas,
1
P(|X − 0, 5| > ϵ) ≤
4𝑛ϵ2
Par passage au contraire cela s’écrit
1
1 − P(|X − 0, 5| ⩽ ϵ) ≤
4𝑛ϵ2
ou encore
1
P(|X − 0, 5| ⩽ ϵ) ≥ 1 −
4𝑛ϵ2
En prenant ε = 0, 05, on a donc
100
P(0, 45 ≤ X ≤ 0, 55) ≥ 1 −
𝑛
En prenant 𝑛 = 1000, on a alors bien
P(0, 45 ≤ X ≤ 0, 55) ≥ 0, 9
Solution 111

1. 1C est une variable aléatoire de Bernoulli donc V(1C ) = P(1C = 1)(1 − P(1C = 1)) = P(C)(1 − P(C)). La fonction 𝑥 ↦ 𝑥(1 − 𝑥)
1 1 1
admet pour maximum sur [0, 1] (atteint en ). Ainsi V(1C ) ≤ .
4 2 4

2. D’après l’inégalité de Cauchy-Schwarz,


1
| Cov(1A , 1B )| ≤ √V(1A )√V(1B ) ≤
4
3. Tout d’abord,
Cov(1A , 1B ) = E(1A 1B ) − E(1A )E(1B ) = E(1A∩B ) − E(1A )E(1B ) = P(A ∩ B) − P(A)P(B)
On en déduit l’inégalité voulue.
1 1 1
Supposons que l’on ait égalité. Alors V(1A ) = V(1B ) = et donc P(A) = P(B) = . Il s’ensuit que P(A ∩ B) = 0 ou P(A ∩ B) = .
4 2 2
1 1
Réciproquement, si P(A) = P(B) = et P(A ∩ B) = 0 ou P(A ∩ B) = , on a bien égalité.
2 2

Remarque. Si le seul événement de probabilité nulle est ∅, on peut montrer que la condition d’égalité équivaut à P(A) = P(B) =
1
2
et A = B ou A = B.

Solution 112

1. Remarquons que pour (A, B) ∈ 𝒜2 ,

𝑑(A, B) = ℙ(A ∪ B) − ℙ(A ∩ B) = ℙ(A) + ℙ(B) − 2ℙ(A ∩ B)

Ainsi pour (A, B, C) ∈ 𝒜3 ,

𝑑(A, B) + 𝑑(B, C) − 𝑑(A, C) = 2 (ℙ(B) − ℙ(A ∩ B) − ℙ(B ∩ C) + ℙ(A ∩ C))


= 2 [(ℙ(B) + ℙ(A ∩ C)) − (ℙ(A ∩ B) + ℙ(B ∩ C))]

http://lgarcin.github.io 55
© Laurent Garcin MP Dumont d’Urville

Par ailleurs,

ℙ(A ∩ B) + ℙ(B ∩ C) = ℙ((A ∩ B) ∩ (B ∩ C)) + ℙ((A ∩ B) ∪ (B ∩ C))


= ℙ(A ∩ B ∩ C) + ℙ(B ∩ (A ∪ C))
≤ ℙ(B) + ℙ(A ∩ C)

car A ∩ B ∩ C ⊂ A ∩ C et B ∩ (A ∪ C) ⊂ B. On en déduit donc que 𝑑(A, B) + 𝑑(B, C) − 𝑑(A, C) ≥ 0 puis l’inégalité demandée.
2. Remarquons que pour A ∈ 𝒜, 𝑑(A, ∅) = ℙ(AΔ∅) = ℙ(A). En prenant C = ∅ dans l’inégalité de la question précédente, on obtient
alors
ℙ(A) ≤ 𝑑(A, B) + ℙ(B)
En échangeant les rôles de A et B, on a également

ℙ(B) ≤ 𝑑(A, B) + ℙ(A)

ce qui permet d’obtenir l’inégalité demandée.

http://lgarcin.github.io 56

Vous aimerez peut-être aussi