Académique Documents
Professionnel Documents
Culture Documents
Dénombrement, probabilités
Dénombrement
Solution 1
Plaçons nous sur une planète donné et notons 𝑝1 , … , 𝑝𝑛 les pays et 𝑣𝑘 le nombre de voisins du pays 𝑝𝑘 . Evidemment 0 ⩽ 𝑣𝑘 ⩽ 𝑛 − 1 pour
tout 𝑘 = 1, … , 𝑛. Supposons par l’absurde que les 𝑣𝑘 sont distincts deux à deux. Alors, quitte à renuméroter les pays, on peut supposer que
Ca devient serré… on a forcément 𝑣1 = 0 et 𝑣𝑛 = 𝑛 − 1. Or c’est une contradiction car la première égalité signifie que 𝑝1 n’a pas de voisin
(c’est une île), tandis que la deuxième égalité dit que tout pays est voisin de 𝑝𝑛 .
Solution 2
1. On a S(𝑛, 𝑛) = 𝑛! puisque dans le cas 𝑛 = 𝑚 les surjections de J1, 𝑛K sur J1, 𝑚K sont des bijections.
Si 𝑛 < 𝑚 alors il n’existe pas de surjection de J1, 𝑛K sur J1, 𝑚K, donc S(𝑛, 𝑚) = 0.
2. Pour mieux cerner de quoi il s’agit il faut revenir à la version ensembliste de la notion d’application. Une application X → Y entre
deux ensembles X et Y est définie à partir de son graphe qui est un sous-ensemble Γ du produit X × Y vérifiant la propriété suivante :
(∗) ∀ 𝑥 ∈ X ∃1 𝑦 ∈ Y ∶ (𝑥, 𝑦) ∈ Γ.
On a S(0, 0) = 1. En effet, on est dans le cas où X = Y = ∅. Alors X × Y = ∅ et le graphe ne peut être que l’ensemble vide ; on parle
alors d’application vide. Comme en plus Y est vide la condition de surjectivité est trivialement satisfaite.
On a S(𝑛, 0) pour 𝑛 ∈ ℕ∗ . En effet, on est dans le cas où X ≠ ∅ et Y = ∅ ; alors la condition (∗) ne peut pas être validée, donc il
n’existe pas d’application X → Y.
Remarquons en passage qu’on a aussi S(0, 𝑚) = 0 pour tout 𝑚 ∈ ℕ∗ , mais pour une autre raison : si X = ∅ et Y ≠ ∅ alors il existe
une application X → Y, à savoir l’application vide, mais elle n’est pas surjective.
3. Soit (𝑛, 𝑚) ∈ ℕ2 . Pour calculer S(𝑛+1, 𝑚) nous devons dénombrer les possibilité de construire une application surjective 𝑓 ∶ J0, 𝑛K →
J1, 𝑚K. Nous distinguons deux cas pour une telle surjection 𝑓.
• 𝑓−1 ({𝑓(0)}) ≠ {0}. Cela siginfie que 0 n’est pas le seul élément que 𝑓 envoye sur 𝑓(0). Ainsi la restriction
est surjective. Il existe S(𝑛, 𝑚) telles surjections ℎ, et il y a 𝑚 choix possibles pour le nombre 𝑓(0). On a alors 𝑚S(𝑛, 𝑚) possibilités
d’obtenir 𝑓.
• 𝑓−1 ({𝑓(0)}) = {0}. Cela siginfie que 𝑓 envoye tous les éléments non-nuls sur un image différente de 𝑓(0). Alors l’application
est bien définie et surjective. Il existe 𝑚 choix possibles pour 𝑓(0), et il existe S(𝑛, 𝑚 − 1) possibilités pour une surjection 𝑔
comme ci-dessus. On a alors 𝑚S(𝑛, 𝑚 − 1) manières différentes d’obtenir 𝑓.
Solution 3
(21 ) 21 × 20 21 × 5 105
1. 21/32, 2
= = = .
(32
2
) 32 × 31 8 × 31 248
http://lgarcin.github.io 1
© Laurent Garcin MP Dumont d’Urville
Solution 4
1. 124 = 20736.
2. A412 = 12 × 11 × 10 × 9 = 11880.
3. 113 × 4 = 5324. 11 × 10 × 9 × 4 = 3960.
4. Chaque fois qu’il y a dans l’énoncé « au moins un » il est conseillé de passer par l’événement contraire qui est « aucun». Le nombe de
codes sans chiffres est 24 = 16, donc le nombre de codes contenant au moins un chiffre est
20736 − 16 = 20720.
Un code à caractères distincts contient forcément au moins un chiffre (car il n’y a que deux lettres). Le nombre de codes à caractères
distincts et contenant au moins un chiffre est donc 11880 (voir la deuxième question).
5. Le nombre de codes à caractères distincts sans lettre est 10 × 9 × 8 × 7 = 5040. Donc le nombre de codes à caractères distincts et
contenant au moins une lettre est
11880 − 5040 = 6840.
Solution 5
1. (32
8
) = 10518300.
2. (83)(24
5
) = 2380224.
3. « Au moins trois piques» signifie que le nombre de piques est dans {3, 4, 5, 6, 7, 8}. Il est alors plus court de passer par le contraire : le
nombre de piques est dans {0, 1, 2}.
Pas de pique : (24
8
) = 735471, un pique : (81)(24
7
) = 2768832. deux piques : (82)(24 6
) = 3768688,
Donc le nombre de mains avec au moins trois piques est
4. Notons X le nombre de rois et Y le nombre de piques dans la main. On cherche le cardinal de {X ⩾ 1} ∩ {Y ⩾ 1}. Encore une fois, le
passage au contraire nous aidera. D’après la formule de Morgan on a
{X ⩾ 1} ∩ {Y ⩾ 1} = {X = 0} ∪ {Y = 0}.
On calcule
28 24 21
|{X = 0} ∪ {Y = 0}| = |{X = 0}| + |{Y = 0}| − |{X = Y = 0}| = ( ) + ( ) − ( ) = 3640086.
8 8 8
Une matrice de ℳ𝑛 (ℝ) est orthogonale si et seulement si la famille de ses vecteurs colonnes est une base orthonormée de ℝ𝑛 . En particulier,
chaque vecteur colonne doit être unitaire. Comme on recherche des matrices à coefficients entiers, chacune des colonnes possède un seul
coefficient non nul égal à ±1. Notons σ(𝑖) la position du seul coefficient non nul de la 𝑖ème colonne. Comme les vecteurs colonnes sont deux
à deux orthogonaux, 𝑖 ≠ 𝑗 ⇒ σ(𝑖) ≠ σ(𝑗). Autrement dit, σ ∈ 𝔖𝑛 . Il y a donc 𝑛! façons de placer les coefficients non nuls dans la matrice.
Comme chacun de ces coefficients peut être égal à±1, on en déduit que le cardinal de 𝒪𝑛 (ℝ) ∩ ℳ𝑛 (ℤ) est 2𝑛 𝑛!.
Solution 7
http://lgarcin.github.io 2
© Laurent Garcin MP Dumont d’Urville
1. Notons E l’ensemble des 𝑘-uplets vérifiant la condition demandée et 𝒫𝑘 l’ensemble des parties à 𝑘 éléments de J1, 𝑛K. Soit ϕ ∶
J1, 𝑛K𝑘 ⟶ 𝒫(J1, 𝑛K)
{ . ϕ induit une bijection de E sur 𝒫𝑘 . On a donc card E = (𝑛𝑘) si 𝑘 ≥ 𝑛 et card E = 0 sinon.
(𝑖1 , … , 𝑖𝑘 ) ⟼ {𝑖1 , … , 𝑖𝑘 }
2. Soit 𝑝 ∈ J1, 𝑘K. On note F l’ensemble des 𝑘-uplets vérifiant la condition demandée et F𝑝 l’ensemble des 𝑘-uplets (𝑖1 , 𝑖2 , … , 𝑖𝑘 ) de F tels
que card (ϕ((𝑖1 , … , 𝑖𝑘 ))) = 𝑝. Pour un tel 𝑘-uplet, dans la sérié d’inégalités 𝑖1 ≤ 𝑖2 ≤ ⋯ ≤ 𝑖𝑘 , 𝑘 − 𝑝 inégalités parmi les 𝑘 − 1 seront en
fait des égalités. Pour définir un élément de F𝑝 , il suffit donc de se donner un élément de 𝒫𝑝 et la place des égalités parmi les inégalités.
𝑘
𝑛 𝑘−1
On en déduit donc que card F𝑝 = (𝑛𝑝)(𝑘−𝑝 𝑘−1
). Les F𝑝 pour 𝑝 ∈ J1, 𝑘K forment une partition de F. Ainsi card F = ∑ ( )( ).
𝑝=1
𝑝 𝑘−𝑝
Soit X un ensemble à 𝑛 + 𝑘 − 1 éléments et A une partie à 𝑛 éléments de X. Notons 𝒳𝑘 l’ensemble des parties à 𝑘 éléments de X et 𝒳𝑘,𝑝
l’ensemble des parties à 𝑘 éléments de X qui comportent 𝑝 éléments dans A. Remarquons que 𝒳𝑘,0 = ∅. Les 𝒳𝑘,𝑝 pour 𝑝 ∈ J1, 𝑘K
forment donc une partition de 𝒳𝑘 . On a évidemment card 𝒳𝑘 = (𝑛+𝑘−1 𝑘
). De plus, card 𝒳𝑘,𝑝 = (𝑛𝑝)(𝑘−𝑝
𝑘−1
) (on choisit 𝑝 éléments dans A
𝑘
𝑛 𝑘−1 𝑛+𝑘−1
et 𝑘 − 𝑝 éléments dans X ⧵ A). On a donc ∑ ( )( )=( ).
𝑝=1
𝑝 𝑘−𝑝 𝑘
Ainsi card F = (𝑛+𝑘−1
𝑘
).
Solution 8
1. Se donner 𝑓 ∈ 𝒮𝑝,𝑛 revient à se donner 𝑓(1) < 𝑓(2) < ⋯ < 𝑓(𝑝) dans J1, 𝑛K, c’est-à-dire une partie à 𝑝 éléments de J1, 𝑛K puisqu’il
n’y a qu’une seule façon de ranger par ordre strictement croissant les éléments d’une partie de J1, 𝑛K. Ainsi card 𝒮𝑝,𝑛 = (𝑛𝑝) si 𝑝 ≥ 𝑛 et
card 𝒮𝑝,𝑛 = 0 sinon.
2. Soient 𝑥 ∈ J1, 𝑝 − 1K. Alors 𝑔(𝑥 + 1) − 𝑔(𝑥) = 𝑓(𝑥 + 1) − 𝑓(𝑥) + 1 > 0 car 𝑓(𝑥 + 1) ≥ 𝑓(𝑥). Ainsi 𝑔 est strictement croissante.
Pour tout 𝑥 ∈ J1, 𝑝K, on a 1 ≤ 𝑥 ≤ 𝑝 et 1 ≤ 𝑓(𝑥) ≤ 𝑛 donc 1 ≤ 𝑓(𝑥) + 𝑥 − 1 ≤ 𝑛 + 𝑝 − 1.
3. Notons ψ l’application qui à une fonction 𝑓 de 𝒮𝑝,𝑛 associe la fonction 𝑔 de 𝒮𝑝,𝑛+𝑝−1 définie comme dans la question précédente.
Montrons que ψ est injective. Soient 𝑓1 , 𝑓2 ∈ 𝒞𝑝,𝑛 telles que ψ(𝑓1 ) = ψ(𝑓2 ). Alors pour tout 𝑥 ∈ J1, 𝑝K, 𝑓1 (𝑥) + 𝑥 − 1 = 𝑓2 (𝑥) + 𝑥 − 1
et donc 𝑓1 (𝑥) = 𝑓2 (𝑥). Ainsi 𝑓1 = 𝑓2 .
Montrons que ψ est surjective. Soit 𝑔 ∈ 𝒮𝑝,𝑛+𝑝−1 . Pour 𝑥 ∈ J1, 𝑝K, posons 𝑓(𝑥) = 𝑔(𝑥) − 𝑥 + 1. On va vérfier que 𝑓 ∈ 𝒞𝑝,𝑛 et ainsi
on aura ψ(𝑓) = 𝑔.
Montrons que 𝑓 est croissante. Soient 𝑥 ∈ J1, 𝑝 − 1K. Alors 𝑓(𝑥 + 1) − 𝑓(𝑥) = 𝑔(𝑥 + 1) − 𝑔(𝑥) − 1. Comme 𝑔 est strictement croissante
à valeurs entières 𝑔(𝑥 + 1) − 𝑔(𝑥) ≥ 1. Donc 𝑓(𝑥 + 1) − 𝑓(𝑥) ≥ 0.
Montrons que 𝑓 est à valeurs dans J1, 𝑛K. On a 𝑓(1) = 𝑔(1) − 1 + 1 = 𝑔(1) ≥ 1 et 𝑓(𝑝) = 𝑔(𝑝) − 𝑝 + 1 ≤ 𝑛 + 𝑝 − 1 − 𝑝 + 1 = 𝑛 car
𝑔 est à valeurs dans J1, 𝑛 + 𝑝 − 1K. Comme 𝑓 est croissante, pour tout 𝑥 ∈ J1, 𝑝K, 1 ≤ 𝑓(1) ≤ 𝑓(𝑥) ≤ 𝑓(𝑝) ≤ 𝑛.
ψ ∶ 𝒞𝑝,𝑛 → 𝒮𝑝,𝑛+𝑝−1 est injective et surjective donc bijective. On en déduit que card 𝒞𝑝,𝑛 = card 𝒮𝑝,𝑛+𝑝−1 .
4. a. Notons E𝑝,𝑛 l’ensemble des 𝑛-uplets recherchés. On définit l’application
E𝑝,𝑛 ⟶ 𝒞𝑝,𝑛
ϕ∶{ J1, 𝑝K ⟶ J1, 𝑛 + 1K
(𝑢1 , … , 𝑢𝑝 ) ⟼ { 𝑥
𝑥 ⟼ 1 + ∑𝑖=1 𝑢𝑖
http://lgarcin.github.io 3
© Laurent Garcin MP Dumont d’Urville
b. Notons F𝑝,𝑛 l’ensemble des éléments recherchés. On remarque que F𝑝,𝑛 = E𝑝,𝑛 ⧵ E𝑝,𝑛−1 . Comme E𝑝,𝑛−1 ⊂ E𝑝,𝑛 , on a card F𝑝,𝑛 =
card E𝑝,𝑛 − card E𝑝,𝑛−1 = (𝑛+𝑝
𝑝
) − (𝑛+𝑝−1
𝑝
) = (𝑛+𝑝−1
𝑝−1
).
Solution 9
1. Notons E1 l’ensemble des couples (X, Y) tels que X ∩ Y = ∅. Le choix d’un tel couple (X, Y) revient au choix de 𝑘 éléments de X
parmi les 𝑛 éléments de E et au choix de 𝑙 éléments de Y parmi les 𝑛 − 𝑘 éléments restants. Ainsi
𝑛
𝑛 𝑛−𝑘 𝑛 − 𝑘
card E1 = ∑ ( ) ∑ ( )
𝑘=0
𝑘 𝑙=0 𝑙
𝑛
𝑛
= ∑ ( )2𝑛−𝑘 = (1 + 2)𝑛 = 3𝑛
𝑘=0
𝑘
2. Notons E2 l’ensemble des couples (X, Y) tels que X ∪ Y = E. Comme X ∪ Y = E équivaut à X ∩ Y = ∅ et que (X, Y) ↦ (X, Y) est
une bijection de 𝒫(E)2 dans lui-même, card E1 = card E2 = 3𝑛 .
3. Notons E3 l’ensemble des couples (X, Y) formant une partition de E. Le choix d’un tel couple (X, Y) revient au choix de 𝑘 éléments
de X parmi les 𝑛 éléments de E et des 𝑛 − 𝑘 éléments restants pour Y. Ainsi
𝑛
𝑛
card E3 = ∑ ( ) = (1 + 1)𝑛 = 2𝑛
𝑘=0
𝑘
4. Notons E4 l’ensemble des triplets (X, Y, Z) tels que X ∪ Y = Z. Le choix d’un triplet (X, Y, Z) de E4 revient au choix de 𝑖 éléments de
Z parmi les 𝑛 éléments de E puis au choix d’un couple (X, Y) tel que X ∪ Y = Z. On a vu qu’il existe 3𝑖 choix possibles pour un tel
couple (X, Y). Ainsi
𝑛
𝑛
card E4 = ∑ ( )3𝑖 = (1 + 3)𝑛 = 4𝑛
𝑖=0
𝑖
On peut même faire plus simple : le choix d’un triplet (X, Y, Z) tel que X ∪ Y = Z revient au choix d’un couple (X, Y) puisqu’une fois
que celui-ci est choisi Z est déterminé de manière unique. Ainsi
card E4 = (card 𝒫(E)) = (2𝑛 )2 = 22𝑛
2
Solution 10
Soit E un ensemble à 2𝑛 éléments et (E1 , E2 ) une partition de E avec card E1 = card E2 = 𝑛. Notons ℰ l’ensemble des parties de E à 𝑛
éléments et, pour 0 ≤ 𝑘 ≤ 𝑛, ℰ𝑘 l’ensemble des parties de E à 𝑛 élémnents possédant eaxctement 𝑘 éléments dans ℰ1 . Il est clair que
(ℰ0 , ℰ1 , … , ℰ𝑛 ) est une partition de ℰ. Se donner un élément de ℰ𝑘 revient à se donner une partie à 𝑘 éléments de E1 et une partie à 𝑛 − 𝑘
2
éléments de E2 . On en déduit que card ℰ𝑘 = (𝑛𝑘)(𝑛−𝑘 𝑛
) = (𝑛𝑘) par symétrie des coefficients binomiaux. On sait que card ℰ = (2𝑛
𝑛
). Comme
𝑛
(ℰ0 , ℰ1 , … , ℰ𝑛 ) est une partition de ℰ, on en déduit que card ℰ = ∑ card ℰ𝑘 puis la formule demandée.
𝑘=0
Solution 11
Comme trois de ces cordes ne sont jamais concourantes, il suffit de dénombrer le nombre de points d’intersection de ces cordes deux à deux.
Notons ℰ l’ensemble des combinaisons de 4 points parmi A1 , … , A𝑛 de 𝒞. Pour E ∈ ℰ, notons 𝒞E l’ensemble des paires de cordes dont les
extrémités sont des points de E. La famille (𝒞E )E∈ℰ est une partition de l’ensemble des paires de cordes d’extrémités A1 , … , A𝑛 . Il suffit
alors de remarquer que si l’on se donne 4 points parmi A1 , … , A𝑛 , parmi les 6 cordes formées 4 points, seules deux d’entre elles se coupent
à l’intérieur du cercle (le quadrilatère non croisé formé par ces 4 points est convexe). Le nombre de points recherché est donc(𝑛4).
Solution 12
Notons 𝑘 = card{𝑥1 , … , 𝑥𝑛 } et {𝑥1 , … , 𝑥𝑛 } = {𝑎1 , … , 𝑎𝑘 } (les 𝑎𝑖 sont sans doublon). Notons enfin A𝑖 = {𝑗 ∈ J1, 𝑛K | 𝑥𝑗 = 𝑎𝑖 } pour 𝑖 ∈ J1, 𝑘K.
𝑘
On a ∑ card A𝑖 = 𝑛. Supposons que moins de 𝑝 nombres parmi 𝑥1 , … , 𝑥𝑛 soient égaux. On a donc card A𝑖 ≤ 𝑝 pour tout 𝑖 ∈ J1, 𝑘K. D’où
𝑖=1
𝑛 ≤ 𝑝𝑘. Or on sait que 𝑛 ≥ 𝑝2 + 1 donc 𝑝𝑘 ≥ 𝑝2 + 1 puis 𝑘 > 𝑝. Ceci signifie qu’il existe au moins 𝑝 + 1 nombres deux à deux distincts
parmi 𝑥1 , … , 𝑥𝑛 .
http://lgarcin.github.io 4
© Laurent Garcin MP Dumont d’Urville
Solution 13
2. Comme E est fini, il admet un plus grand élément. Posons N = max E. Pour 𝑛 ≥ N, ν𝑛 (E) = N et donc δ𝑛 (E) =
N
. On en déduit que
𝑛
δ(E) = 0.
4. Les carrés compris entre 1 sont de la forme 𝑘2 avec 1 ≤ 𝑘2 ≤ 𝑛 i.e. 1 ≤ 𝑘 ≤ √𝑛. On a donc ν𝑛 (C) = ⌊√𝑛⌋. On en déduit l’encadrement
√𝑛−1 √𝑛
< δ𝑛 (C) ≤ . Par encadrement, δ(C) = 0.
𝑛 𝑛
5. On a A ∩ J1, 22𝑛 K = ⋃𝑘=0 K22𝑘 , 22𝑘+1 K. Comme card (K22𝑘 , 22𝑘+1 K) = 22𝑘 ,
𝑛−1
𝑛−1
22𝑛 − 1
ν22𝑛 (A) = ∑ 22𝑘 =
𝑘=0
3
𝑛
On a également A ∩ J1, 22𝑛+1 K = ⋃𝑘=0 K22𝑘 , 22𝑘+1 K. Donc
𝑛
22(𝑛+1) − 1
ν22𝑛+1 (A) = ∑ 22𝑘 =
𝑘=0
3
22𝑛 −1 22𝑛+2 −1
On a donc δ22𝑛 (A) = et δ22𝑛+1 (A) = . On en déduit que les suites (δ22𝑛 (A)) et (δ22𝑛+1 (A)) convergent respectivement
3.22𝑛 3.22𝑛+1
1 2
vers et . Comme ce sont des suites extraites de (δ𝑛 (A)), cette suite ne converge pas. Ainsi A n’a pas de densité.
3 3
6. Remarquons qu’il existe 9𝑘 entiers à 𝑘 chiffres ne comportant pas de zéro dans leur écriture décimale. On en déduit que pour 𝑝 ≥ 1,
𝑝 9𝑝+1 −1
ν10𝑝 = ∑𝑘=1 9𝑘 = . Soit 𝑛 un entier et posons 𝑝 = ⌊log10 𝑛⌋ + 1 de sorte que 𝑛 ≤ 10𝑝 . On a donc
8
http://lgarcin.github.io 5
© Laurent Garcin MP Dumont d’Urville
= 1A + ∑ (−1)𝑘 ∑ 1⋂𝑘 A𝑖
𝑗=1 𝑗
𝑘=1 1≤𝑖1 <𝑖2 <⋯<𝑖𝑘 ≤𝑛
𝑛
Puisque ∏(1A − 1A𝑖 ) = 0, on a :
𝑖=1
1A = ∑ (−1)𝑘−1 ∑ 1⋂𝑘 A𝑖
𝑗=1 𝑗
𝑘=1 1≤𝑖1 <𝑖2 <⋯<𝑖𝑘 ≤𝑛
puis
= ∑ (−1)𝑘−1 ∑ ∑ 1⋂𝑘 A𝑖
(𝑥)
𝑗=1 𝑗
𝑘=1 1≤𝑖1 <𝑖2 <⋯<𝑖𝑘 ≤𝑛 𝑥∈A
Le nombre recherché est le nombre de façons d’ordonner les 𝑛 éléments de l’ensemble autrement dit le nombre de permutations de cet
ensemble, à savoir 𝑛!.
Solution 16
Soient E un ensemble de cardinal 𝑛 + 𝑚, F et G deux parties de cardinaux respectifs 𝑛 et 𝑚 formant une partition de 𝑚.
Soit 𝒜 l’ensemble des parties de E à 𝑟 éléments. Pour 𝑘 ∈ J0, 𝑟K, on note 𝒜𝑘 l’ensemble des parties de E possédant 𝑘 éléments dans F et
𝑟
donc 𝑟 − 𝑘 éléments dans G. Les 𝒜𝑘 pour 𝑘 ∈ J0, 𝑟 forment clairement une partition de 𝒜 de sorte que card 𝒜 = ∑𝑘=0 card 𝒜𝑘 .
D’une part, card 𝒜 = (𝑛+𝑚 𝑟
). D’autre part, choisir un élément de 𝒜𝑘 revient à choisir une partie de F à 𝑘 éléments et une partie de G à 𝑛 − 𝑘
éléments. Il s’ensuit que card 𝒜𝑘 = (𝑛𝑘)(𝑟−𝑘
𝑚
). On obtient bien la formule demandée.
Solution 17
𝑘
Notons 𝑥1 , … , 𝑥𝑛 ces 𝑛 entiers. Pour 𝑘 ∈ J1, 𝑛K, posons S𝑘 = ∑𝑝=1 𝑥𝑘 et notons 𝑟𝑘 le reste de la division euclidienne de S𝑘 par 𝑛. Les 𝑛
entiers 𝑟1 , … , 𝑟𝑛 appartiennent à J0, 𝑛 − 1K.
• S’il existe 𝑘 ∈ J1, 𝑛K tel que 𝑟𝑘 = 0, alors S𝑘 est divisible par 𝑛.
• Sinon les 𝑛 entiers 𝑟1 , … , 𝑟𝑛 appartiennent à J1, 𝑛 − 1K. D’après le principe de Dirichlet, il existe deux entiers 𝑘 et 𝑙 de J1, 𝑛K tels que
𝑙
𝑘 < 𝑙 et 𝑟𝑘 = 𝑟𝑙 . Alors S𝑙 − S𝑘 = ∑𝑝=𝑘+1 𝑥𝑘 est divisible apar 𝑛.
Remarque. On a même prouvé que si on a préalablement ordonné les 𝑛 entiers de manière quelconque, on peut trouver une somme d’entiers
consécutifs (au sens de l’ordre choisi) divisible par 𝑛.
Solution 18
2. a. Notons 𝒟 l’ensemble des couples (𝑝, 𝑞) ∈ ℤ × ℕ∗ tels que |||𝑥 − ||| < 2 . 𝒟 est non vide puisqu’il contient le couple, (⌊𝑥⌋, 1).
𝑝 1
𝑞 𝑞
Supposons que 𝒟 soit fini. Notons 𝑚 = min(𝑝,𝑞)∈𝒟 |||𝑥 − |||. 𝑚 est bien défini car 𝒟 est non vide et fini. De plus, 𝑚 > 0 car 𝑥
𝑝
𝑞
http://lgarcin.github.io 6
© Laurent Garcin MP Dumont d’Urville
1
est irrationnel. Il existe donc 𝑛 ∈ ℕ∗ tel que ≤ 𝑚. D’après la question précédente, il existe un couple (𝑟, 𝑠) ∈ ℤ × ℕ∗ tel que
𝑛
𝑟 1
𝑠 ≤ 𝑛 et ||𝑥 − || < . Puisque 𝑠 ≥ 1,
𝑠 𝑛𝑠
|𝑥 − 𝑟 | < 1 ≤ 1 ≤ 𝑚
| 𝑠 | 𝑛𝑠 𝑛
donc (𝑟, 𝑠) ∉ 𝒟.
De plus, 𝑠 ≤ 𝑛 donc
|𝑥 − 𝑟 | < 1 ≤ 1
| 𝑠 | 𝑛𝑠 𝑠2
donc (𝑟, 𝑠) ∈ 𝒟 d’où une contradiction.
b. Notons ℰ l’ensemble des entiers 𝑝 ∈ ℤ tels qu’il existe 𝑞 ∈ ℕ∗ tel que |||𝑥 − ||| < 2 . Pour 𝑝 ∈ ℰ, notons 𝒟𝑝 l’ensemble des
𝑝 1
𝑞 𝑞
entiers 𝑞 ∈ ℕ∗ tels que |||𝑥 − ||| < 2 . On a 𝒟 = ⋃𝑝∈ℰ {𝑝} × 𝒟𝑝 . Supposons que ℰ soit fini. Puisque 𝒟 est infini, il existe un entier
𝑝 1
𝑞 𝑞
𝑝 ∈ ℰ tel que 𝒟𝑝 soit infini. En particulier, on peut construire une suite strictement croissante (𝑞𝑛 ) d’éléments de 𝒟𝑝 . Puisque
(𝑞𝑛 ) est à valeurs entières, (𝑞𝑛 ) diverge vers +∞. Or pour tout 𝑛 ∈ ℕ, |||𝑥 − ||| < 2 donc, par passage à la limite, |𝑥| ≤ 0 i.e.
𝑝 1
𝑞𝑛 𝑞𝑛
𝑥 = 0, ce qui est absurde car 𝑥 est irrationnel.
Ainsi ℰ est infini.
3. a. Supposons 𝑙 > 0. Alors (𝑢𝑛 ) est minorée par un réel 𝑚 > 0 à partir d’un certain rang. Il existe donc N ∈ ℕ tel que
1
≥𝑚
𝑛 sin 𝑛
1
pour tout 𝑛 ≥ N. Ainsi 0 ≤ sin 𝑛 ≤ pour tout 𝑛 ∈ ℕ et donc la suite (sin 𝑛) converge vers 0 ce qui est classiquement faux.
𝑛𝑚
En considérant la suite (−𝑢𝑛 ), on montre de même qu’on ne peut avoir 𝑙 < 0.
On en conclut que 𝑙 = 0.
b. Comme l’ensemble ℰ est infini, on peut trouver une suite strictement croissante (𝑝𝑛 ) à valeurs dans ℰ. Pour tout 𝑛 ∈ ℕ, il existe
𝑞𝑛 ∈ ℕ∗ tel que |||π − 𝑛 ||| < 2 i.e. |𝑞𝑛 π − 𝑝𝑛 | < . Remarquons en particulier que 𝑞𝑛 π > 𝑝𝑛 − ≤ 𝑝𝑛 − 1. Ainsi (𝑞𝑛 ) diverge
𝑝 1 1 1
𝑞𝑛 𝑞𝑛 𝑞𝑛 𝑞𝑛
𝑝𝑛
également vers +∞ et donc lim𝑛→+∞ = π.
𝑞𝑛
De plus, pour tout 𝑛 ∈ ℕ
1
| sin(𝑝𝑛 )| = | sin(𝑞𝑛 π − 𝑝𝑛 )| ≤ |𝑞𝑛 π − 𝑝𝑛 | <
𝑞𝑛
𝑞𝑛
Ainsi pour tout 𝑛 ∈ ℕ, |𝑢𝑝𝑛 | > . Comme (𝑢𝑝𝑛 ) est une suite extraite de (𝑢𝑛 ), on obtient 0 ≤ π par passage à la limite d’où la
𝑝𝑛
contradiction.
Par conséquent, la suite (𝑢𝑛 ) n’admet pas de limite.
Solution 19
Première solution
Numérotons dans un premier temps les 10 trinômes. Il y a (303
) façons de choisir les élèves du trinôme 1, puis (27
3
) façons de choisir les élèves
du trinôme 2, …et enfin (3) façons de choisir les élèves du trinôme 10. Le nombre de façons de répartir les élèves dans les trinômes 1 à 10
3
est donc
10 10
3 3𝑘! 30!
∏( ) = ∏ = 10
𝑘=1
3𝑘 𝑘=1
3!(3(𝑘 − 1))! (3!)
Mais l’énoncé ne fait pas mention d’un ordre ou d’une numérotation des trinômes : on divise donc le nombre trouvé par 10!. Le nombre
30!
recherché est donc 10
.
(3!) 10!
Seconde solution
On peut répartir les élèves en trinômes en se donnant une liste des élèves dans un ordre quelconque puis en groupant les trois premiers, puis
les trois suivants, …Il existe 30! liste de 30 élèves. Mais une liste étant donnée, une permutation des 3 élèves d’un même groupe ou une
permutation des 10 groupes donne une liste qui fournit la même répartition en trinômes. Il existe donc (3!)10 10! listes fournissant la même
30!
répartition en trinômes. Le nombre recherché est donc à nouveau 10
.
(3!) 10!
Solution 20
http://lgarcin.github.io 7
© Laurent Garcin MP Dumont d’Urville
Pour former une anagramme du mot «DODO», il faut déjà placer les deux «D» : il suffit de choisir deux places parmi les quatre possibles
autrement dit (42) possibilités. Les deux dernières lettres à placer sont forcément des «O» : il n’y a donc pas de choix à effectuer. Il existe donc
6 anagrammes du mot «DODO».
Pour former une anagramme du mot «ANAGRAMME», il faut déjà placer les trois «A» : il suffit de choisir trois places parmi les neuf
possibles autrement dit (93) possibilités. On place ensuite les deux «M» : il suffit de choisir deux places parmi les six restantes autrement dit
(62) possibilités. On place ensuite les quatre lettres «N», «G», «R», «E» aux quatres places restantes : il y a 4! façons de le faire. Il existe en
9!
tout (93)(62)4! = = 30240 anagrammes du mot «ANAGRAMME».
3!2!
Le mot «ANTICONSTITUTIONNELLEMENT» comporte 25 lettres dont 5 «N», 5 «T», 3 «I», 2 «O», 3 «E», 2 «L», toutes les autres
25!
lettres n’apparaissant qu’une fois. Le nombre d’anagrammes du mot «ANTICONSTITUTIONNELLEMENT» est donc =
(5!)2 (3!)2 (2!)2
7480328917501440000.
Solution 21
1. 𝑛𝑚
2. 𝑛!
3. C’est le nombre de 𝑛 − 1-arrangements autrement dit 𝑛!
4. Soit A un ensemble à 𝑛 éléments et B un ensemble à 𝑛 − 1 éléments. Remarquons que si 𝑓 est une surjection de A sur B, un élément
de B aura deux antécédents dans A et les autres un seul.
Se donner une surjection de A sur B, c’est donc se donner la paire d’éléments de A ayant la même image ((𝑛2) possibilité) puis se donner
l’image de cette paire et les images des 𝑛 − 2 éléments restants ((𝑛 − 1)! possibilités). Le nombre de surjection de A sur B est donc
𝑛!(𝑛−1)
(𝑛2)(𝑛 − 1)! = .
2
Solution 22
Notons C1 , … , C𝑘 les classes d’équivalences et 𝑛1 , … , 𝑛𝑘 leurs cardinaux respectifs. Puisque les classes d’équivalence forment une partition
𝑘 𝑘 𝑘
de E, 𝑛 = ∑𝑗=1 𝑛𝑗 . De plus, G = ⋃𝑗=1 C𝑗2 , l’union étant disjointe. Ainsi 𝑝 = ∑𝑗=1 𝑛𝑗2 . D’après l’inégalité de Cauchy-Schwarz
𝑘 2 𝑘 𝑘
𝑛 = ( ∑ 1 × 𝑛𝑗 ) ≤ ( ∑ 12 ) ( ∑ 𝑛𝑗2 ) = 𝑘𝑝
2
Solution 23
1. Notons R la matrice (𝑟𝑖,𝑗 )1≤𝑖,𝑗≤𝑛 . Pour tout (𝑖, 𝑗) ∈ J1, 𝑛K, 𝑎𝑖,𝑗 ≡ 𝑟𝑖,𝑗 [2]. Par compatibilité de la relation de congruence avec la somme
et le produit,
𝑛 𝑛
det(A) = ∑ ε(σ) ∏ 𝑎σ(𝑖),𝑖 ≡ ∑ ε(σ) ∏ 𝑟σ(𝑖),𝑖 [2]
σ∈S𝑛 𝑖=1 σ∈S𝑛 𝑖=1
http://lgarcin.github.io 8
© Laurent Garcin MP Dumont d’Urville
b. Il y a (32) = 3 façons de choisir les deux colonnes possédant un unique 0. Dans ces deux colonnes, les zéros ne peuvent figurer
sur la même ligne sinon les deux colonnes sont égales et le déterminant est nul. Il y a donc 3 × 2 = 6 façons de placer les 0 dans
ces deux colonnes. Il y a enfin 3 façons de placer le 1 restant dans la colonne restante. Les matrices ainsi obtenues sont bien de
|1 1 1|
| |
déterminants impairs puisque par échange de lignes et de colonnes, leurs déterminants sont égaux au signe près à | 0 1 0 | = 1.
| |
|0 0 1|
On en déduit que card(K2 ) = 3 × 6 × 3 = 18 = 54.
c. Les deux ensembles dénombrés dans les deux questions précédentes sont disjoints puisqu’une matrice de Δ possédant une colonne
avec trois coefficients égaux à 1 a forcément une colonne avec plus deux deux coefficients égaux à 0. Ces deux ensembles sont
également de réunion Δ puisqu’une matrice de Δ qui ne contient aucune colonne avec trois coeffiients égaux à 1 a forcément deux
colonnes avec exactement un coefficient égal à 0. Ces deux ensembles forment donc une partition de Δ de sorte que card(Δ) =
K1 + K2 = 72.
d. Finalement, card(Ω) = 72 ⋅ 5! ⋅ 4!.
5. Implicitement, on suppose que la probabilité est uniforme sur ℳ.
card(Ω) 72 ⋅ 5! ⋅ 4! 4
𝑝= = =
card(ℳ) 9! 7
Solution 24
𝑛!
Remarquons qu’un mot ne comportant pas deux fois la même lettre possède au plus 𝑛 lettres. De plus, il y a mots de 𝑘 lettres ne
(𝑛−𝑘)!
comportant pas deux fois la même lettre. Ainsi
𝑛 𝑛 𝑛
𝑛! 𝑛! 1
M𝑛 = ∑ = ∑ = 𝑛! ∑
𝑘=0
(𝑛 − 𝑘)! 𝑘=0
𝑘! 𝑘=0
𝑘!
De plus,
+∞
1
𝑛!𝑒 = 𝑛! ∑
𝑘=0
𝑘!
Pour conclure, il suffit donc de montrer que
+∞
1
0 ≤ 𝑛! ∑ <1
𝑘=𝑛+1
𝑘!
L’inégalité de gauche est évidente. Posons
+∞
1
R𝑛 = ∑
𝑘=𝑛+1
𝑘!
Remarquons que
+∞
1
R𝑛 = ∑
𝑘=0
(𝑛 + 1 + 𝑘)!
et que pour tout entier 𝑘 ≥ 1,
1 1 1
< ⋅
(𝑛 + 1 + 𝑘)! (𝑛 + 1)! (𝑛 + 1)𝑘
1 1
Comme la série géométrique ∑𝑘∈ℕ converge (en effet, 0 ≤ < 1), on peut écrire
(𝑛+1)𝑘 𝑛+1
+∞
1 1 1 1 1
R𝑛 < ∑ = ⋅ 1
=
(𝑛 + 1)! 𝑘=0 (𝑛 + 1)𝑘 (𝑛 + 1)! 1 − 𝑛 ⋅ 𝑛!
𝑛+1
Ainsi
1
𝑛!R𝑛 < ≤1
𝑛
ce qui permet de conclure.
http://lgarcin.github.io 9
© Laurent Garcin MP Dumont d’Urville
Solution 25
a. Se donner un élément de 𝔖𝑛,𝑘 , c’est se donner 𝑘 points fixes dans E𝑛 , autrement dit une partie à 𝑘 éléments de E𝑛 , et une
permutation sans point fixe des 𝑛−𝑘 éléments restants. Comme il y a (𝑛𝑘) parties à 𝑘 éléments de E𝑛 et qu’il y a ω𝑛−𝑘 permutations
sans point fixe d’un ensemble à 𝑛 − 𝑘 éléments, on en déduit S𝑛,𝑘 = (𝑛𝑘)ω𝑛−𝑘 .
b. En utilisant les deux questions précédentes :
𝑛 𝑛 𝑛 𝑛
ω𝑛−𝑘 ω𝑛−𝑘 (𝑘) 1
∑ = ∑ = ∑ S𝑛,𝑘 = 1
𝑘=0
𝑘!(𝑛 − 𝑘)! 𝑘=0
𝑛! 𝑛! 𝑘=0
c. Notons HR(𝑛) l’égalité à démontrer. HR(0) est clairement vraie. Soit 𝑛 ∈ ℕ∗ et supposons HR(𝑘) vraie pour 0 ≤ 𝑘 ≤ 𝑛 − 1. En
utilisant la question précédente
𝑛
ω𝑛 ω𝑛−𝑘
=1− ∑
𝑛! 𝑘=1
𝑘!(𝑛 − 𝑘)!
En utilisant l’hypothèse de récurrence, on a alors :
𝑛 𝑛−𝑘
ω𝑛 1 (−1)𝑝
=1− ∑ ∑
𝑛! 𝑘=1
𝑘! 𝑝=0 𝑝!
Ainsi HR(𝑛) est vraie. Par récurrence forte, HR(𝑛) est vraie pour tout 𝑛 ∈ ℕ.
d. En appliquant l’inégalité de Taylor-Lagrange à la fonction exponentielle sur [−1, 0], on obtient :
𝑛
| −1 (−1)𝑘 | 1 1
|𝑒 − ∑ |≤ sup exp =
| 𝑘=0
𝑘! | (𝑛 + 1)! [−1,0] (𝑛 + 1)!
ω𝑛 1
En passant à la limite, on a donc lim = .
𝑛→+∞ 𝑛! 𝑒
Solution 26
http://lgarcin.github.io 10
© Laurent Garcin MP Dumont d’Urville
(𝑛𝑘)𝑘! 𝑛 𝑛!
= (𝑘 − 1)!( ) =
𝑘 𝑘 𝑘(𝑛 − 𝑘)!
Généralités
Solution 27
4 3 8 4
La probabilité recherchée est × × = .
12 11 10 55
Solution 28
1. Les coordonnées du point M 𝑛 sont (1, 1). Soit 𝑘 ∈ J1, 𝑛 − 1K. Puisque 𝑥1 ≤ 𝑥2 ≤ 𝑥𝑘
𝑘 𝑘
1 1 𝑢 𝑥
𝑣𝑘 = ∑ 𝑝𝑗 𝑥𝑗 ≤ ∑ 𝑝𝑗 𝑥𝑘 = 𝑘 𝑘
E(X) 𝑗=1 E(X) 𝑗=1 E(X)
Puisque 𝑥𝑘 ≤ 𝑥𝑘+1 ≤ 𝑛
1 1 (1 − 𝑢𝑘 )𝑥𝑘
1 − 𝑣𝑘 = ∑ 𝑝𝑥 ≥ ∑ 𝑝𝑥 =
E(X) 𝑗=𝑘+1 𝑗 𝑗 E(X) 𝑗=𝑘+1 𝑗 𝑘 E(X)
On en déduit que
(1 − 𝑢𝑘 )𝑢𝑘 𝑥𝑘
(1 − 𝑢𝑘 )𝑣𝑘 ≤ ≤ 𝑢𝑘 (1 − 𝑣𝑘 )
E(X)
et donc que 𝑣𝑘 ≤ 𝑢𝑘 , ce qui signifie que M 𝑘 est au-dessous de la première bissectrice.
2. a. La courbe de Lorenz est incluse dans le triangle de sommets les points de coordonnées (0, 0), (1, 0) et (0, 1). L’aire de la portion
1
de plan comprise entre la courbe de Lorenz et la première bissectrice est donc inférieure à l’aire de ce triangle qui vaut . On en
2
déduit que I(X) ∈ [0, 1].
b. Puisque la courbe de Lorenz est située sous la première bissectrice, I(X) est le double de la différence entre
• d’une part, l’aire de la portion de plan comprise entre la première bissectrice, l’axe des abscisses et la droite d’équation
𝑥=1
• et d’autre part, l’aire de la portion de plan comprise entre la courbe de Lorenz, l’axe des abscisses et la droite d’équation
𝑥 = 1.
Cette seconde aire est la somme d’aire de trapèzes. On trouve donc
𝑛
I(X) = 1 − ∑ 𝑝𝑘 (𝑣𝑘−1 + 𝑣𝑘 )
𝑘=1
http://lgarcin.github.io 11
© Laurent Garcin MP Dumont d’Urville
=2 ∑ 𝑥𝑗 𝑝𝑖 𝑝𝑗 − 2 ∑ 𝑥𝑖 𝑝𝑖 𝑝𝑗
1≤𝑖≤𝑗≤𝑛 1≤𝑖≤𝑗≤𝑛
𝑛 𝑛 𝑛 𝑗
= 2 ∑ 𝑝𝑖 ∑ 𝑥𝑗 𝑝𝑗 − 2 ∑ 𝑝𝑗 ∑ 𝑥𝑖 𝑝𝑖
𝑖=1 𝑗=𝑖 𝑗=1 𝑖=1
𝑛 𝑖−1 𝑛 𝑗
= 2 ∑ 𝑝𝑖 (E(X) − ∑ 𝑥𝑗 𝑝𝑗 ) − 2 ∑ 𝑝𝑗 ∑ 𝑥𝑖 𝑝𝑖
𝑖=1 𝑗=1 𝑗=1 𝑖=1
𝑛 𝑛
= 2 ∑ 𝑝𝑖 (E(X) − E(X)𝑣𝑖−1 ) − 2 ∑ 𝑝𝑗 E(X)𝑣𝑗
𝑖=1 𝑗=1
𝑛 𝑛 𝑛
= 2 ∑ 𝑝𝑘 E(X) − 2 ∑ E(X)𝑝𝑘 𝑣𝑘−1 − 2 ∑ E(X)𝑝𝑘 𝑣𝑘
𝑘=1 𝑘=1 𝑘=1
𝑛
= 2E(X) (1 − ∑ 𝑝𝑘 (𝑣𝑘−1 + 𝑣𝑘 )) = 2E(X)I(X)
𝑘=1
E(|X1 − X2 |)
Par conséquent, I(X) = .
2E(X)
Solution 29
1. Pas de difficultés.
2. P(E) = 18/36, P(F) = 11/36, P(G) = 4/36, P(E ∩ F) = 6/36, P(F ∩ G) = 2/36, P(E ∪ F) = 1 − P(E ∪ F) = 1 − 13/36 = 23/36.
3. P(F ∪ G) = 13/36, P(E ∪ F) = 1 − 6/36 = 30/36, P(F ∩ G) = 1 − 13/36 = 23/36.
Solution 30
Notons 𝑛 le nombre de billets achetés et pn la probabilité d’avoir au moins un billet gagnant parmi eux. (En particulier 𝑝0 = 0, 𝑝999 =
𝑝1000 = 1 et (𝑝𝑛 )𝑛∈J0,100K est une suite croissante.) Par l’habituel passage au contraire on a
(998
𝑛
)
1 − 𝑝𝑛 =
(1000
𝑛
)
998! 𝑛!(1000 − 𝑛)!
= ×
𝑛!(998 − 𝑛)! 1000!
(1000 − 𝑛)(999 − 𝑛)
= .
1000 × 999
Ainsi on trouve que
1 (1000 − 𝑛)(999 − 𝑛) 1
𝑝𝑛 ⩾ ⟺ ⩽
2 1000 × 999 2
⟺ 𝑛2 − 1999𝑛 + 1000 × 999 ⩽ 500 × 900
⟺ 𝑛2 − 1999𝑛 + 500 × 999 ⩽ 0.
Ce trinôme est négatif entre ses deux racines qu’on obtient par un calcul de discriminant : l’une est proche de 292.75 et l’autre supérieure à
1000. Donc il faut acheter au moins 293 billets.
http://lgarcin.github.io 12
© Laurent Garcin MP Dumont d’Urville
Solution 31
9=1+2+6=1+3+5=1+4+4
= 2 + 3 + 4 = 2 + 2 + 5 = 3 + 3 + 3,
10 = 1 + 3 + 6 = 1 + 4 + 5 = 2 + 4 + 4
= 2 + 5 + 3 = 2 + 2 + 6 = 3 + 3 + 4.
Mais elles n’ont pas toutes la même probabilité. En fait lancer trois dés revient à lancer un dé trois fois, en tenant compte de l’ordre. Donc
une somme avec tous chiffres égaux, comme 3 + 3 + 3, a probabilité 1/216, tandis qu’une somme avec exactement deux chiffres égaux a
probabilité 3/216 et, enfin, une somme de trois chiffres distincts a probabilité 6/216. Ainsi on trouve
6+6+3+6+3+1 25
P(9) = = ,
216 216
6+6+3+6+3+3 27
P(10) = = .
216 216
La différence est tellement faible que le prince de Toscane l’a certainemnt pas trouvée empiriquement mais par le calcul !
Solution 32
5 4
Notons A1 et A2 les évènements considérés (dans l’ordre de l’énoncé). On trouve facilement : P(A1 ) = 1 − ( ) ≃ 0.52 > P(A2 ) =
6
35 24
1 − ( ) ≃ 0.49.
36
Solution 33
5 10 25
1. On vérifie facilement que la probabilité d’avoir exactement un 6 vaut + = .
72 36 72
5 3 5 3 91
2. La probabilité de n’avoir aucun 6 vaut ( ) , donc celle d’obtenir au moins un 6 vaut 1 − ( ) = .
6 6 216
3. Pour tout 1 ≤ 𝑖 ≤ 6, notons A𝑖 l’évènement « on obtient au moins deux fois le numéro 𝑖». Ces évènements étant disjoints et équi-
6
probables, la probabilité cherchée est clairement : 𝑝 = ∑ P(A𝑖 ) = 6P(A6 ). Or d’après les questions précédentes, on déduit que
𝑖=1
91 25 91 − 75 16 2
P(A6 ) = − = = = . On en conclut que la probabilité d’obtenir au moins deux faces identiques vaut :
216 72 216 216 27
2 4
𝑝=6× = .
27 9
Solution 34
𝑛−1
𝑖
On obtient facilement que la probabilité que tous les élèves de la classe soient nés à des dates différentes est ∏(1 − ). Il s’ensuit que la
𝑖=1
365
probabilité cherchée est :
𝑛−1
𝑖
𝑝𝑛 = 1 − ∏(1 − ).
𝑖=1
365
Application numérique : on trouve 𝑝22 ≃ 0.476, 𝑝23 ≃ 0.507. La probabilité dépasse 0.5 à partir de 23 élèves. Par ailleurs on trouve
𝑝50 ≃ 0.970.
Solution 35
2
1. a. .
9
http://lgarcin.github.io 13
© Laurent Garcin MP Dumont d’Urville
4
b. .
9
(25)(10 ) 10 × 120
2. 3
= =≃ 0.4.
(15
5
) 3003
Solution 36
5 𝑛
1 − ( ) ⩾ 0.9
6
ou encore
5 𝑛
( ) ⩽ 0.1
6
On trouve (soit en essayant différentes valeurs avec la calculatrice, soit avec le logarithme) que 𝑛 = 13.
2. La probabilité d’obtenir au moins deux six est
5 𝑛 𝑛 5 𝑛−1
1−( ) − ( ) .
6 6 6
On doit résoudre l’inégalité
5 𝑛 𝑛 5 𝑛−1
( ) + ( ) ⩽ 0.1
6 6 6
ou encore
5 𝑛 𝑛
( ) (1 + ) ⩽ 0.1
6 5
On ne peut pas isoler 𝑛 qui figure à l’exposant et « en bas». Soit on essaye avec la calculatrice, soit on trace la courbe de la fonction
5 𝑥 𝑥
𝑥 ↦ ( ) (1 + ) grâce à un logiciel, puis on regarde où sa courbe passe en-dessous de la droite 𝑦 = 0.1 et on obtient 𝑛 = 22.
6 5
Solution 37
(83) 8×7×6 7 7
1. = = =
(32
3
) 32 × 31 × 30 4 × 31 × 5 620
(43) 4×3×2 1 1
2. = = =
(32
3
) 32 × 31 × 30 8 × 31 × 5 1240
(82)(81) 8×7×8×3 7 7
3. = = =
(32
3
) 32 × 31 × 30 31 × 5 155
Solution 38
1 3×2×1 34
1. 1 − =1− =
(37) 7×6×5 35
http://lgarcin.github.io 14
© Laurent Garcin MP Dumont d’Urville
3. Notons X le nombre de boules blanches tirées. Alors X suit une loi binomiale, plus précisément X ∼ B (3, ). On en déduit :
4
7
1. Il y a 5! arrangements possibles, dont 2! donnent BETTY. La probabilité est donc 2!/5! = 1/60.
2. Il y a 8! arrangements possibles, dont 3!2 donnent COCORICO. La probabilité est donc
3!2 1 1 1
= = = .
8! 8×7×5×4 56 × 20 1120
Solution 40
Notons G𝑘 l’événement « le 𝑘-ième malade guérit», 𝑘 = 1, 2, 3. Ces trois événements étant indépendants on a :
Solution 41
Notons 𝑛 le nombre de billets achetés et pn la probabilité d’avoir au moins un billet gagnant parmi eux. (En particulier 𝑝0 = 0, 𝑝999 =
𝑝1000 = 1 et (𝑝𝑛 )𝑛∈J0,100K est une suite croissante.) Par l’habituel passage au contraire on a
(998
𝑛
)
1 − 𝑝𝑛 =
(1000
𝑛
)
998! 𝑛!(1000 − 𝑛)!
= ×
𝑛!(998 − 𝑛)! 1000!
(1000 − 𝑛)(999 − 𝑛)
= .
1000 × 999
Ainsi on trouve que
1 (1000 − 𝑛)(999 − 𝑛) 1
𝑝𝑛 ⩾ ⟺ ⩽
2 1000 × 999 2
2
⟺ 𝑛 − 1999𝑛 + 1000 × 999 ⩽ 500 × 900
⟺ 𝑛2 − 1999𝑛 + 500 × 999 ⩽ 0.
Ce trinôme est négatif entre ses deux racines qu’on obtient par un calcul de discriminant : l’une est proche de 292.75 et l’autre supérieure à
1000. Donc il faut acheter au moins 293 billets.
http://lgarcin.github.io 15
© Laurent Garcin MP Dumont d’Urville
Indépendance
Solution 42
L’événement A est l’événement contraire de l’événement «la famille n’a que des enfants de même sexe», ce dernier événement étant l’union
disjointe des événements «la famille a 𝑛 garçons» et «la famille a 𝑛 filles». On en déduit que
1
P(A) = 1 − 2 × = 1 − 21−𝑛
2𝑛
L’événement B est la réunion disjointe des événements «la famille n’a aucune fille» et «la famille a exactement une fille». On en déduit que
1 𝑛 1
P(B) = + ( ) 𝑛 = (𝑛 + 1)2−𝑛
2𝑛 1 2
𝑛 1
P(A ∩ B) = ( ) 𝑛 = 𝑛2−𝑛
1 2
Les événements A et B sont indépendants si et seulement si P(A ∩ B) = P(A)P(B) autrement dit si et seulement si
On note A =«b+r=7», B = «b=4» et C = «|𝑏 − 𝑟| est pair». On vérifie facilement que A et B sont indépendants, B et C aussi, mais pas A et
C car A ∩ C = ∅ donc P(A ∩ C) = 0 ≠ P(A)P(C).
Solution 44
1 1
On vérifie sans problème que P(A) = P(B) = P(C) = et que P(A ∩ B) = P(A ∩ C) = P(B ∩ C) = , donc A, B et C sont deux à deux
2 4
indépendants.
1
En revanche, P(A ∩ B ∩ C) = P(B ∩ C) = ≠ P(A)P(B)P(C), donc A, B et C ne sont pas mutuellement indépendants.
4
Solution 45
1. P(A ∩ (B ∪ C)) = P(A ∩ B) + P(A ∩ C) − P(A ∩ B ∩ C) = P(A)(P(B) + P(C) − P(B ∩ C)) = P(A)P(B ∪ C).
http://lgarcin.github.io 16
© Laurent Garcin MP Dumont d’Urville
Solution 47
Notons A𝑛,𝑗 l’évènement « l’erreur numéro 𝑗 n’est pas corrigée à l’issue de la n-ième lecture », pour tout 1 ≤ 𝑗 ≤ 4.
1. A chaque lecture, il y a une probabilité 2/3 que l’erreur numéro 1 ne soit pas corrigée, et comme les relectures sont indépendantes, on
obtient P(A𝑛,1 ) = (2/3)𝑛 .
4 4
2. On cherche P(B𝑛 ) où B𝑛 = A𝑛,𝑗 . Puisque les évènements (A𝑛,𝑗 )1≤𝑗≤4 sont mutuellement indépendants, on a P(B𝑛 ) = ∏ P(A𝑛,𝑗 ).
⋂
𝑗=1 𝑗=1
Or pour chaque 𝑗, on a P(A𝑛,𝑗 ) = P(A𝑛,1 ) = 1 − (2/3)𝑛 . Ainsi P(B𝑛 ) = (1 − (2/3)𝑛 )4 . On en déduit :
Probabilités conditionnelles
Solution 48
10
10 1 𝑘 2 10−𝑘 10 × 9 × 8 × 23 10 × 9 × 22
P(X ⩾ 7) = ∑ ( ) ( ) ( ) = 3−10 ( + + 10 × 2 + 1)
𝑘=7
𝑘 3 3 1×2×3 1×2
1161 43
= 10 = 7 ≈ 0.02.
3 3
Solution 49
Notons S l’état d’ébriété et T le résultat positif du test. On a P(T|S) = 0.95 et P(T|S) = 0.96. On calcule la probabilité recherchée avec le
formule de Bayes.
P(T|S) P(S)
P(S|T) =
P(T|S) P(S) + P(T|S) P(S)
0.95 × 0.02
= ≈ 0.33
0.95 × 0.02 + 0.04 × 0.98
Alternative : On trouve le même résultat avec un tableau à double-entrée.
S S
T
T
0.02 0.98 1
http://lgarcin.github.io 17
© Laurent Garcin MP Dumont d’Urville
S S
T 0.95 × 0.02 0.04 × 0.98
T 0.05 × 0.02 0.96 × 0.98
0.02 0.98 1
On trouve
P(S ∩ T)
P(S|T) =
P(T)
0.95 × 0.02
= ≈ 0.33
0.95 × 0.02 + 0.04 × 0.98
Cela démystifie le formule de Bayes…
Solution 50
Notons M l’évènement «être Malade» et T l’événement « le test est positif». On sait que P(M) = 0.005, P(T|M) = 0.9, P(T|M) = 0.85.
On cherche ici P(M|T). Pour cela on applique la formule de Bayes :
P(T|M)P(M)
P(M|T) =
P(T|M)P(M) + P(T|M)P(M)
0.9 × 0.005
= = 0.029.
0.9 × 0.005 + 0.15 × 0.995
Solution 51
Soit A l’évènement « il pleut» et B l’évènement « le baromètre prédit la pluie». On sait que P(A) = 0.4, P(A) = 0.6, P(B|A) = 0.1 et
P(B|A) = 0.2. On obtient avec la formule de Bayes
P(B|A)P(A) 0.9 × 0.4
P(A|B) = = = 0.75
P(B|A)P(A) + P(B|A)P(A) 0.9 × 0.4 + 0.2 × 0.6
P(B|A)P(A) 0.1 × 0.4 1
P(A|B) = = = ≈ 0.077.
P(B|A)P(A) + P(B|A)P(A) 0.1 × 0.4 + 0.8 × 0.6 13
Solution 52
2. On trouve
P(A ∩ S) P (S)P(A)
PS (A) = = A
P(S) P(S)
0.0075
= ≈ 0.545
0.01375
Même si le transporteur A peut se vanter d’être plus fiable que ses concurrents, la probabilité qu’on vient de calculer est très élévée.
Cela s’explique par le fait que A transporte beaucoup plus de colies que les autres.
Solution 53
Au total il y a 63 résultats équiprobables lorsqu’on lance trois dés. Parmi eux 6 × 5 × 4 sont à chiffres distincts. Parmi ces derniers 3 × (5 × 4)
contiennent un 1. Ainsi la probabilité recherchée est
3×5×4 1
= .
6×5×4 2
http://lgarcin.github.io 18
© Laurent Garcin MP Dumont d’Urville
Solution 54
On note ER l’événement «la face exposée est rouge» et CB l’événement «la face cachée est blanche». On note RR l’événement «la carte tirée
est celle aux deux faces rouges», BB l’événement «la carte tirée est celle aux deux faces blanches» et RB l’événement «la carte tirée est celle
aux faces rouge et blanche».
P(CB∩ER)
On cherche à calculer P(CB|ER). Par définition, P(CB|ER) = .
P(ER)
Tout d’abord
1 1 1 1 1
P(ER) = P(ER|RR)P(RR) + P(ER|BB)P(BB) + P(ER|RB)P(ER) = 1 × +0× + × =
3 3 2 3 2
De même
1 1 1 1 1
P(CB ∩ ER) = P(CB ∩ ER|RR)P(RR) + P(CB ∩ ER|BB)P(BB) + P(CB ∩ ER|RB)P(ER) = 0 × +0× + × =
3 3 2 3 6
Ainsi la probabilité recherchée est
1
6 1
P(CB|ER) = 1
=
3
2
Solution 56
On notera :
• A l’événement le «composant provient de la chaîne A» ;
• B l’événement le «composant provient de la chaîne B» ;
• D l’événement le «composant est défectueux».
1. On cherche P(D). D’après la formule des probabilités totales
2 30 4 20 7
P(D) = P(D|A)P(A) + P(D|B)P(B) = × + × = = 0, 028
100 50 100 50 250
Autrement dit le composant est défectueux avec un probabilité de 2, 8%.
2. On cherche P(B|D). D’après la formule de Bayes
4 20
P(D|B)P(B) × 4
100 50
P(B|D) = = 7
=
P(D) 7
250
Autrement dit, si le composant est défectueux, il y 4 chances sur 7 qu’il provienne de la chaîne B.
http://lgarcin.github.io 19
© Laurent Garcin MP Dumont d’Urville
Solution 57
Pour 𝑘 ∈ J1, 7K, on note E𝑘 l’événement «le parapluie se trouve au 𝑘ème étage. On note A l’événement «le parapluie ne se trouve pas dans
l’immeuble». On cherche à calculer P (E7 | ∩6𝑘=1 E𝑘 ).
Or ∩6𝑘=1 E𝑘 = E7 ∪ A. Finalement la probabilité recherchée est également, P (E7 |E7 ∪ A). Par définition
P (E7 ∩ (E7 ∪ A))
P (E7 |E7 ∪ A) =
P(E7 ∪ A)
P(E7 )
Or E7 ∩ (E7 ∪ A) = E7 car les événements E7 et A sont incompatibles. Ainsi la probabilité recherchée est . Puisque les événements
P(E7 ∪ A)
E7 et A sont incompatibles,
𝑝 6𝑝
P(E7 ∪ A) = P(E7 ) + P(A) = +1−𝑝=1−
7 7
La probabilité recherchée est donc
𝑝
7 𝑝
6𝑝
=
1− 7 − 6𝑝
7
Solution 58
On notera U𝑘 l’événement «l’urne choisie est l’urne numéro 𝑘» et B l’événement la boule tirée est blanche.
1. On recherche donc P(B). D’après la formule des probabilités totales,
𝑛 𝑛 𝑛
𝑘 1 1 𝑛+1
P(B) = ∑ P(B|U𝑘 )P(U𝑘 ) = ∑ × = 2 ∑𝑘=
𝑘=1 𝑘=1
𝑛 𝑛 𝑛 𝑘=1
2𝑛
Solution 59
On notera A𝑛 l’événement «le buveur ne boit pas le 𝑛ème jour. L’énoncé signifie que P(A𝑛+1 |A𝑛 ) = 0, 4 et P(A𝑛+1 |A𝑛 ) = 0, 8 pour tout
𝑛 ∈ ℕ∗ . On suppose de plus que le buveur ne boit pas le premier jour, autrement dit P(A1 ) = 1.
1. Pour simplifier, posons 𝑝𝑛 = P(A𝑛 ). D’après la formule des probabilités totales, pour tout 𝑛 ∈ ℕ∗
𝑝𝑛+1 = P(A𝑛+1 ) = P(A𝑛+1 |A𝑛 )P(A𝑛 ) + P(A𝑛+1 |A𝑛 )P(A𝑛 ) = 0, 4𝑝𝑛 + 0, 8(1 − 𝑝𝑛 ) = 0, 8 − 0, 4𝑝𝑛
2. La suite (𝑝𝑛 ) est arithmético-géométrique. On introduit l’unique solution 𝑝 de l’équation 𝑥 = 0, 8 − 0, 4𝑥 autrement dit 𝑝 = . Pour
4
7
tout 𝑛 ∈ ℕ∗
𝑝𝑛+1 − 𝑝 = (0, 8 − 0, 4𝑝𝑛 ) − (0, 8 − 0, 4𝑝) = −0, 4(𝑝𝑛 − 𝑝)
Une récurrence évidente montre que pour tout 𝑛 ∈ ℕ∗
Autrement dit
2 2 𝑛−1 5
𝑝𝑛 = + (− )
7 5 7
Solution 60
On note E l’événement «l’étudiant a préparé l’examen», X le nombre de bonnes réponses obtenues par l’étudiant et R l’événement «l’étudiant
a réussi l’examen».
http://lgarcin.github.io 20
© Laurent Garcin MP Dumont d’Urville
1. La variable X conditionnée par l’événement E suit une loi binomiale de paramètre 0, 8. Ainsi
15
15 30388191232
P(R|E) = P(X ≥ 8|E) = ∑ ( )(0, 8)𝑘 (0, 2)15−𝑘 = ≈ 0, 996
𝑘=8
𝑘 30517578125
1
La variable X conditionnée par l’événement E suit une loi binomiale de paramètre . Ainsi
3
15
15 1 𝑘 2 15−𝑘 422009
P(R|E) = P(X ≥ 8|E) = ∑ ( ) ( ) ( ) = ≈ 0, 088
𝑘=8
𝑘 3 3 4782969
http://lgarcin.github.io 21
© Laurent Garcin MP Dumont d’Urville
d. A la seconde génération, la nouvelle valeur du paramètre θ est 𝑞1 + 2 = θ2 + θ(1 − θ) = θ. Autrement dit, θ reste inchangé au
𝑞
2
cours des générations. Les proportions des divers génotypes restent donc constantes au cours des générations.
2. a. Pour 𝑗 ∈ {1, 2, 3}, la loi de N𝑗 est la loi binomiale ℬ(𝑛, 𝑞𝑗 ). On a donc E(N𝑗 ) = 𝑛𝑞𝑗 et V(N𝑗 ) = 𝑛𝑞𝑗 (1 − 𝑞𝑗 ).
b.
1
Cov(N1 , N2 ) = (V(N1 + N2 ) − V(N1 ) − V(N3 ))
2
1
= (V(𝑛 − N3 ) − V(N1 ) − V(N2 ))
2
1
= (V(N3 ) − V(N1 ) − V(N2 ))
2
𝑛
= (𝑞3 (1 − 𝑞3 ) − 𝑞1 (1 − 𝑞1 ) − 𝑞2 (1 − 𝑞2 ))
2
Or on sait que 𝑞3 = 1 − 𝑞1 − 𝑞2 ce qui permet d’obtenir
Cov(N1 , N2 ) = −𝑛𝑞1 𝑞2
c. Par linéarité
1 1 𝑞
E(θ𝑛 ) = E(N1 ) + E(N2 ) = 𝑞1 + 2 = θ2 + θ(1 − θ) = θ
𝑛 2𝑛 2
d.
1 1
V(θ𝑛 ) = (V(N1 ) + V(N2 ) + Cov(N1 , N2 ))
𝑛2 4
1 1
= (𝑞1 (1 − 𝑞1 ) + 𝑞2 (1 − 𝑞2 ) − 𝑞1 𝑞2 )
𝑛 4
1 2 1
= (θ (1 − θ ) + θ(1 − θ)(1 − 2θ(1 − θ)) − 2θ3 (1 − θ))
2
𝑛 2
θ(1 − θ)
=
2𝑛
Ainsi lim𝑛→+∞ V(θ𝑛 ) = 0.
Solution 62
3. F est clairement à valeurs dans J0, 𝑛K. Soit donc 𝑘 ∈ J0, 𝑛K. D’après la formule des probabilités totales,
𝑛
P(F = 𝑘) = ∑ P(F = 𝑘|S = 𝑠)P(S = 𝑠)
𝑠=0
Il est clair que P(F = 𝑘|S = 𝑠) = 0 pour 𝑠 < 𝑘 donc
𝑛
P(F = 𝑘) = ∑ P(F = 𝑘|S = 𝑠)P(S = 𝑠)
𝑠=𝑘
𝑛
1 𝑠 𝑠 1 𝑠 5 𝑛−𝑠 𝑛
= ∑ ( ) ( )( ) ( ) ( )
𝑠=𝑘
2 𝑘 6 6 𝑠
𝑛
5𝑛−𝑠 𝑠 𝑛
=∑ ( )( )
𝑠=𝑘
2𝑠 6𝑛 𝑘 𝑠
𝑛
5𝑛−𝑠 𝑛 𝑛 − 𝑘
=∑ ( )( )
𝑠=𝑘
2𝑠 6𝑛 𝑘 𝑠 − 𝑘
𝑛 𝑛−𝑘 5𝑛−𝑠−𝑘 𝑛 − 𝑘
= ( ) ∑ 𝑠+𝑘 𝑛 ( )
𝑘 𝑠=0 2 6 𝑠
𝑛 5𝑛 𝑛−𝑘 1 𝑛 − 𝑘
= ( ) 𝑘 𝑛 ∑ 𝑠( )
𝑘 10 6 𝑠=0 10 𝑠
http://lgarcin.github.io 22
© Laurent Garcin MP Dumont d’Urville
Solution 63
1. A et M sont indépendants si et seulement si l’une des trois égalités équivalentes est vérifiée :
P(M) = P(M|A), P(A) = P(A|M),
P(M ∩ A) = P(M)P(A).
Nous allons utiliser la première égalité comme critère.
1
P(M) = ,
10
20 10 1
P(M|A) = = ≈ = P(M) ,
20 + 182 101 10
80 1 1
P(M|B) = = ≠ = P(M) ,
80 + 160 3 10
50 1 1
P(M|C) = = ≠ = P(M) .
50 + 50 2 10
La maladie M est indépendante du symptome A. En revanche, elle est beaucoup plus fréquente chez les personnes ayant le symptome
B et de même pour le symptome C ; ainsi elle est dépendante de ces symptomes. On pourra donc dire que B et C (mais pas A) indiquent
une éventuelle présence de la maladie.
2. Il y a 240 + 100 − 10 = 330 personnes qui ont les symptomes B ou C. Donc 670 n’ont ni B ni C.
En formalisme :
||B ∩ C|| = ||B ∪ C|| = 1000 − |B ∪ C|
= 1000 − |B| − |C| + |B ∩ C|
= 1000 − 240 − 100 + 10 = 670.
Solution 64
Notons N𝑘 l’événement «tirer une boule noire au 𝑘ème tirage. D’après la formule des probabilités totales
P(N3 ) = P(N3 |N1 ∩ N2 )P(N1 ∩ N2 ) + P(N3 |N1 ∩ N2 )P(N1 ∩ N2 ) + P(N3 |N1 ∩ N2 )P(N1 ∩ N2 ) + P(N3 |N1 ∩ N2 )P(N1 ∩ N2 )
Or
1 2 1
P(N3 |N1 ∩ N2 ) = 0 P(N1 ∩ N2 ) = P(N2 |N1 )P(N1 ) = × =
9 10 45
1 2 8 8
P(N3 |N1 ∩ N2 ) = P(N1 ∩ N2 ) = P(N2 |N1 )P(N1 ) = × =
8 9 10 45
1 8 2 8
P(N3 |N1 ∩ N2 ) = P(N1 ∩ N2 ) = P(N2 |N1 )P(N1 ) = × =
8 9 10 45
2 1 7 8 28
P(N3 |N1 ∩ N2 ) = = P(N1 ∩ N2 ) = P(N2 |N1 )P(N1 ) = × =
8 4 9 10 45
http://lgarcin.github.io 23
© Laurent Garcin MP Dumont d’Urville
Ainsi
1 1 8 1 8 1 28 9 1
P(N3 ) = 0 × + × + × + × = =
45 8 45 8 45 4 45 45 5
Solution 65
Notons D la variable aléatoire correspondant au chiffre obtenu avec le dé. On utilise à plusieurs reprises la formule des probabilités totales.
Remarquons que P(X = 0|D = 𝑘) = 0 dès que 𝑘 > 3. Ainsi
P(X = 0) = P(X = 0|D = 1)P(D = 1) + P(X = 0|D = 2)P(D = 2) + P(X = 0|D = 3)P(D = 3)
(31) 3
1 (2) 1 1 1
= 6
+× 6
× + 6 ×
(1) 6 (2) 6 (3) 6
1 1 1 1
= + + =
12 30 120 8
Remarquons que P(X = 1|D = 𝑘) = 0 dès que 𝑘 > 4. Ainsi
P(X = 1) = P(X = 1|D = 1)P(D = 1) + P(X = 1|D = 2)P(D = 2) + P(X = 1|D = 3)P(D = 3) + P(X = 1|D = 4)P(D = 4)
2
(31) 3
1 (1)
3 3 3
1 (1)(2) 1 (1) 1
= +× × + × + ×
(61) 6 (62) 6 (63) 6 (6) 6
4
1 1 3 1 7
= + + + =
12 10 40 30 24
Remarquons que P(X = 2|D = 𝑘) = 0 dès que 𝑘 > 5 ou 𝑘 < 2. Ainsi
P(X = 2) = P(X = 2|D = 2)P(D = 2) + P(X = 2|D = 3)P(D = 3) + P(X = 2|D = 4)P(D = 4) + P(X = 2|D = 5)P(D = 5)
2
(32) 3 3
1 ( )( ) 1 ( )
3 3
1 () 1
= 6 × + 2 6 1 × + 26 × + 62 ×
(2) 6 (3) 6 (4) 6 () 6
5
1 3 1 1 7
= + + + =
30 40 10 12 24
Remarquons que P(X = 3|D = 𝑘) = 0 dès que 𝑘 < 3. Ainsi
P(X = 3) = P(X = 3|D = 3)P(D = 3) + P(X = 3|D = 4)P(D = 4) + P(X = 3|D = 5)P(D = 5) + P(X = 3|D = 6)P(D = 6)
3 3
1 1 (1) 1 (2) 1 1
= 6 × + 6 × + 6 × +1×
(3) 6 (4) 6 (5) 6 6
1 1 1 1 7
= + + + =
120 30 12 6 24
3
Remarque. On aurait bien entendu pu utiliser le fait que ∑ P(X = 𝑘) = 1 pour calculer P(X = 3) après avoir calculé P(X = 0), P(X = 1)
𝑘=0
et P(X = 2).
Solution 66
1. X et Y sont à valeurs dans J1, 𝑛K. On utilise la formule des probabilités totales. Pour 𝑘 ∈ ℕ∗
𝑛 𝑛 𝑛 𝑛
1 1 1
P(Y = 𝑘) = ∑ P(Y = 𝑘|X = 𝑙)P(X = 𝑙) = ∑ P(Y = 𝑘|X = 𝑙)P(X = 𝑙) = ∑ = ∑
𝑙=1 𝑙=𝑘 𝑙=𝑘
𝑙𝑛 𝑛 𝑙=𝑘 𝑙
http://lgarcin.github.io 24
© Laurent Garcin MP Dumont d’Urville
3. On a clairement E(Y) ∼
𝑛
.
𝑛→+∞ 4
Solution 67
1. Il existe (62) issues possibles à ce tirage. La variable aléatoire X est à valeurs dans {0, 1, 2}.
• L’événement X = 0 correspond à tirer les deux boules parmi les quatre rouges. On en déduit que
(42) 2
P(X = 0) = =
(62) 5
• L’événement X = 1 correspond à tirer une boule parmi les deux noires et une boule parmi les quatre rouges. On en déduit que
(21)(41) 8
P(X = 1) = =
(62) 15
• L’événement X = 2 correspond à tirer les deux boules parmi les deux noires. On en déduit que
(22) 1
P(X = 2) = =
(62) 15
2. La variable aléatoire Y est encore à valeurs dans {0, 1, 2}. D’après la formule des probabilités totales,
P(Y = 0) = P(Y = 0|X = 0)P(X = 0) + P(Y = 0|X = 1)P(X = 1) + P(Y = 0|X = 2)P(X = 2)
(22) 3
2 (2) 8 1
= × + 4 × +1×
(42) 5 ( ) 15
2
15
2
=
5
P(Y = 1) = P(Y = 1|X = 0)P(X = 0) + P(Y = 1|X = 1)P(X = 1) + P(Y = 1|X = 2)P(X = 2)
(21)(21) 3 1
2 (1)(1) 8 1
= × + 4 × +0×
(42) 5 (2) 15 15
8
=
15
P(Y = 2) = P(Y = 2|X = 0)P(X = 0) + P(Y = 2|X = 1)P(X = 1) + P(Y = 2|X = 2)P(X = 2)
(22) 2 8 1
= × +0× +0×
(42) 5 15 15
1
=
15
http://lgarcin.github.io 25
© Laurent Garcin MP Dumont d’Urville
(31)(11) 1
P(Y = 1|X = 1) = =
(42) 2
Ainsi la probabilité d’avoir obtenu une seule boule noire au premier tirage sachant que l’on a tiré une seule boule noire au second tirage
1
est .
5
(31)(11) 8 (2) 2 1
P(X = 1, Y = 1) + P(X = 0, Y = 2) = P(Y = 1|X = 1)P(X = 1) + P(Y = 2|X = 0)P(X = 0) = × + 42 × =
(42) 15 ( ) 5
2
3
Solution 68
1
En appliquant la formule de Bayes, on trouve que la probabilité que ce soit une fausse alerte vaut
23
Solution 69
1 1
On vérifie que PV (M) = > = PV (M) donc le vaccin est légèrement efficace.
9 12
Solution 70
2
1. α = .
𝑛(𝑛 + 1)
6𝑘(𝑛 + 1 − 𝑘)
2.
𝑛(𝑛 + 1)(𝑛 + 2)
Solution 71
1. a. Soit 𝑛 ≥ 1. On calcule 𝑝𝑛+1 = P(A𝑛+1 ) par la formule des probabilités totales avec le système complet (A𝑛 , A𝑛 ) :
𝑝𝑛+1 = PA𝑛 (A𝑛+1 )P(A𝑛 ) + PA𝑛 (A𝑛+1 )P(A𝑛 ) = PA𝑛 (A𝑛+1 )𝑝𝑛 + PA𝑛 (A𝑛+1 )(1 − 𝑝𝑛 ) .
D’après les hypothèses, PA𝑛 (A𝑛+1 ) est la probabilité pour, qu’ayant effectué le 𝑛-ième tirage dans l’urne U1 , celui-ci donne une
5 5
boule blanche, c’est-à-dire PA𝑛 (B𝑛 ). Puisque la proportion de boules blanches dans l’urne U1 est , on a PA𝑛 (B𝑛 ) = , d’où
6 6
5
PA𝑛 (A𝑛+1 ) = .
6
De même, PA𝑛 (A𝑛+1 ) est la probabilité pour, qu’ayant effectué le 𝑛-ième tirage dans l’urne U2 , celui-ci donne une boule noire,
4 4
c’est-à-dire PA𝑛 (B𝑛 ). La proportion de boules noires dans l’urne U2 est de , donc PA𝑛 (A𝑛+1 ) = .
6 6
Finalement on obtient la formule de récurrence suivante :
5 4 1 4
∀𝑛 ≥ 1, 𝑝𝑛+1 = 𝑝 + (1 − 𝑝𝑛 ) = 𝑝𝑛 + . (1)
6 𝑛 6 6 6
b. La relation (1) prouve que (𝑝𝑛 )𝑛≥1 est une suite arithmético-géométrique. La fonction associée 𝑥 ↦
1 4
𝑥+ admet l’unique
6 6
4 1 1 𝑛−1
point fixe ℓ = . On sait alors que (𝑝𝑛 − ℓ)𝑛≥1 est géométrique de raison , d’où l’on tire 𝑝𝑛 − ℓ = ( ) (𝑝1 − ℓ) pour tout
5 6 6
1
𝑛 ≥ 1. Comme on choisit au hasard l’urne dans laquelle s’effectue le premier tirage, on a 𝑝1 = , et on obtient finalement :
2
4 3 1 𝑛−1
∀𝑛 ≥ 1, 𝑝𝑛 = − ( ) .
5 10 6
http://lgarcin.github.io 26
© Laurent Garcin MP Dumont d’Urville
2. a. Soit 𝑛 ≥ 1. On calcule 𝑞𝑛 = P(B𝑛 ) en appliquant à nouveau la formule des probabilités totales avec le système complet (A𝑛 , A𝑛 ) :
𝑞𝑛 = P(B𝑛 ) = PA𝑛 (B𝑛 )P(A𝑛 ) + PA𝑛 (B𝑛 )P(A𝑛 )
5 2 1 1
= 𝑝 + (1 − 𝑝𝑛 ) = 𝑝𝑛 + .
6 𝑛 6 2 3
5 2
(on a déjà vu que PA𝑛 (B𝑛 ) = , et PA𝑛 (B𝑛 ) = 1 − PA𝑛 (B𝑛 ) = ).
6 6
b. Puisque (𝑝𝑛 )𝑛≥1 est convergente de limite , on en déduit que (𝑞𝑛 )𝑛≥1 est convergente de limite ℓ′ =
4 14 1 11
+ = .
5 25 3 15
Variables aléatoires
Solution 72
1. On note T la variable aléatoire désignant le chiffre obtenu par Tom et J la variable aléatoire désignant le chiffre obtenu par Jerry. Les
variables aléatoires T et J sont indépendantes puisque les deux lancers sont indépendants.
a. La probabilité que Tom gagne est
4 2
P(T = 3, J = 2) = P(T = 3)P(J = 2) = 1 × =
6 3
b. La probabilité que Tom gagne est
P(T = 2, J = 1) + P(T = 6, J = 1) + P(T = 6, J = 5) = P(T = 2)P(J = 1) + P(T = 6)P(J = 1) + P(T = 6)P(J = 5)
1 1 1 1 1 1 3
= × + × + × =
2 2 2 2 2 2 4
c. La probabilité que Tom gagne est
P(T = 1, J = 0) + P(T = 5, J = 4) + P(T = 5, J = 0) = P(T = 1)P(J = 0) + P(T = 5)P(J = 4) + P(T = 5)P(J = 0)
1 1 1 2 1 1 2
= × + × + × =
2 3 2 3 2 3 3
d. La probabilité que Tom gagne est
4 2
P(T = 4, J = 3) = P(T = 4)P(J = 3) = 1 × =
6 3
2. a. On suppose que le deuxième joueur est en mesure de déterminer le dé lui donnant la plus forte probabilité de jouer (le choix du
dé n’est donc pas fait au hasard).
La question précédente montre que quelque soit le choix du dé du premier joueur le second joueur peut choisir un dé qui lui donne
une probabilité plus grande de gagner.
• Si le premier joueur choisit le dé A, il suffit que le second joueur choisisse le dé D.
• Si le premier joueur choisit le dé B, il suffit que le second joueur choisisse le dé A.
• Si le premier joueur choisit le dé C, il suffit que le second joueur choisisse le dé B.
• Si le premier joueur choisit le dé D, il suffit que le second joueur choisisse le dé C.
Il vaut donc mieux jouer en deuxième, autrement dit à la place de Jerry.
b. Tout d’abord, résumons la probabilité que Tom gagne suivant les différents choix de dés dans le tableau suivant.
Jerry
A B C D
Tom
2 1 1
A
3 2 3
1 3 2
B
3 4 3
1 1 3
C
2 4 4
2 1 1
D
3 3 4
http://lgarcin.github.io 27
© Laurent Garcin MP Dumont d’Urville
La question est assez ambiguë. On supposera qu’une fois que Tom a choisi son dé, Jerry choisira le dé qui donne à Tom la plus
faible probabilité de gagner et que Tom soit au courant de la stratégie de Jerry.
1
Tom choisira donc les dés A ou B pour s’assurer une probabilité de gagner d’au moins de gagner. En effet, le choix des dés C
3
1
ou D permet à Jerry de choisir un dé donnant une probabilité à Tom de gagner égale à . Ainsi Tom choisira le dé A et Jerry le
4
dé D ou Tom le dé B et Jerry le dé A. Dans les deux cas, l’espérance du gain de Tom est
1 2 α−2
× α + × (−1) =
3 3 3
Tom n’acceptera donc de jouer que si α ≥ 2.
3. Notons T la variable aléatoire correspondant au résultat obtenu par Tom et J la variable aléatoire correspondant au résultat obtenu par
Jerry.
Si Tom sélectionne les dés A et B, alors Jerry joue avec les dés C et D. Dans ce cas, T est à valeurs dans {5, 9} et J est à valeurs dans
{1, 5, 9}. La probabilité que Tom gagne (on exclut le match nul) est
De plus
2 2
P(T = 5) = P(T1 = 3)P(T2 = 2) = 1 × =
3 3
2 2
P(T = 9) = P(T1 = 3)P(T2 = 6) = 1 × =
3 3
1 1 1
P(J = 1) = P(J1 = 1)P(J2 = 0) = × =
2 3 6
1 2 1 1 1
P(J = 5) = P(J1 = 1)P(J2 = 4) + P(J1 = 5)P(J2 = 0) = × + × =
2 3 2 3 2
La probabilité que Tom gagne est donc
2 1 2 1 2 1 5
× + × + × =
3 6 3 6 3 2 9
Tom a donc plus de chance de gagner que Jerry en sélectionnant les dés A et B. Il vaut donc mieux être à la place de Tom.
Solution 73
1. Soit 𝑝 ∈ J0, 2𝑛 −1K. Il existe un unique 𝑛-uplet (𝑥0 , … , 𝑥𝑛−1 ) ∈ {0, 1}𝑛 tel que 𝑝 = ∑𝑘=0 2𝑘 𝑥𝑘 . Ainsi ℙ(U = 𝑝) = ℙ (∩𝑛−1
𝑛−1
𝑘=0 [X𝑘 = 𝑥𝑘 ]).
𝑛−1 1
Comme les X𝑘 sont indépendantes, ℙ(U = 𝑝) = ∏𝑘=0 ℙ(X𝑘 = 𝑥𝑘 ) = . U suit bien la loi uniforme sur J0, 2𝑛 − 1K.
2𝑛
2. L’application
{0, 1}𝑛 ⟶ J0, 2𝑛 − 1
Φ∶ { 𝑛−1
(𝑥0 , … , 𝑥𝑛−1 ) ⟼ ∑𝑘=0 2𝑘 𝑥𝑘
Soit (𝑥0 , … , 𝑥𝑛−1 ) ∈ {0, 1}𝑛 . Alors
𝑛−1
ℙ( [X𝑘 = 𝑥𝑘 ]) = ℙ ((X0 , … , X𝑛−1 ) = (𝑥0 , … , 𝑥𝑛−1 ))
⋂
𝑘=0
= ℙ (Φ(X0 , … , X𝑛−1 ) = (𝑥0 , … , 𝑥𝑛−1 )) car Φ est injective
= ℙ(U = 𝑝) en posant 𝑝 = Φ(𝑥0 , … , 𝑥𝑛−1 )
1
= 𝑛 car U suit la loi uniforme sur J0, 2𝑛 − 1K
2
Fixons 𝑘 ∈ J0, 𝑛 − 1K et 𝑥 ∈ {0, 1}. Posons
{0, 1}𝑛 ⟶ {0, 1}
π𝑘 ∶ {
(𝑥0 , … , 𝑥𝑛−1 ) ⟼ 𝑥𝑘
http://lgarcin.github.io 28
© Laurent Garcin MP Dumont d’Urville
Alors
ℙ(X𝑘 = 𝑥) = ℙ(π𝑘 (X0 , … , X𝑛−1 ) = 𝑥)
= ℙ((X0 , … , X𝑛−1 ) ∈ π−1
𝑘 ({𝑥}))
= ∑ ℙ((X0 , … , X𝑛−1 ) = (𝑥0 , … , 𝑥𝑛−1 ))
(𝑥0 ,…,𝑥𝑛−1 )∈π−1
𝑘 ({𝑥})
card π−1
𝑘 ({𝑥})
= d’après ce qui précède
2𝑛
2𝑛−1 1
= 𝑛 =
2 2
1
Ceci prouve à la fois que les X𝑘 sont bien des variables de Bernoulli de paramètre et qu’elles sont mutuellement indépendantes.
2
Solution 74
Remarque. On peut aussi déterminer E(Z) plus simplement en remarquant que Y + Z = X1 + X2 et donc, par linéarité de
𝑛+1
l’espérance, E(Y) + E(Z) = E(X1 ) + E(X2 ). Or on a évidemment E(X1 ) = E(X2 ) = .
2
On en déduit
2
(𝑛 + 1)(3𝑛2 + 𝑛 − 1) (𝑛 + 1)(4𝑛 − 1) (𝑛 − 1)(𝑛 + 1)(2𝑛2 + 1)
V(Y) = E(Y2 ) − E(Y)2 = −( ) =
6𝑛 6𝑛 36𝑛2
2
(𝑛 + 1)(𝑛2 + 𝑛 + 1) (𝑛 + 1)(2𝑛 + 1) (𝑛 − 1)(𝑛 + 1)(2𝑛2 + 1)
V(Z) = E(Z2 ) − E(Z)2 = −( ) =
6𝑛 6𝑛 36𝑛2
c. On a facilement
2𝑛 𝑛
E(Y) ∼ E(Z) ∼
𝑛→+∞ 3 𝑛→+∞ 3
𝑛2 𝑛2
V(Y) ∼ V(Z) ∼
𝑛→+∞ 18 𝑛→+∞ 18
http://lgarcin.github.io 29
© Laurent Garcin MP Dumont d’Urville
d. Dans le cas particulier 𝑛 = 1, Y et Z sont indépendantes puisque P(Y = 1, Z = 1) = 1 = P(Y = 1)P(Z = 1).
Supposons maintenant 𝑛 ≥ 2. Soit (𝑘, 𝑙) ∈ J1, 𝑛K2 tel que 𝑘 < 𝑙. Alors P(Y = 𝑘, Z = 𝑙) = 0 puisque Y ≥ Z. Mais P(Y = 𝑘)P(Z =
𝑙) ≠ 0 d’après la question 1.a. On en déduit que Y et Z ne sont pas indépendantes.
Remarque. On peut aussi remarquer que V(Y+Z) ≠ V(Y)+V(Z) en remarquant que V(Y+Z) = V(X1 +X2 ) = V(X1 )+V(X2 ).
(𝑛+1)(𝑛−1)
Or on a facilement V(X1 ) = V(X2 ) = .
12
2. a. A nouveau, Y et Z sont bien à valeurs dans J1, 𝑛K. Soit 𝑘 ∈ J1, 𝑛K. Par indépendance mutuelle de X1 , … , X𝑝
𝑝
𝑘 𝑝
P(Y ≤ 𝑘) = P(X1 ≤ 𝑘, … , X𝑝 ≤ 𝑘) = ∏ P(X𝑗 ≤ 𝑘) = ( )
𝑗=1
𝑛
𝑝
𝑛−𝑘+1 𝑝
P(Z ≥ 𝑘) = P(X1 ≥ 𝑘, … , X𝑝 ≥ 𝑘) = ∏ P(X𝑗 ≥ 𝑘) = ( )
𝑗=1
𝑛
On a alors
𝑘 𝑝 𝑘−1 𝑝
P(Y = 𝑘) = P(Y ≤ 𝑘) − P(Y ≤ 𝑘 − 1) = ( ) − ( )
𝑛 𝑛
𝑛−𝑘+1 𝑝 𝑛−𝑘 𝑝
P(Z = 𝑘) = P(Z ≥ 𝑘) − P(Z ≥ 𝑘 + 1) = ( ) −( )
𝑛 𝑛
b.
𝑛
𝑘 𝑝 𝑘−1 𝑝
E(Y) = ∑ 𝑘 [( ) − ( ) ]
𝑘=1
𝑛 𝑛
𝑛 𝑛
𝑘 𝑝 𝑘−1 𝑝
= ∑ 𝑘( ) − ∑ 𝑘( )
𝑘=1
𝑛 𝑘=1
𝑛
𝑛−1 𝑛
𝑘 𝑝 𝑘−1 𝑝
= 𝑛 + ∑ 𝑘( ) − ∑ 𝑘( )
𝑘=1
𝑛 𝑘=2
𝑛
𝑛−1 𝑛−1
𝑘 𝑝 𝑘 𝑝
= 𝑛 + ∑ 𝑘 ( ) − ∑ (𝑘 + 1) ( )
𝑘=1
𝑛 𝑘=1
𝑛
𝑛−1
𝑘 𝑝
=𝑛− ∑( )
𝑘=1
𝑛
𝑛
𝑛−𝑘+1 𝑝 𝑛−𝑘 𝑝
E(Z) = ∑ 𝑘 [( ) −( ) ]
𝑘=1
𝑛 𝑛
𝑛 𝑛
𝑛−𝑘+1 𝑝 𝑛−𝑘 𝑝
= ∑ 𝑘( ) − ∑ 𝑘( )
𝑘=1
𝑛 𝑘=1
𝑛
𝑛 𝑛−1
𝑛−𝑘+1 𝑝 𝑛−𝑘 𝑝
= 1 + ∑ 𝑘( ) − ∑ 𝑘( )
𝑘=2
𝑛 𝑘=1
𝑛
𝑛−1 𝑛−1
𝑛−𝑘 𝑝 𝑛−𝑘 𝑝
= 1 + ∑ (𝑘 + 1) ( ) − ∑ 𝑘( )
𝑘=1
𝑛 𝑘=1
𝑛
𝑛−1
𝑛−𝑘 𝑝
=1+ ∑( )
𝑘=1
𝑛
𝑛−1
𝑘 𝑝
=1+ ∑( )
𝑘=1
𝑛
http://lgarcin.github.io 30
© Laurent Garcin MP Dumont d’Urville
Remarque. Pour le calcul de E(Z), on aurait aussi pu remarquer via le changement d’indice 𝑙 = 𝑛 − 𝑘 + 1 que
𝑛
𝑛−𝑘+1 𝑝 𝑛−𝑘 𝑝
E(Z) = ∑ 𝑘 [( ) −( ) ]
𝑘=1
𝑛 𝑛
𝑛
𝑙 𝑝 𝑙−1 𝑝
= ∑(𝑛 + 1 − 𝑙) [( ) − ( ) ]
𝑙=1
𝑛 𝑛
𝑛 𝑛
𝑙 𝑝 𝑙−1 𝑝 𝑙 𝑝 𝑙−1 𝑝
= (𝑛 + 1) ∑ [( ) − ( ) ] − ∑ 𝑙 [( ) − ( ) ]
𝑙=1
𝑛 𝑛 𝑙=1
𝑛 𝑛
= 𝑛 + 1 − E(Y) par télescopage dans la première somme
𝑛−1
𝑘 𝑝
=1+ ∑( )
𝑘=1
𝑛
𝑘 𝑘 𝑝
Pour 𝑘 ∈ J1, 𝑛 − 1K, 0 < < 1 donc lim ( ) = 0.
𝑛 𝑝→+∞ 𝑛
Par opération sur les limites, il vient
1
1 1
limS𝑛 = ∫ 𝑡𝑝 d𝑡 =
𝑛→+∞ 𝑛 𝑝 + 1
0
𝑛
ou encore S𝑛 = + 𝑜(𝑛). On en déduit
𝑛→+∞ 𝑝+1
𝑛𝑝 𝑛
E(Y) = + 𝑜(𝑛) E(Z) = + 𝑜(𝑛)
𝑛→+∞ 𝑝+1 𝑛→+∞ 𝑝+1
ou encore
𝑛𝑝 𝑛
E(Y) ∼ E(Z) ∼
𝑛→+∞ 𝑝+1 𝑛→+∞ 𝑝+1
Remarque. On est passé par des petits 𝑜 pour pouvoir effectuer des additions.
Solution 75
2. A chaque tentative, le concierge choisit la bonne clé avec une probabilité égale à
1 1
et une mauvaise clé avec une probabilité de 1 − .
𝑛 𝑛
Il s’ensuit que pour 𝑘 ∈ ℕ∗
1 𝑘−1 1
P(X = 𝑘) = (1 − )
𝑛 𝑛
Le nombre moyen d’essais est donc
+∞
1 𝑘−1 1 1 1 1
E(X) = ∑ 𝑘 (1 − ) = = 2
=𝑛
𝑛 𝑛 𝑛 𝑛 1
𝑘=1 (1 − (1 − ))
𝑛
http://lgarcin.github.io 31
© Laurent Garcin MP Dumont d’Urville
Solution 76
1. La probabilité d’ouvrir la boîte gauche vide et qu’il reste 𝑟 allumettes dans la boîte droite, est la probabilité d’avoir choisi N fois la
boîte gauche et N − 𝑟 fois la boîte droite pendant les 2N − 𝑟 premiers choix et d’avoir choisi la dernière fois la boîte gauche c’est-à-dire
2N − 𝑟 1 N 1 N−𝑟 1 (2N−𝑟
N
)
( )( ) ( ) × = 2N−𝑟+1
N 2 2 2 2
Puisque les boîtes gauche et droite jouent des rôles symétriques, la probabilité d’ouvrir la boîte droite vide et qu’il reste 𝑟 allumettes
dans la boîte gauche est la même. Finalement
(2N−𝑟
N
) (2N−𝑟
N
)
μ𝑟,N = 2 2N−𝑟+1 = 2N−𝑟
2 2
(2N
N)
2. On a μ0,N =
1
. En utilisant la formule de Stirling, on obtient μ0,N ∼ .
22N N→+∞ √Nπ
(2(N+1)−(𝑟+1)
N+1
)
(2N + 2)μ𝑟+1,N+1 = 2(N + 1)
22(N+1)−(𝑟+1)
(N + 1)(2N+1−𝑟
N+1
)
= 2N−𝑟
2
(2N + 1 − 𝑟)(2N−𝑟
N
)
=
22N−𝑟
= (2N + 1 − 𝑟)μ𝑟,N
4. Si on note XN la variable aléatoire correspondant au nombre d’allumettes restantes, EN est l’espérance de XN , c’est-à-dire que
N
EN = ∑ 𝑟μ𝑟,N
𝑟=0
donc
N N N
∑ 𝑟μ𝑟,N = (2N + 1) ∑ μ𝑟,N − 2(N + 1) ∑ μ𝑟+1,N+1
𝑟=0 𝑟=0 𝑟=0
ou encore en changeant d’indice dans la dernière somme
N N+1
EN = (2N + 1) ∑ μ𝑟,N − 2(N + 1) ∑ μ𝑟,N+1
𝑟=0 𝑟=1
Mais le nombre d’allumettes restantes est un entier compris entre 0 et N (dans le cas où il y a N allumettes dans chaque boîte au départ)
N N+1
donc ∑ μ𝑟,N = 1. Pour la même raison, ∑ μ𝑟,N+1 = 1. On en déduit
𝑟=0 𝑟=0
http://lgarcin.github.io 32
© Laurent Garcin MP Dumont d’Urville
(2N+2
N+1 )
Or μ0,N+1 = donc
22N+2
(N + 1)(2N+2
N+1
)
EN = −1
22N+1
(2N + 2)(2N+1
N
)
= 2N+1
−1
2
(N + 1)(2N+1
N
)
= 2N
−1
2
2N+1
(N + 1)(2N+1−N )
= 2N
−1
2
(N + 1)(2N+1
N+1
)
= −1
22N
2N
(2N + 1)( N )
= −1
22N
6. Notons YN la variable correspondant au nombre d’allumettes utilisées. On a évidemment XN + YN = 2N. FN est l’espérance de YN ,
c’est-à-dire
2N + 1 2N (2N
N
)
FN = E(YN ) = E(2N − XN ) = 2N − EN = 2N + 1 − ( ) = (2N + 1) (1 − )
22N N 22N
Solution 77
2. On peut par exemple remarquer que P(U = 𝑛) ≠ 0 et P(D = 𝑛) ≠ 0 tandis que P(U = 𝑛, D = 𝑛) = 0. Ainsi P(U = 𝑛, D = 𝑛) ≠
P(U = 𝑛)P(D = 𝑛), ce qui prouve que U et D ne sont pas indépendantes.
3. Puisque U + D + T = 𝑛, pour tout 𝑘 ∈ J0, 𝑛K,
P(U + D = 𝑘) = P(T = 𝑛 − 𝑘)
𝑡
On en déduit aisément que U + D suit la loi binomiale ℬ (𝑛, 1 − ).
𝑏
De plus,
𝑛𝑡 𝑛(𝑏 − 𝑡)
E(U + D) = E(𝑛 − T) = 𝑛 − E(T) = 𝑛 − =
𝑏 𝑏
Enfin,
𝑛𝑡 𝑡
V(U + D) = V(𝑛 − T) = V(T) = (1 − )
𝑏 𝑏
4. On sait que
1
Cov(U, D) = (V(U + D) − V(U) − V(D))
2
Ainsi
1 𝑛𝑡 𝑡 𝑛𝑢 𝑢 𝑛𝑑 𝑑
Cov(U, D) = ( (1 − ) − (1 − ) − (1 − ))
2 𝑏 𝑏 𝑏 𝑏 𝑏 𝑏
𝑛
= 2 (𝑡(𝑏 − 𝑡) − 𝑢(𝑏 − 𝑢) − 𝑑(𝑏 − 𝑑))
2𝑏
𝑛
= 2 ((𝑏 − 𝑢 − 𝑑)(𝑢 + 𝑑) − 𝑢(𝑏 − 𝑢) − 𝑑(𝑏 − 𝑑))
2𝑏
−𝑛𝑢𝑑
=− 2
𝑏
http://lgarcin.github.io 33
© Laurent Garcin MP Dumont d’Urville
Solution 78
1. a. Notons comme d’habitude Ω l’univers associé à l’expérience aléatoire décrite dans l’énoncé. On a bien-sûr X(Ω) = {1, ⋯ , 𝑛 + 1}.
Si pour tout entier 𝑖 ∈ {1, ⋯ , 𝑛}, on note A𝑖 l’évènement « le i-ième candidat réussit le test », on voit que pout tout 𝑘 ∈ {1, ⋯ , 𝑛},
on a {X = 𝑘} = A1 ∩ … ∩ A𝑘−1 ∩ A𝑘 . D’après la formule des probabilités composées, on a donc :
Pour chaque entier 𝑗 ∈ {1, ⋯ , 𝑘 − 1}, PA1∩…∩A (A𝑗 ) est juste la probabilité que le j-ième candidat rate son test (car il ne le
𝑗−1
passe que si les j-1 candidats précédents ont échoué), et vaut donc 1 − 𝑝 = 𝑞. On a de même PA1∩…∩A (A𝑘 ) = 𝑝, d’où la
𝑘−1
formule :
∀𝑘 ∈ {1, ⋯ , 𝑛}, P(X = 𝑘) = 𝑞𝑘−1 𝑝 . (2)
Enfin, {X = 𝑛 + 1} = A1 ∩ … ∩ A𝑛 . En appliquant une nouvelle fois la formule des probabilités composées, on obtient de la
même manière que :
P(X = 𝑛 + 1) = 𝑞𝑛 . (3)
(2) et (3) donnent bien la loi de X.
b. En se rappelant de la formule :
𝑛
1 − 𝑥𝑛+1
∀𝑥 ≠ 1, ∑ 𝑥𝑘 = , (4)
𝑘=0
1−𝑥
on obtient (puisque 𝑝 ≠ 0 donc 𝑞 ≠ 1) :
𝑛+1 𝑛 𝑛−1
∑ P(X = 𝑘) = ∑ 𝑞𝑘−1 𝑝 + 𝑞𝑛 = 𝑝 ∑ 𝑞𝑘 + 𝑞𝑛
𝑘=1 𝑘=1 𝑘=0
1 − 𝑞𝑛
= 𝑝 + 𝑞 𝑛 = 1 − 𝑞𝑛 + 𝑞 𝑛 = 1
1−𝑞
𝑛+1
b. Puisqu’ici X(Ω) = {1, ⋯ , 𝑛 + 1}, on a par définition E(X) = ∑ 𝑘P(X = 𝑘). Compte-tenu de ce qu’on a vu en 1.a et de (5), on
𝑘=1
obtient :
𝑛
𝑛𝑞𝑛+1 − (𝑛 + 1)𝑞𝑛 + 1
E(X) = ∑ 𝑘𝑝𝑞𝑘−1 + (𝑛 + 1)𝑞𝑛 = 𝑝 + (𝑛 + 1)𝑞𝑛
𝑘=1
(1 − 𝑞)2
𝑛+1
𝑛𝑞 − (𝑛 + 1)𝑞𝑛 + 1 + (𝑛 + 1)𝑞𝑛 (1 − 𝑞)
= (car 𝑝 = 1 − 𝑞)
1−𝑞
1 − 𝑞𝑛+1
= .
1−𝑞
3. Notons A l’évènement « l’un des 𝑛 candidats est recruté ». On voit que A = {1 ≤ X ≤ 𝑛}, en d’autres termes A = {X = 𝑛 + 1}. Ainsi
1 1 1
P(A) ≥ ⇔ P(A) ≤ ⇔ P(X = 𝑛 + 1) ≤ . Puisque P(X = 𝑛 + 1) = 𝑞𝑛 , on obtient :
2 2 2
1 1 1 1
P(A) ≥ ⇔ 𝑞𝑛 ≤ ⇔ 𝑞 ≤ ⇔𝑝≥1− .
2 2 𝑛
√2 𝑛
√2
Avec 𝑛 = 4 (resp. 𝑛 = 10), on obtient (en arrondissant à trois chiffres après la virgule) la condition 𝑝 ≥ 0.159 (resp. 𝑝 ≥ 0.067).
Solution 79
http://lgarcin.github.io 34
© Laurent Garcin MP Dumont d’Urville
3. Fixons 𝑘 ∈ {0, … , 𝑛}. Avec les notations qui précèdent, l’évènement {X𝑛 = 2𝑘 − 𝑛} est égal à {D𝑛 = 𝑘}. Il y a (𝑛𝑘) façons de choisir les
𝑘 déplacements vers la droite parmi les 𝑛, et, ce choix effectué, la probabilité qu’il y ait eu ces 𝑘 déplacements vers la droite et 𝑛 − 𝑘
déplacements vers la gauche aux instants restants est 𝑝𝑘 𝑞𝑛−𝑘 . On en déduit que P(X𝑛 = 2𝑘 − 𝑛) = (𝑛𝑘)𝑝𝑘 𝑞𝑛−𝑘 .
4. a. On a en fait Y𝑛 = D𝑛 avec les notations précédentes, puisque Y𝑛 = 𝑘 ⟺ X𝑛 = 2𝑘 − 𝑛 ⟺ D𝑛 = 𝑘. Ainsi Y𝑛 (Ω) = D𝑛 (Ω) =
{0, … , 𝑛} et
𝑛
∀0 ≤ 𝑘 ≤ 𝑛, P(Y𝑛 = 𝑘) = ( )𝑝𝑘 𝑞𝑛−𝑘 .
𝑘
La loi de Y𝑛 est donc la loi binomiale de paramètres 𝑛 et 𝑝. On sait alors que E(Y𝑛 ) = 𝑛𝑝 et V(Y𝑛 ) = 𝑛𝑝𝑞.
b. Puisque X𝑛 = 2Y𝑛 − 𝑛, on en déduit que E(X𝑛 ) = 2E(Y𝑛 ) − 𝑛 = 𝑛(2𝑝 − 1) et que V(X𝑛 ) = 22 V(Y𝑛 ) = 4𝑛𝑝𝑞.
c. La limite de E(X𝑛 ) dépend du signe de 2𝑝 − 1 :
1
⎧ si 0<𝑝< ,
2
lim E(X𝑛 ) = −∞
𝑛→+∞
⎪ 1
si 𝑝 = , lim E(X𝑛 ) = 0
⎨ 2 𝑛→+∞
⎪ si 1
< 𝑝 < 1, lim E(X𝑛 ) = +∞
⎩ 2 𝑛→+∞
1
Notons que dans le cas 𝑝 = , la variable X𝑛 est centrée pour tout 𝑛 : la position moyenne du mobile reste toujours 0, ce qui n’est
2
pas étonnant puisqu’à chaque déplacement il a autant de chances d’aller à droite qu’à gauche.
Puisque 0 < 𝑝 < 1, on a 𝑝𝑞 = 𝑝(1 − 𝑝) > 0, donc lim V(X𝑛 ) = +∞.
𝑛→+∞
Ainsi pour toute valeur de 𝑝 ∈]0, 1[, la dispersion de X𝑛 par rapport à sa moyenne tend vers l’infini, ce qui traduit le fait que plus
𝑛 est grand plus il est difficile de prédire la position qu’aura le mobile au bout de 𝑛 déplacements.
Solution 80
1. Numérotons les boules rouges de 1 à 5, les blanches de 6 à 10 et les bleues de 11 à 16. L’ensemble Ω des tirages possibles est alors
l’ensemble des 4-listes d’éléments distincts de {1, ⋯ , 16} :
A411 7920 33
P(X = 0) = = = .
43680 43680 182
• pour qu’un tirage appartienne à {X = 1}, il y a (15) = 5 façcons de choisir le numéro de la boule rouge tirée, puis 4 façons de
choisir le rang d’apparition de cette boule rouge, et A311 = 11.10.9 façons de compléter le tirage avec 3 boules blanches ou bleues.
Ainsi :
(5).4.A311 19800 165
P(X = 1) = 1 = = .
43680 43680 364
http://lgarcin.github.io 35
© Laurent Garcin MP Dumont d’Urville
• pour qu’un tirage appartienne à {X = 2}, il y a (25) façons de choisir les numéros des deux boules rouges tirées, puis A24 façons
de choisir les rangs d’apparition de ces boules rouges, et A211 = 11.10 façons de compléter le tirage avec 2 boules blanches ou
bleues. Ainsi
(5).A24 .A211 13200 55
P(X = 2) = 2 = = .
43680 43680 182
• par le même raisonnement on obtient aisément :
4! 11! 11
A𝑘4 .A4−𝑘
11 = × = 4! × ( ),
(4 − 𝑘)! (11 − 4 + 𝑘)! 4−𝑘
(𝑘5 )(4−𝑘
11
)
∀ 0 ≤ 𝑘 ≤ 4, P(X = 𝑘) = .
(16
4
)
On aurait pu trouver directement cette formule si on avait considéré le résultat d’un tirage comme une partie de 4 éléments parmi 16
(sans attribuer de numéros aux boules, ni tenir compte de l’ordre des tirages).
4
Connaissant les P(X = 𝑘) pour 0 ≤ 𝑘 ≤ 4 (penser à vérifier qu’on a bien qu’on a bien ∑ P(X = 𝑘) = 1), on en déduit l’espérance :
𝑘=0
4
165 55 11 1
E(X) = ∑ 𝑘P(X = 𝑘) = 1 ⋅ +2⋅ + 3. + 4.
𝑘=0
364 182 182 364
455 5
= = .
364 4
http://lgarcin.github.io 36
© Laurent Garcin MP Dumont d’Urville
Solution 81
𝑛 𝑛
1 1 𝑛+1
E(X) = ∑ ×𝑘= ∑𝑘=
𝑘=1
𝑛 𝑛 𝑘=1
2
𝑛
1 𝑛 + 1 2 (𝑛 + 1)(2𝑛 + 1) (𝑛 + 1)2 𝑛2 − 1
V(X) = E(X2 ) − E(X)2 = ∑𝑘−( ) = − =
𝑛 𝑘=1 2 6 4 12
√ 𝑛2 − 1
σ(X) =
2√3
𝑛 (𝑛 − 1)𝑛−𝑘
P(X𝑛 = 𝑘) = ( )
𝑘 𝑛𝑛
𝑛(𝑛 − 1) … (𝑛 − 𝑘 + 1) (𝑛 − 1)𝑛−𝑘
P(X𝑛 = 𝑘) =
𝑘! 𝑛𝑛
ou encore
𝑛(𝑛 − 1) … (𝑛 − 𝑘 + 1) (𝑛 − 1)𝑛−𝑘
P(X𝑛 = 𝑘) =
𝑛𝑘 𝑘! 𝑛𝑛−𝑘
On a clairement 𝑛(𝑛 − 1) … (𝑛 − 𝑘 + 1) ∼ 𝑛𝑘 donc
𝑛(𝑛 − 1) … (𝑛 − 𝑘 + 1) 1
lim =
𝑛→+∞ 𝑘
𝑛 𝑘! 𝑘!
De plus,
(𝑛 − 1)𝑛−𝑘 1 𝑛−𝑘 1
= (1 − ) = exp ((𝑛 − 𝑘) ln (1 − ))
𝑛 𝑛−𝑘 𝑛 𝑛
http://lgarcin.github.io 37
© Laurent Garcin MP Dumont d’Urville
1 1 1
Or ln (1 − ) ∼ − donc lim𝑛→+∞ (𝑛 − 𝑘) ln (1 − ) = −1 puis
𝑛 𝑛→+∞ 𝑛 𝑛
(𝑛 − 1)𝑛−𝑘
lim = 𝑒−1
𝑛→+∞ 𝑛𝑛−𝑘
Finalement
𝑒−1
lim P(X𝑛 = 𝑘) =
𝑛→+∞ 𝑘!
Solution 84
1.
N
E(Y) = ∑ 𝑘P(Y = 𝑘)
𝑘=1
N
= ∑ 𝑘 (P(Y > 𝑘 − 1) − P(Y > 𝑘))
𝑘=1
N 𝑛
= ∑ 𝑘P(Y > 𝑘 − 1) − ∑ 𝑘P(Y > 𝑘)
𝑘=1 𝑘=1
N−1 N
= ∑ (𝑘 + 1)P(Y > 𝑘) − ∑ 𝑘P(Y > 𝑘) par changement d’indice
𝑘=0 𝑘=1
N−1 N
= ∑ (𝑘 + 1)P(Y > 𝑘) − ∑ 𝑘P(Y > 𝑘)
𝑘=0 𝑘=0
N−1
= ∑ P(Y > 𝑘) − NP(Y > N)
𝑘=0
N−1
= ∑ P(Y > 𝑘) car P(Y > 𝑛) = 0
𝑘=0
http://lgarcin.github.io 38
© Laurent Garcin MP Dumont d’Urville
P(Z𝑛 > 𝑘) = P(X1 > 𝑘, X2 > 𝑘, … , X𝑛 > 𝑘) = P(X1 > 𝑘)P(X2 > 𝑘) … P(X𝑛 > 𝑘)
car les variables X1 , … , X𝑛 sont mutuellement indépendantes. Mais comme chacune de ces variables suit la loi uniforme sur
J1, NK
N−𝑘 𝑛
P(Z𝑛 > 𝑘) = ( )
N
b. En utilisant la première question
N−1 N
N−𝑘 𝑛 𝑘 𝑛
E(Z𝑛 ) = ∑ ( ) = ∑( )
𝑘=0
N 𝑘=1
N
via un changement d’indice. Autrement dit, E(Z𝑛 ) = 1 + 𝑎𝑛 (N).
𝑘 𝑛
4. a. Pour 𝑘 ∈ J1, N − 1K, 0 ≤ < 1 donc lim𝑛→+∞ ( ) = 0. Ainsi lim𝑛→+∞ 𝑎𝑛 (N) = 0. Or E(T𝑛 ) = N − 𝑎𝑛 (N) pour tout 𝑛 ∈ ℕ∗
𝑘
N N
donc lim𝑛→+∞ E(T𝑛 ) = N.
b. Par linéarité, E(S𝑛 ) = E(T𝑛 ) + E(Z𝑛 ) − 1 = N en utilisant les questions précédentes.
Solution 85
On en déduit
3
7
E(X) = ∑ 𝑘P(X = 𝑘) =
𝑘=0
6
3
7 2 53
V(X) = E(X2 ) − E(X)2 = ∑ 𝑘2 P(X = 𝑘) − ( ) =
𝑘=0
6 36
Solution 86
Puisque le rang d’apparition des boules rouges ne dépend que du placement des boules rouges, on peut prendre comme univers l’ensemble
des combinaisons des 𝑟 places parmi N.
Fixons 𝑛 ∈ J1, 𝑟K. Remarquons que X𝑛 est à valeurs dans J𝑛, N − 𝑟 + 𝑛K puisqu’il y a 𝑛 − 1 boules rouges avant la 𝑛ème et 𝑟 − 𝑛 après.
Fixons donc 𝑘 ∈ J𝑛, N−𝑟+𝑛K et dénombrons les combinaisons faisant apparaître la 𝑛ème boule en 𝑘ème position. Choisir une telle combinaison
revient à placer 𝑛 − 1 boules parmi les 𝑘 − 1 places précédant la 𝑘ème et 𝑟 − 𝑛 parmi les N − 𝑘 places lui succédant. Il existe donc (𝑛−1
𝑘−1 N−𝑘
)( 𝑟−𝑛 )
ème ème
combinaisons faisant apparaître la 𝑛 boule en 𝑘 position.
Puisqu’il existe (N𝑟) combinaisons de 𝑟 places parmi N et que tous les tirages sont implicitement équiprobables
𝑘−1 N−𝑘
(𝑛−1 )( 𝑟−𝑛 )
P(X𝑛 = 𝑘) =
(N𝑟)
Solution 87
http://lgarcin.github.io 39
© Laurent Garcin MP Dumont d’Urville
Il vient alors
4
1 5 10 5 8
E(X) = ∑ 𝑘P(X = 𝑘) = 1 × +2× +3× +4× =
𝑘=1
21 14 21 42 3
et enfin
4
1 5 10 5 8 2 23 64 5
V(X) = ∑ 𝑘2 P(X = 𝑘) − E(X)2 = 1 × +4× +9× + 16 × −( ) = − =
𝑘=1
21 14 21 42 3 3 9 9
Solution 88
2. L’univers Ω de l’expérience aléatoire est formé des 𝑛-arrangements de N boules. Ainsi card(Ω) =
N!
.
(N−𝑛)!
Y est à valeurs dans Jmax(0, 𝑛 − N2 ), min(𝑛, N1 )K. Soit 𝑘 dans cet ensemble. Se donner une issue de l’événement Y = 𝑘 consiste à
choisir les emplacements des 𝑘 boules blanches ((𝑛𝑘) possibilités) puis à se donner un 𝑘-arrangement des N1 boules blanches et un
(𝑛 − 𝑘)-arrangement des N2 boules blanches. Ainsi
𝑛 N1 ! N2 ! N1 N2
card(Y = 𝑘) = ( ) = 𝑛!( )( )
𝑘 (N1 − 𝑘)! (N2 − 𝑛 + 𝑘)! 𝑘 𝑛−𝑘
puis
card(Y = 𝑘) 𝑛!(N𝑘1)(𝑛−𝑘
N2
) (N𝑘1)(𝑛−𝑘
N2
)
P(Y = 𝑘) = = =
card(Ω) N! N
(𝑛)
(N−𝑛)!
On peut calculer l’espérance et la variance de Y à l’aide de formules sur les coefficients binomiaux mais les calculs s’avèrent fastidieux
et longs. On va adopter une méthode plus astucieuse.
Notons ℬ l’ensemble des boules blanches et pour 𝑏 ∈ ℬ, Y𝑏 la variable aléatoire valant 1 si la boule 𝑏 a été tirée au cours des 𝑛 tirages
et 0 sinon. Il est clair que Y = ∑ Y𝑏 . Ainsi E(Y) = ∑ E(Y𝑏 ). Or pour tout 𝑏 ∈ ℬ, Y𝑏 est une variable de Bernoulli dont le paramètre
𝑏∈ℬ 𝑏∈ℬ
𝑛
𝑝 est la probabilité P(Y = 1) dans le cas où N1 vaut 1. Autrement dit 𝑝 = . Ainsi
N
𝑛 𝑛N1
E(Y) = ∑ =
𝑏∈ℬ
N N
http://lgarcin.github.io 40
© Laurent Garcin MP Dumont d’Urville
Soit (𝑏1 , 𝑏2 ) ∈ ℬ2 tel que 𝑏1 ≠ 𝑏2 . Alors Cov(Y𝑏1 , Y𝑏2 ) = E(Y𝑏1 Y𝑏2 ) − E(Y𝑏1 )E(Y𝑏2 ). Mais Y𝑏1 Y𝑏2 est à nouveau une variable de
Bernoulli dont le paramètre est la probabilité P(Y = 2) lorsque N1 vaut 2. On en déduit
𝑛(𝑛 − 1) 𝑛 2 𝑛(N − 𝑛)
Cov(Y𝑏1 , Y𝑏2 ) = −( ) =− 2
N(N − 1) N N (N − 1)
Enfin
V(Y) = V( ∑ Y𝑏 )
𝑏∈ℬ
= ∑ V(Y𝑏 ) + ∑ Cov(Y𝑏1 , Y𝑏2 )
𝑏∈ℬ (𝑏1 ,𝑏2 )∈ℬ2 ,𝑏1 ≠𝑏2
N1 𝑛(N − 𝑛) N1 (N1 − 1)𝑛(N − 𝑛)
= −
N2 N2 (N − 1)
N1 𝑛(N − 𝑛)(N − 1) − N1(N1 − 1)𝑛(N − 𝑛)
=
N2 (N − 1)
N 𝑛(N − 𝑛)(N − N1 )
= 1
N2 (N − 1)
N1 N2 N − 𝑛
=
N N N−1
3. L’univers Ω de l’expérience aléatoire est formé des 𝑛-combinaisons de N boules. Ainsi card(Ω) = (N 𝑛
).
Z est encore à valeurs dans Jmax(0, 𝑛 − N2 ), min(𝑛, N1 )K. Soit 𝑘 dans cet ensemble. Se donner une issue de l’événement Z = 𝑘
correspond à choisir 𝑘 boules parmi les N1 boules blanches et 𝑛 − 𝑘 boules parmi les N2 boules noires. Ainsi
N1 N2
card(Z = 𝑘) = ( )( )
𝑘 𝑛−𝑘
puis
card(Z = 𝑘) (N1)( N2 )
P(Z = 𝑘) = = 𝑘 N𝑛−𝑘
card(Ω) (𝑛)
Z suit donc la même loi que Y et a donc même espérance et même variance.
Solution 89
1. Posons X = (X1 , … , X𝑛 )⊤ . Alors M = XX⊤ . La matrice M est donc de rang au plus 1 (toutes ses colonnes sont coliénaires à X). Ainsi
M suit une loi de Bernoulli. De plus, par indépendance des X𝑖 ,
𝑛 𝑛
ℙ(rg M = 0) = ℙ(M = 0) = ℙ ( X𝑖 = 0) = ∏ ℙ(X𝑖 = 0) = (1 − 𝑝)𝑛
⋂
𝑖=1 𝑖=1
Pour 1 ≤ 𝑖 ≤ 6, notons 𝑝𝑖 (resp. 𝑞𝑖 ) la probabilité d’obtenir 𝑖 en lançant le premier (resp. le deuxième) dé. De même, pour 2 ≤ 𝑖 ≤ 12, notons
𝑟𝑖 la probabilité d’obtenir 𝑖 en lançant deux dés. On a la relation suivante : 𝑟𝑘 = ∑ 𝑝𝑖 𝑞𝑗 .
𝑖+𝑗=𝑘
6 6 12
Notons P = ∑ 𝑝𝑖 X𝑖−1 , Q = ∑ 𝑞𝑖 X𝑖−1 et R = ∑ 𝑞𝑖 X𝑖−2 . La relation précédente signifie que R = PQ. S’il y avait équiprobabilité sur les
𝑖=1 𝑖=1 𝑖=2
http://lgarcin.github.io 41
© Laurent Garcin MP Dumont d’Urville
10
1 1
sommes, on aurait 𝑟𝑖 = pour 2 ≤ 𝑖 ≤ 12 i.e. R = ∑ X𝑖 .
11 11 𝑖=0
Les racines de R sont les racines 11èmes de l’unité privées de 1. Aucune de ces racines n’est réelle. De plus, deg P ≤ 5 et deg Q ≤ 5. Puisque
deg R = deg PQ = 10, deg P = deg Q = 5. Puisque 5 est impair, les polynômes P et Q admettent chacun au moins une racine réelle en vertu
du théorème des valeurs intermédiaires, d’où une contradiction.
Il est donc impossible de piper deux dés de manière à avoir équiprobabilité sur les sommes.
Solution 91
Remarquons tout d’abord que X + Y est à valeurs dans J2, 𝑛K tandis que Z est à valeurs dans J1, 𝑛K. Puisque X + Y et Z sont indépendantes,
𝑛 𝑛 𝑛
1
P(X + Y = Z) = ∑ P(X + Y = 𝑘, Z = 𝑘) = ∑ P(X + Y = 𝑘)P(Z = 𝑘) = ∑ P(X + Y = 𝑘)
𝑘=2 𝑘=2
𝑛 𝑘=2
Ainsi 𝑛
1 𝑛−1
P(X + Y = Z) = ∑𝑘−1=
𝑛3 𝑘=2 2𝑛2
Solution 93
http://lgarcin.github.io 42
© Laurent Garcin MP Dumont d’Urville
Si 𝑘 ≤ 𝑛,
𝑘 𝑘
1 𝑘+1
P(X + Y = 𝑘) = ∑ P(X = 𝑙, Y = 𝑘 − 𝑙) = ∑ 2
=
𝑙=0 𝑙=0
(𝑛 + 1) (𝑛 + 1)2
Si 𝑘 ≥ 𝑛,
𝑛 𝑛
1 2𝑛 − 𝑘 + 1
P(X + Y = 𝑘) = ∑ P(X = 𝑙, Y = 𝑘 − 𝑙) = ∑ 2
=
𝑙=𝑘−𝑛 𝑙=𝑘−𝑛
(𝑛 + 1) (𝑛 + 1)2
De manière générale, pour tout 𝑘 ∈ J0, 2𝑛K,
(𝑛 + 1) − |𝑘 − 𝑛|
P(X + Y = 𝑘) =
(𝑛 + 1)2
2. Les variables X et Y sont indépendantes puisque pour tout (𝑘, 𝑙) ∈ J0, 𝑛K2 ,
1
P(X = 𝑘, Y = 𝑙) = = P(X = 𝑘)P(Y = 𝑙)
(𝑛 + 1)2
Solution 94
On calcule dans un premier temps P(X = Y). L’événement X = Y est la réunion disjointes des événements (X = 𝑘) ∩ (Y = 𝑘) pour 𝑘
décrivant J1, 𝑛K. On en déduit que
𝑛
P(X = Y) = ∑ P([X = 𝑘] ∩ [Y = 𝑘])
𝑘=1
Or les variables aléatoires X et Y sont indépendantes donc
𝑛 𝑛
1 1
P(X = Y) = ∑ P(X = 𝑘)P(Y = 𝑘) = ∑ 2
=
𝑘=1 𝑘=1
𝑛 𝑛
On en déduit que
1
P(X ≠ Y) = 1 − P(X = Y) = 1 −
𝑛
Solution 95
+∞ 𝑛 +∞
μ𝑟 𝑥𝑟 (𝑘 − 𝑛𝑝)𝑟 𝑥𝑟
∑ = ∑ ℙ(X = 𝑘) ∑
𝑟=0
𝑟! 𝑘=0 𝑟=0
𝑟!
𝑛
= ∑ ℙ(X = 𝑘)𝑒(𝑘−𝑛𝑝)𝑥
𝑘=0
𝑛
𝑛
= 𝑒−𝑛𝑝𝑥 ∑ ( )𝑝𝑘 𝑒𝑘𝑥 (1 − 𝑝)𝑛−𝑘
𝑘=0
𝑘
𝑛
= 𝑒−𝑛𝑝𝑥 (𝑝𝑒𝑥 + 1 − 𝑝)𝑛 = [𝑝𝑒(1−𝑝)𝑥 + (1 − 𝑝)𝑒−𝑝𝑥 ]
Solution 96
http://lgarcin.github.io 43
© Laurent Garcin MP Dumont d’Urville
ω𝑘 −1
1. Notons S𝑗,𝑘 la somme de l’énoncé. Si ω𝑗 = 1, autrement dit si 𝑘 divise 𝑗, S𝑗,𝑘 = 𝑘. Sinon, S𝑗,𝑘 = = 0.
ω−1
πℓ |
|1 + ωℓ | = 2 ||cos |<2
| 𝑘 |
1
Ainsi, dans ce cas, lim𝑛→+∞ (1 + ωℓ )𝑛 = 0. On en déduit que
2𝑛
1
lim ℙ(𝑘 ∣ X𝑛 ) =
𝑛→+∞ 𝑘
ce qui est conforme à l’intuition.
Chaînes de Markov
Solution 97
𝑎𝑛+1 = ℙ(A𝑛+1 ) = ℙ(A𝑛+1 |A𝑛 )P(A𝑛 ) + ℙ(A𝑛+1 |B𝑛 )P(B𝑛 ) + ℙ(A𝑛+1 |C𝑛 )P(C𝑛 )
3 3
= 0 × 𝑎𝑛 + × 𝑏𝑛 + 0 × 𝑐𝑛 = 𝑏𝑛
4 4
𝑏𝑛+1 = ℙ(B𝑛+1 ) = ℙ(B𝑛+1 |A𝑛 )P(A𝑛 ) + ℙ(B𝑛+1 |B𝑛 )P(B𝑛 ) + ℙ(B𝑛+1 |C𝑛 )P(C𝑛 )
3 3
= × 𝑎𝑛 + 0 × 𝑏𝑛 + 1 × 𝑐𝑛 = 𝑎𝑛 + 𝑐𝑛
4 4
𝑐𝑛+1 = ℙ(C𝑛+1 ) = ℙ(C𝑛+1 |A𝑛 )P(A𝑛 ) + ℙ(C𝑛+1 |B𝑛 )P(B𝑛 ) + ℙ(C𝑛+1 |C𝑛 )P(C𝑛 )
1 1 1 1
= × 𝑎𝑛 + × 𝑏𝑛 + 0 × 𝑐𝑛 = 𝑎𝑛 + 𝑏𝑛
4 4 4 4
3
⎛0 4 0⎞
3
2. Il suffit de choisir M = ⎜ 0 1 ⎟.
⎜ 41 1 ⎟
⎝ 4 4 0⎠
3. On trouve
13 3 1 3
P(λ) = −λ3 + X+ = −(λ − 1) (λ + ) (λ + )
16 16 4 4
1 3
On peut donc choisir λ1 = 1, λ2 = − et λ3 = − .
4 4
http://lgarcin.github.io 44
© Laurent Garcin MP Dumont d’Urville
4. On cherche donc une matrice non nulle dans Ker(M − λ𝑘 I3 ) pour chaque 𝑘 ∈ {1, 2, 3}.
3 1
⎛ −1 4 4 ⎞ ⎛ 12 ⎞
3 1
M − λ 1 I1 = M − I 3 = ⎜ −1 ⎟ donc U1 = ⎜ 16 ⎟ ∈ Ker(M − λ1 I3 ).
⎜ 4 4 ⎟ ⎜ ⎟
⎝ 0 1 −1 ⎠ ⎝ 7 ⎠
1 3 1
⎛4 4 4 ⎞ ⎛ 3 ⎞
1 3 1 1
M − λ 2 I3 = M + I3 = ⎜ ⎟ donc U2 = ⎜ −1 ⎟ ∈ Ker(M − λ2 I3 ).
4 ⎜ 4 4 4
1 ⎟ ⎜ ⎟
⎝0 1 4 ⎠ ⎝ −2 ⎠
3 3 1
⎛4 4 4 ⎞ ⎛ 1 ⎞
1 3 3 1
M − λ 2 I3 = M + I3 = ⎜ ⎟ donc U3 = ⎜ −1 ⎟ ∈ Ker(M − λ3 I3 ).
4 ⎜4 4 4
3 ⎟ ⎜ ⎟
⎝0 1 4 ⎠ ⎝ 0 ⎠
5. Soit P la matrice (U1 |U2 |U3 ). Les trois relations MU𝑘 = λ𝑘 U𝑘 pour 𝑘 ∈ {1, 2, 3} peuvent s’écrire matriciellement MP = PD avec la
⎛ λ1 0 0 ⎞
matrice P définie à la question précédente et D = ⎜ 0 λ2 0 ⎟. Puisque det(P) = −70 ≠ 0, P est inversible de sorte que M = PDP−1 .
⎜ ⎟
⎝ 0 0 λ3 ⎠
𝑛 1 0 0
⎛ λ1 0 0 ⎞ ⎛ 1 𝑛
⎞
𝑛 𝑛 ⎜
D = ⎜ 0 λ2 0 ⎟ = 0 (− ) 0 ⎟
⎜ 𝑛
⎟ ⎜ 4
3 𝑛 ⎟
⎝ 0 0 λ3 ⎠ ⎝ 0 0 (− )
4 ⎠
12 3 1 𝑛 5 3 𝑛 12 3 1 𝑛 9 3 𝑛 12 6 1 𝑛 6 3 𝑛
𝑎𝑛 = ( + (− ) + (− ) ) 𝑎0 + ( + (− ) − (− ) ) 𝑏0 + ( − (− ) + (− ) ) 𝑐0
35 10 4 14 4 35 10 4 14 4 35 5 4 7 4
𝑛 𝑛
16 1 1 𝑛
5 3 16 1 1 𝑛
9 3 16 2 1 𝑛 6 3 𝑛
𝑏𝑛 = ( − (− ) − (− ) ) 𝑎0 + ( − (− ) + (− ) ) 𝑏0 + ( + (− ) − (− ) ) 𝑐0
35 10 4 14 4 35 10 4 14 4 35 5 4 7 4
1 1 1 𝑛 1 1 1 𝑛 1 4 1 𝑛
𝑐𝑛 = ( − (− ) ) 𝑎0 + ( − (− ) ) 𝑏0 + ( + (− ) ) 𝑐0
5 5 4 5 5 4 5 5 4
7. Puisque ||− || < 1 et ||− || < 1 et que 𝑎0 + 𝑏0 + 𝑐0 = 1, les suites (𝑎𝑛 ), (𝑏𝑛 ), (𝑐𝑛 ) convergent respectivement vers
1 3 12 16 1
, et .
4 4 35 35 5
Solution 98
1. On a évidemment
𝑝0 = 1 𝑞0 = 0 𝑟0 = 0 𝑝1 = 0 𝑞1 = 1 𝑟1 = 0
http://lgarcin.github.io 45
© Laurent Garcin MP Dumont d’Urville
𝑝𝑛+1 = P(X𝑛+1 = 0) = P(X𝑛+1 = 0|X𝑛 = 0)P(X𝑛 = 0) + P(X𝑛+1 = 0|X𝑛 = 1)P(X𝑛 = 1) + P(X𝑛+1 = 0|X𝑛 = 2)P(X𝑛 = 2)
1 1
= 0 × 𝑝𝑛 + × 𝑞𝑛 + 0 × 𝑟𝑛 = 𝑞𝑛
4 4
𝑞𝑛+1 = P(X𝑛+1 = 1) = P(X𝑛+1 = 1|X𝑛 = 0)P(X𝑛 = 0) + P(X𝑛+1 = 1|X𝑛 = 1)P(X𝑛 = 1) + P(X𝑛+1 = 1|X𝑛 = 2)P(X𝑛 = 2)
1 1
= 1 × 𝑝𝑛 + × 𝑞𝑛 + 1 × 𝑟𝑛 = 𝑝𝑛 + 𝑞𝑛 + 𝑟𝑛
2 2
𝑟𝑛+1 = P(X𝑛+1 = 2) = P(X𝑛+1 = 2|X𝑛 = 0)P(X𝑛 = 0) + P(X𝑛+1 = 2|X𝑛 = 1)P(X𝑛 = 1) + P(X𝑛+1 = 2|X𝑛 = 2)P(X𝑛 = 2)
1 1
= 0 × 𝑝𝑛 + × 𝑞𝑛 + 0 × 𝑟𝑛 = 𝑞𝑛
4 4
2 1 𝑛
𝑞𝑛 = (1 − (− ) )
3 2
1
Puisque pour tout 𝑛 ∈ ℕ 𝑝𝑛+1 = 𝑟𝑛+1 = 𝑞𝑛 , pour tout 𝑛 ∈ ℕ∗ ,
4
1 1 𝑛−1
𝑝𝑛 = 𝑟𝑛 = (1 − (− ) )
6 2
De plus, on a vu que 𝑝0 = 1 et que 𝑟0 = 0.
5. Puisque ||− || =
1 1 2 1
< 1, lim𝑛→+∞ 𝑞𝑛 = et lim𝑛→+∞ 𝑝𝑛 = lim𝑛→+∞ 𝑟𝑛 = .
2 2 3 6
1. Première méthode :
Soit (𝑘, 𝑙) ∈ J1, 𝑛K2 . Si 𝑘 ≥ 𝑙, P(X = 𝑘, Z = 𝑙) = 0. Par contre, si 𝑘 < 𝑙,
𝑛−2 𝑛−3 𝑛−𝑘 2 𝑛−𝑘−1 𝑛−𝑙+1 1
P(X = 𝑘, Z = 𝑙) = × ×⋯ × × × ⋯× ×
⏟𝑛 𝑛
⏟ −1 𝑛⎵
⏟− 𝑘⎵+
⎵⏟ ⎵⏟2 ⏟𝑛⎵
−
⎵⏟𝑘⎵+
⎵⏟1 ⏟⎵𝑛⎵⏟
−⎵𝑘
⎵⏟ 𝑛 − 𝑙 + 2 ⏟⎵⏟⎵⏟
⏟⎵⏟⎵⏟ 𝑛−𝑙+1
1er tirage 2e tirage (𝑘 − 1)e tirage 𝑘e tirage (𝑘 + 1)e tirage (𝑙 − 1)e tirage 𝑙e tirage
2
=
𝑛(𝑛 − 1)
Seconde méthode :
L’univers Ω est l’ensemble des permutations des 𝑛 boules de sorte que card Ω = 𝑛!.
Soit (𝑘, 𝑙) ∈ J1, 𝑛K2 . Si 𝑘 ≥ 𝑙, [X = 𝑘] ∩ [Y = 𝑙] est impossible donc P(X = 𝑘, Z = 𝑙) = 0. Supposons maintenant 𝑘 < 𝑙. Se donner
une issue de [X = 𝑘] ∩ [Y = 𝑙] revient à se donner une permutation des 2 boules rouges et une permutation des 𝑛 − 2 boules rouges.
Ainsicard([X = 𝑘] ∩ [Y = 𝑙]) = 2!(𝑛 − 2)!. Finalement
2!(𝑛 − 2)! 2
P(X = 𝑘, Z = 𝑙) = =
𝑛! 𝑛(𝑛 − 1)
http://lgarcin.github.io 46
© Laurent Garcin MP Dumont d’Urville
Solution 100
3. (X, Y) est à valeurs dans {(𝑖, 𝑗) ∈ J1, NK2 , 𝑖 − 𝑗 ≥ 𝑛 − 1}. Soit donc (𝑖, 𝑗) dans cet ensemble.
Choisir 𝑛 boules dont le plus grand numéro est 𝑖 et le plus petit 𝑗 revient à choisir 𝑛 − 2 boules parmi celles numérotées de 𝑗 + 1 à
(𝑖−𝑗−1
𝑛−2 )
𝑖 − 1. Ainsi card([X = 𝑖] ∩ [𝑦 = 𝑗]) = (𝑖−𝑗−1 ) puis P(X = 𝑖, Y = 𝑗) = .
𝑛−2 (N𝑛)
Remarquons que X − Y est à valeurs dans J𝑛 − 1, N − 1K. Soit 𝑘 ∈ J𝑛 − 1, N − 1K. Alors
N−𝑘 N−𝑘 𝑘−1
(N − 𝑘)(𝑛−2 )
P(X − Y = 𝑘) = ∑ P(X − Y = 𝑘, Y = 𝑗) = ∑ P(X = 𝑗 + 𝑘, Y = 𝑗) =
𝑗=1 𝑗=1 (N
𝑛
)
4. Tout d’abord
N
E(X) = ∑ 𝑘P(X = 𝑘)
𝑘=𝑛
N
1 𝑘−1
= N
∑ 𝑘( )
( ) 𝑘=𝑛 𝑛 −1
𝑛
N
𝑛 𝑘
= N
∑ ( )
( ) 𝑘=𝑛 𝑛
𝑛
𝑛(N+1
𝑛+1
)
=
(N
𝑛
)
𝑛(N + 1)
=
𝑛+1
http://lgarcin.github.io 47
© Laurent Garcin MP Dumont d’Urville
Pour le calcul de l’espérance de Y, on peut remarquer que P(Y = 𝑘) = P(X = N + 1 − 𝑘) pour tout 𝑘 ∈ J1, N − 𝑛 + 1K. Ainsi
N−𝑛+1
E(Y) = ∑ 𝑘P(Y = 𝑘)
𝑘=1
N−𝑛+1
= ∑ 𝑘P(X = N + 1 − 𝑘)
𝑘=1
N
= ∑ (N + 1 − 𝑘)P(X = 𝑘)
𝑘=𝑛
N
= (N + 1) ∑ P(X = 𝑘) − E(X)
𝑘=𝑛
𝑛(N + 1) N+1
=N+1− =
𝑛+1 𝑛+1
5. Tout d’abord
N
E(X2 ) = ∑ 𝑘2 P(X = 𝑘)
𝑘=𝑛
N
E(X2 ) = ∑ [𝑘(𝑘 + 1) − 𝑘]P(X = 𝑘)
𝑘=𝑛
N
1 𝑘−1
= N
∑ 𝑘(𝑘 + 1)( ) − E(X)
( ) 𝑘=𝑛 𝑛−1
𝑛
N
𝑛(𝑛 + 1) 𝑘+1 𝑛(N + 1)
= ∑( )−
(N ) 𝑘=𝑛
𝑛+1 𝑛+1
𝑛
N+1
𝑛(𝑛 + 1) 𝑘 𝑛(N + 1)
= ∑ ( )−
(N ) 𝑘=𝑛+1
𝑛+1 𝑛+1
𝑛
𝑛(𝑛 + 1) N + 2 𝑛(N + 1)
= ( )−
N
( ) 𝑛+2 𝑛+1
𝑛
𝑛(N + 1)(N + 2) 𝑛(N + 1)
= −
𝑛+2 𝑛+1
(N𝑛 + 𝑛 + N)(N + 1)𝑛
=
(𝑛 + 1)(𝑛 + 2)
Enfin
2
(N𝑛 + 𝑛 + N)(N + 1)𝑛 𝑛(N + 1) 𝑛(N + 1)(N − 𝑛)
V(X) = E(X2 ) − E(X)2 = −( ) =
(𝑛 + 1)(𝑛 + 2) 𝑛+1 (𝑛 + 2)(𝑛 + 1)2
En remarquant que P(Y = 𝑘) = P(X = N + 1 − 𝑘) pour tout 𝑘 ∈ J1, N − 𝑛 + 1K et que E(Y) = N + 1 − E(X)
http://lgarcin.github.io 48
© Laurent Garcin MP Dumont d’Urville
6. Tout d’abord
N−1
E((X − Y)2 ) = ∑ 𝑘2 P(X − Y = 𝑘)
𝑘=𝑛−1
N−1 𝑘−1
𝑘2 (N − 𝑘)(𝑛−2 )
= ∑
𝑘=𝑛−1 (N
𝑛
)
N−1 N−1
1 𝑘−1 𝑘−1
= (N ∑ 𝑘2 ( ) − ∑ 𝑘3 ( ))
(N
𝑛
) 𝑘=𝑛−1
𝑛−2 𝑘=𝑛−1
𝑛−2
N−1
Posons S𝑚 = ∑𝑘=𝑛−1 𝑘𝑚 (𝑛−2
𝑘−1
). On trouve successivement
N−1
𝑘−1
S1 = ∑ 𝑘( )
𝑘=𝑛−1
𝑛−2
N−1
𝑘
= (𝑛 − 1) ∑ ( )
𝑘=𝑛−1
𝑛−1
N
= (𝑛 − 1)( )
𝑛
puis
N−1
𝑘−1
S2 = ∑ 𝑘 2 ( )
𝑘=𝑛−1
𝑛 −2
N−1 N−1
𝑘−1 𝑘−1
= ∑ 𝑘(𝑘 + 1)( ) − ∑ 𝑘( )
𝑘=𝑛−1
𝑛 − 2 𝑘=𝑛−1
𝑛 −2
N−1
𝑘+1
= (𝑛 − 1)𝑛 ∑ ( ) − S1
𝑘=𝑛−1
𝑛
N
𝑘 N
= (𝑛 − 1)𝑛 ∑ ( ) − (𝑛 − 1)( )
𝑘=𝑛
𝑛 𝑛
N+1 N
= (𝑛 − 1)𝑛( ) − (𝑛 − 1)( )
𝑛+1 𝑛
et enfin
N−1
𝑘−1
S3 = ∑ 𝑘 3 ( )
𝑘=𝑛−1
𝑛−2
N−1
𝑘−1
= ∑ 𝑘(𝑘 + 1)(𝑘 + 2)( ) − 3S2 − 2S1
𝑘=𝑛−1
𝑛−2
N−1
𝑘+2 N+1 N N
= (𝑛 − 1)𝑛(𝑛 + 1) ∑ ( ) − 3 ((𝑛 − 1)𝑛( ) − (𝑛 − 1)( )) − 2(𝑛 − 1)( )
𝑘=𝑛−1
𝑛+1 𝑛+1 𝑛 𝑛
N+1
𝑘 N+1 N
= (𝑛 − 1)𝑛(𝑛 + 1) ∑ ( ) − 3(𝑛 − 1)𝑛( ) + (𝑛 − 1)( )
𝑘=𝑛+1
𝑛+1 𝑛+1 𝑛
N+2 N+1 N
= (𝑛 − 1)𝑛(𝑛 + 1)( ) − 3(𝑛 − 1)𝑛( ) + (𝑛 − 1)( )
𝑛+2 𝑛+1 𝑛
http://lgarcin.github.io 49
© Laurent Garcin MP Dumont d’Urville
Il vient enfin
1
E((X − Y)2 ) = (NS2 − S3 )
(N
𝑛
)
1 N+1 N N+2 N+1 N
= (N(𝑛 − 1)𝑛( ) − N(𝑛 − 1)( ) − (𝑛 − 1)𝑛(𝑛 + 1)( ) + 3(𝑛 − 1)𝑛( ) − (𝑛 − 1)( ))
(N
𝑛
) 𝑛+1 𝑛 𝑛+2 𝑛+1 𝑛
1 N+1 N N+2
= ((𝑛 − 1)𝑛(N + 3)( ) − (𝑛 − 1)(N + 1)( ) − (𝑛 − 1)𝑛(𝑛 + 1)( ))
(N
𝑛
) 𝑛+1 𝑛 𝑛+2
(𝑛 − 1)𝑛(N + 3)(N + 1) (𝑛 − 1)𝑛(N + 2)(N + 1)
= − (𝑛 − 1)(N + 1) −
𝑛+1 𝑛+2
(𝑛 − 1)(N + 1)(𝑛N + 𝑛 − 2)
=
(𝑛 + 1)(𝑛 + 2)
Finalement
Solution 101
P(Y1 = 𝑦) = E(1Y1=𝑦 )
= ∑ δ𝑦,𝑓(𝑥1,𝑥2) P(X1 = 𝑥1 , X2 = 𝑥2 ) par formule de transfert
(𝑥1 ,𝑥2 )∈E2
http://lgarcin.github.io 50
© Laurent Garcin MP Dumont d’Urville
Espérance et variance
Solution 102
1. a. Puisque X est à valeurs dans ℕ, (X = 𝑛)𝑛∈ℕ est us système complet d’événements de sorte que
+∞
GX (1) = ∑ P(X = 𝑛) = 1
𝑛=0
b.
+∞
G′X = ∑ 𝑛P(X = 𝑛)X𝑛−1
𝑛=0
donc
+∞
G′X (1) = ∑ 𝑛P(X = 𝑛) = E(X)
𝑛=0
c.
+∞
G″X = ∑ 𝑛(𝑛 − 1)P(X = 𝑛)X𝑛−2
𝑛=0
donc
+∞ +∞ +∞
G″X (1)+G′X (1)−G′X (1)2 = ∑ 𝑛(𝑛−1)P(X = 𝑛)+ ∑ 𝑛P(X = 𝑛)−E(X)2 = ∑ 𝑛2 P(X = 𝑛)−E(X)2 = E(X2 )−E(X)2 = V(X)
𝑛=0 𝑛=0 𝑛=0
2.
+∞ 𝑛
GX GY = ∑ ( ∑ P(X = 𝑘)P(Y = 𝑛 − 𝑘)) X𝑛
𝑛=0 𝑘=0
+∞ 𝑛
= ∑ ( ∑ P(X = 𝑘, Y = 𝑛 − 𝑘)) X𝑛
𝑛=0 𝑘=0
+∞ 𝑛
= ∑ ( ∑ P(X + Y = 𝑛, X = 𝑘)) X𝑛
𝑛=0 𝑘=0
+∞ +∞
= ∑ ( ∑ P(X + Y = 𝑛, X = 𝑘)) X𝑛
𝑛=0 𝑘=0
+∞
= ∑ P(X + Y = 𝑛)X𝑛
𝑛=0
= GX+Y
3. 𝑛
𝑛
GX = ∑ ( )𝑝𝑘 (1 − 𝑝)𝑛−𝑘 X𝑘 = (𝑝X + 1 − 𝑝)𝑛
𝑘=0
𝑘
On en déduit
donc
E(X) = G′X (1) = 𝑛𝑝 V(X) = G″X (1) + G′X (1) − G′X (1)2 = 𝑛(𝑛 − 1)𝑝2 + 𝑛𝑝 − 𝑛2 𝑝2 = 𝑛𝑝 − 𝑛𝑝2 = 𝑛𝑝(1 − 𝑝)
Solution 103
http://lgarcin.github.io 51
© Laurent Garcin MP Dumont d’Urville
2
= ( ∑ 𝑗 − ∑ 𝑖)
(𝑛 + 1)2 0≤𝑖<𝑗≤𝑛 0≤𝑖<𝑗≤𝑛
𝑛 𝑗−1 𝑛−1 𝑛
2
= ( ∑ ∑ 𝑗 − ∑ ∑ 𝑖)
(𝑛 + 1)2 𝑗=1 𝑖=0 𝑖=0 𝑗=𝑖+1
𝑛 𝑛−1
2
= ( ∑ 𝑗2 − ∑ (𝑛 − 𝑖)𝑖)
(𝑛 + 1)2 𝑗=1 𝑖=0
𝑛 𝑛
2
= ( ∑ 𝑗2 − ∑ (𝑛 − 𝑖)𝑖)
(𝑛 + 1)2 𝑗=0 𝑖=0
𝑛 𝑛
2
= (2 ∑ 𝑘2 − 𝑛 ∑ 𝑘)
(𝑛 + 1)2 𝑘=0 𝑘=0
2 𝑛(𝑛 + 1)(2𝑛 + 1) 𝑛2 (𝑛 + 1)
= 2
( − )
(𝑛 + 1) 3 2
2𝑛 2𝑛 + 1 𝑛
= ( − )
𝑛+1 3 2
𝑛(𝑛 + 2)
=
3(𝑛 + 1)
2. On remarque que
1
T= (X + Y − Z)
2
donc par linéarité de l’espérance
1 1 𝑛(𝑛 + 2) 𝑛(2𝑛 + 1)
E(T) = (E(X) + E(Y) − E(Z)) = (𝑛 − )=
2 2 3(𝑛 + 1) 6(𝑛 + 1)
Mais les variables aléatoires X et Y étant indépendantes, E(XY) = E(X)E(Y). Puisqu’elles sont de même loi
http://lgarcin.github.io 52
© Laurent Garcin MP Dumont d’Urville
Solution 104
1 1 1 𝑛 𝑛
E(Z) = ∑ P(X = 𝑘)P(Y = 𝑙) = 2𝑛 ∑ ( )( )
0≤𝑘,𝑙≤𝑛
𝑘 + 𝑙 + 1 2 0≤𝑘,𝑙≤𝑛
𝑘 + 𝑙 + 1 𝑘 𝑙
Pour 𝑡 ∈ ℝ, posons
1 𝑛 𝑛
𝑓(𝑡) = ∑ ( )( )𝑡𝑘+𝑙+1
0≤𝑘,𝑙≤𝑛
𝑘 + 𝑙 + 1 𝑘 𝑙
𝑓 est dérivable sur ℝ et pour tout 𝑡 ∈ ℝ
𝑛 2
𝑛 𝑛 𝑛
𝑓′ (𝑡) = ∑ ( )( )𝑡𝑘+𝑙 = ( ∑ ( )𝑡𝑘 ) = (1 + 𝑡)2𝑛
0≤𝑘,𝑙≤𝑛
𝑘 𝑙 𝑘=0
𝑘
1 1 𝑛 𝑛
E(Z) = ∑ P(X = 𝑘)P(Y = 𝑙) = ∑ ( )( )𝑝𝑘+𝑙 (1 − 𝑝)2𝑛−𝑘−𝑙
0≤𝑘,𝑙≤𝑛
𝑘 + 𝑙 + 1 0≤𝑘,𝑙≤𝑛
𝑘 + 𝑙 + 1 𝑘 𝑙
Pour 𝑡 ∈ ℝ, posons
1 𝑛 𝑛
𝑓(𝑡) = ∑ ( )( )𝑝𝑘+𝑙 (1 − 𝑝)2𝑛−𝑘−𝑙 𝑡𝑘+𝑙+1
0≤𝑘,𝑙≤𝑛
𝑘 + 𝑙 + 1 𝑘 𝑙
𝑓 est dérivable sur ℝ et pour tout 𝑡 ∈ ℝ
𝑛 2
𝑛 𝑛 𝑛
𝑓 (𝑡) = ∑ ( )( )𝑝𝑘+𝑙 (1 − 𝑝)2𝑛−𝑘−𝑙 𝑡𝑘+𝑙 = ( ∑ ( )𝑝𝑘 (1 − 𝑝)𝑛−𝑘 𝑡𝑘 ) = (𝑝𝑡 + 1 − 𝑝)2𝑛
′
0≤𝑘,𝑙≤𝑛
𝑘 𝑙 𝑘=0
𝑘
http://lgarcin.github.io 53
© Laurent Garcin MP Dumont d’Urville
On en déduit
1
E(Z) = 𝑓(1) = (1 − (1 − 𝑝)2𝑛+1 )
(2𝑛 + 1)𝑝
Solution 107
Pour 𝑘 ∈ J1, 𝑛K, notons X𝑘 la variable aléatoire valant 1 si la boule numéro 𝑘 a été tirée lors des 𝑛 tirages et 0 sinon. Chaque X𝑘 suit une loi
𝑛−1 𝑛 𝑛
de Bernoulli de paramètre 1 − ( ) . Puisque X = ∑𝑘=1 X𝑘 , on obtient par linéarité de l’espérance
𝑛
𝑛
𝑛−1 𝑛
E(X) = ∑ E(X𝑘 ) = 𝑛 (1 − ( ) )
𝑘=1
𝑛
𝑛−1 𝑛 1 1
On montre classiquement que lim𝑛→+∞ ( ) = . Ainsi E(X) ∼ 𝑛 (1 − ).
𝑛 𝑒 𝑛→+∞ 𝑒
Solution 108
𝑛
Pour 𝑘 ∈ J1, 𝑛K, on note X𝑘 la variable aléatoire qui à une permutation associe 1 si 𝑘 est un point fixe et 0 sinon. On a donc X = ∑𝑘=1 X𝑘 .
On détermine ensuite la loi de X𝑘 par dénombrement. Le nombre de permutations fixant 𝑘 est (𝑛 − 1)! et comme la probabilité sur S𝑛 est
(𝑛−1)! 1 1 1
uniforme, ℙ(X𝑘 = 1) = = . Ainsi X𝑘 suit une loi de Bernoulli de paramètre de sorte que 𝔼(X𝑘 ) = . Par linéarité de l’espérance,
𝑛! 𝑛 𝑛 𝑛
𝑛
𝔼(X) = ∑ δ(X𝑘 ) = 1
𝑘=1
Pour le calcul de la variance, il faut prendre garde au fait que les variables aléatoires X𝑘 ne sont pas indépendantes. Néanmoins
𝑛 𝑛 𝑛
𝕍(X) = Cov ( ∑ X𝑘 , ∑ X𝑙 ) = ∑ Cov(X𝑘 , X𝑙 ) = ∑ V(X𝑘 ) + ∑ Cov(X𝑘 , X𝑙 )
𝑘=1 𝑙=1 1≤𝑘,𝑙≤𝑛 𝑘=1 1≤𝑘≠𝑙≤𝑛
1 1
Puisque les X𝑘 sont des variables aléatoires de Bernoulli, 𝕍(X𝑘 ) = (1 − ) et pour 𝑘 ≠ 𝑙,
𝑛 𝑛
12
Cov(X𝑘 , X𝑙 ) = 𝔼(X𝑘 X𝑙 ) − 𝔼(X𝑘 )𝔼(X𝑙 ) = ℙ(X𝑘 = 1, X𝑙 = 1) −
𝑛
A nouveau, on calcule ℙ(X𝑘 = 1, X𝑙 = 1) par dénombrement. Le nombre de permutations pour lesquelles 𝑘 et 𝑙 sont fixes est (𝑛 − 2)! donc
(𝑛−2)! 1 1 1 1
ℙ(X𝑘 = 1, X𝑙 = 1) = = . Ainsi Cov(X𝑘 , X𝑙 ) = − 2 = 2 . Finalement,
𝑛! 𝑛(𝑛−1) 𝑛(𝑛−1) 𝑛 𝑛 (𝑛−1)
𝑛
1 1 1 1 1
𝕍(X) = ∑ (1 − ) + ∑ 2 (𝑛 − 1)
= 1 − + 𝑛(𝑛 − 1) 2 =1
𝑘=1
𝑛 𝑛 1≤𝑘≠𝑙≤𝑛
𝑛 𝑛 𝑛 (𝑛 − 1)
Inégalités
Solution 109
Par stricte croissance de 𝑔, les événement |X| ≥ 𝑎 et 𝑔(|X|) ≥ 𝑔(𝑎) sont identiques et ont donc même probabilité. D’après l’inégalité de
E(𝑔(|X|)
Markov, P (𝑔(|X| ≥ 𝑎) ≤ ce qui permet de conclure.
𝑔(𝑎)
Solution 110
Notons F la variable aléatoire qui désigne le nombre de «faces» obtenus avec 𝑛 lancers. Alors F ∼ ℬ(𝑛, 𝑝) avec 𝑝 = 1/2. Donc E(F) = 𝑛𝑝 =
http://lgarcin.github.io 54
© Laurent Garcin MP Dumont d’Urville
F E(F) 1
E(X) = E ( ) = = ,
𝑛 𝑛 2
F V(F) 1
V(X) = V ( ) = 2 = .
𝑛 𝑛 4𝑛
D’après l’inégalité de Tchebychev, pour tout ε > 0,
V(X)
P(|X − E(X)| > ε) ≤
ε2
Dans notre cas,
1
P(|X − 0, 5| > ϵ) ≤
4𝑛ϵ2
Par passage au contraire cela s’écrit
1
1 − P(|X − 0, 5| ⩽ ϵ) ≤
4𝑛ϵ2
ou encore
1
P(|X − 0, 5| ⩽ ϵ) ≥ 1 −
4𝑛ϵ2
En prenant ε = 0, 05, on a donc
100
P(0, 45 ≤ X ≤ 0, 55) ≥ 1 −
𝑛
En prenant 𝑛 = 1000, on a alors bien
P(0, 45 ≤ X ≤ 0, 55) ≥ 0, 9
Solution 111
1. 1C est une variable aléatoire de Bernoulli donc V(1C ) = P(1C = 1)(1 − P(1C = 1)) = P(C)(1 − P(C)). La fonction 𝑥 ↦ 𝑥(1 − 𝑥)
1 1 1
admet pour maximum sur [0, 1] (atteint en ). Ainsi V(1C ) ≤ .
4 2 4
Remarque. Si le seul événement de probabilité nulle est ∅, on peut montrer que la condition d’égalité équivaut à P(A) = P(B) =
1
2
et A = B ou A = B.
Solution 112
http://lgarcin.github.io 55
© Laurent Garcin MP Dumont d’Urville
Par ailleurs,
car A ∩ B ∩ C ⊂ A ∩ C et B ∩ (A ∪ C) ⊂ B. On en déduit donc que 𝑑(A, B) + 𝑑(B, C) − 𝑑(A, C) ≥ 0 puis l’inégalité demandée.
2. Remarquons que pour A ∈ 𝒜, 𝑑(A, ∅) = ℙ(AΔ∅) = ℙ(A). En prenant C = ∅ dans l’inégalité de la question précédente, on obtient
alors
ℙ(A) ≤ 𝑑(A, B) + ℙ(B)
En échangeant les rôles de A et B, on a également
http://lgarcin.github.io 56