Académique Documents
Professionnel Documents
Culture Documents
4
[ X
Donc P (X = 1) = P( Ak ) = 3 P (A k ) car A 1 , A 2 , ..., A n−1 sont deux à deux incompatibles.
1 k=1 k=1 Soient X 1 , X 2 variables aléatoires indépendantes de loi uniforme U (2) sur {−1, 1} et X 3 = X 1 × X 2 .
à !µ ¶ µ ¶n−1 n−1 à ! µ ¶n−1 à n à ! ! µ ¶ Montrer que X 1 , X 2 , X 3 sont deux à deux indépendantes, mais ne le sont pas mutuellement.
X n 1 n
n−1 1 X n 1 X n 1 n−1 ¡ n ¢
Donc P (X = 1) = 3 = = −2 = 2 −2 .
k=1 k 3 3 k=1 k 3 k=0 k 3 Solution de 4 :
µ ¶n−1
1 1
Donc P (X = 1) = (2n − 2) . P(X 3 = −1) = P(X 1 = 1, X 2 = −1) + P(X 1 = −1, X 2 = 1) =
3 2
¡ ¢n−1 ¡ 1 ¢n−1 n
Enfin, P (X = 0) = 1 − P (X = 2) − P (X = 1) donc P (X = 0) = 1 − 13 − 3 (2 − 2). Donc X 3 ,→ U (2) sur {−1, 1}.
µ ¶n−1 Alors X 1 , X 2 , X 3 sont indépendantes deux à deux car X 1 ⊥
⊥ X2,
1
Donc P (X = 0) = 1 − (2n − 1).
3 1
P(X 1 = 1, X 3 = 1) = P(X 1 = 1, X 2 = 1) = = P(X 1 = 1)P(X 3 = 1)
4
Autre méthode : 1
Une épreuve peut être assimilée à une application de J1, n K (ensemble des numéros des boules) dans J1, 3K P(X 1 = −1, X 3 = 1) = P(X 1 = −1, X 2 = −1) = = P(X 1 = −1)P(X 3 = 1)
4
(ensemble des numéros des cases).
1
Notons Ω l’ensemble de ces applications. P(X 1 = 1, X 3 = −1) = P(X 1 = 1, X 2 = −1) = = P(X 1 = 1)P(X 3 = −1)
On a donc : card Ω = 3n . 4
Les boules vont se "ranger aléatoirement dans les trois compartiments", donc il y a équiprobabilité sur Ω. 1
P(X 1 = −1, X 3 = −1) = P(X 1 = −1, X 2 = 1) = = P(X 1 = −1)P(X 3 = 1)
(a) L’événement (X = 2) correspond aux applications dont les images se concentrent sur le même élément de 4
Donc X 1 ⊥
⊥ X 3 et par symétrie, X 2 ⊥ ⊥ X3.
J1, 3K, c’est-à-dire aux applications constantes.
3 1 Pourtant, elles ne sont pas (mutuellement) indépendantes :
Donc P (X = 2) = = .
3n 3n−1 1 1
(b) Comptons à présent le nombre d’applications correspondant à l’événement (X = 1), c’est-à-dire le nombre P(X 1 = 1, X 2 = 1, X 3 = 1) = P(X 1 = 1, X 2 = 1) = 6= .
4 8
d’applications dont l’ensemble des images est constitué de deux éléments exactement.
On a 3 possibilités pour choisir l’élément de J1, 3K qui n’a pas d’antécédent et ensuite, chaque fois, il faut
compter le nombre d’applications de J1, n K vers les deux éléments restants de J1, 3K, en excluant bien sûr les
deux applications constantes.
5
CCINP 98 Une secrétaire effectue, une première fois, un appel téléphonique vers n correspondants distincts.
On obtient donc 2n − 2 applications. On admet que les n appels constituent n expériences indépendantes et que, pour chaque appel, la probabilité
3 × (2n − 2) 1 d’obtenir le correspondant demandé est p (p ∈ ]0, 1[).
D’où P (X = 1) = = n−1 (2n − 2).
3n 3 Soit X la variable aléatoire représentant le nombre de correspondants obtenus.
¡ 1 ¢n−1 ¡ 1 ¢n−1 n
Enfin, comme dans la méthode précédente, P (X = 0) = 1−P (X = 2)−P (X = 1) donc P (X = 0) = 1− 3 − 3 (2 − 2). 1. Donner la loi de X . Justifier.
2. La secrétaire rappelle une seconde fois, dans les mêmes conditions, chacun des n − X correspondants qu’elle
µ ¶n−1 µ ¶n−1
1 1 n’a pas pu joindre au cours de la première série d’appels. On note Y la variable aléatoire représentant le
3. (a) E (X ) = 0P (X = 0) + 1P (X = 1) + 2P (X = 2) = (2n − 2) + 2 . nombre de personnes jointes au cours de la seconde série d’appels.
µ ¶n 3 3
2 (a) Soit i ∈ J0, n K. Déterminer, pour k ∈ N, P (Y = k|X = i ).
Donc E (X ) = 3 .
3 (b) Prouver que Z = X + Y suit une loi binomiale dont on déterminera Ãle paramètre.
µ ¶n
2
!Ã ! Ã !Ã !
(b) D’après 3.(a), lim E (X ) = lim 3 = 0. n −i n k n
n→+∞ n→+∞ 3 Indication : on pourra utiliser, sans la prouver, l’égalité suivante : = .
k −i i i k
Quand le nombre de boules tend vers +∞, en moyenne aucun des trois compartiments ne restera vide.
(c) Déterminer l’espérance et la variance de Z .
k
X k
X Y = 5X − 15, donc E (Y ) = 5E (X ) − 15 = 5 − 15 = −10.
(b) Z (Ω) = J0, n K et ∀k ∈ J0, n K P (Z = k) = P (X = i ∩ Y = k − i ) = P (Y = k − i |X = i )P (X = i ).
i =0 i =0 4
Ã
k n −i n
!Ã ! De même, Y = 5X − 15, donc V (Y ) = 25V (X ) = 25 × = 20.
5
p k (1 − p)2n−k−i .
X
Soit k ∈ J0, n K. D’après les questions précédentes, P (Z = k) = 2. Dans cette question, le joueur tire successivement, sans remise, 5 boules dans cette urne.
i =0 k − i i
(a) Comme les tirages se font sans remise, on peut supposer que le joueur tire les 5 boules dans l’urne en
à !à ! à !à !
n −i n k n
Or, d’après l’indication, = . une seule fois au lieu de les tirer successivement. Cette supposition ne change pas la loi de X .
k −i i i k
k
à !à ! à ! à !
k k µ 1 ¶i
X (Ω) = J0, 2K.
X k n k n k
p (1 − p)2n−k−i = p (1 − p)2n−k Notons A l’ensemble dont les éléments sont les 10 boules initialementà dans
! l’urne.
X
Donc P (Z = k) = .
i =0 i k k i =0 i 1−p 10
à ! ¶k à ! Ω est constitué de toutes les parties à 5 éléments de A . Donc card Ω = .
n k
µ
2−p n ¡ ¢k ¡ ¢n−k 5
Donc d’après le binôme de Newton, P (Z = k) = p (1 − p)2n−k = p(2 − p) (1 − p)2 .
k 1−p k
2
On vérifie que 1 − p(2 − p) = (1 − p) et donc on peut conclure que : Soit k ∈ J0, 2K.
L’événement
à ! (X = k) est réalisé lorsque le joueur tire k boules blanches
! et (5 − k) boules noires dans l’urne.
Z suit une loi binomiale de paramètre (n, p(2 − p)). Ã
2 8
Remarque : preuve (non demandée dans l’exercice) de l’égalité proposée dans l’indication : Il a donc possibilités pour le choix des boules blanches et possibilités pour le choix des boules
à !à ! à !à ! k 5−k
n −i n (n − i )! n! n! k! n! k n noires.
= = = = .
à ! à !
k −i i (n − k)! (k − i )! i ! (n − i )! (k − i )! (n − k)! i ! (k − i )! i ! k! (n − k)! i k 2 8
×
k 5−k
(c) D’après le cours, comme Z suit une loi binomiale de paramètre (n, p(2 − p)), alors, E (Z ) = np(2 − p) et Donc : ∀ k ∈ J0, 2K, P (X = k) = Ã ! .
V (Z ) = np(2 − p) 1 − p(2 − p) = np(2 − p)(p − 1)2 .
¡ ¢ 10
5
Soit n ∈ N∗ .
m−1 m−1 1 − qm
Donc P (U = m) = p 2 q 2m + 2p 2 q n+m = p 2 q 2m +2p 2 q m q n = p 2 q 2m +2p 2 q m = p 2 q 2m +2pq m (1−q m )
X X
P (Y > n) = P ((X 1 > n) ∩ · · · ∩ (X N > n)) n=0 n=0 1−q
N
Y Donc P (U = m) = pq m (pq m + 2 − 2q m ).
Donc P (Y > n) = P (X i > n) car les variables X 1 , · · · , X N sont mutuellement indépendantes. Deuxième cas : m = 0
i =1
N D’après (∗) et 1., P (U = 0) = P ((U = 0) ∩ (V = 0)) = p 2 .
q n = q nN .
Y
Donc P (Y > n) = Bilan : ∀ m ∈ N, P (U = m) = pq m (pq m + 2 − 2q m ).
i =1
Or P (Y 6 n) = 1 − P (Y > n)
donc P (Y 6 n) = 1 − q nN . 3. W (Ω) = N∗ .
Calcul de P (Y = n) : Soit n ∈ N∗ .
Premier cas : si n > 2. P (W = n) = P (V = n − 1) = pq 2(n−1) (1 + q) = (1 − q)q 2(n−1) (1 + q).
¡ ¢n−1
P (Y = n) = P (Y 6 n) − P (Y 6 n − 1). Donc P (W = n) = (1 − q 2 ) q 2 .
Donc P (Y = n) = q (n−1)N (1 − q N ). Donc W suit une loi géométrique de paramètre 1 − q 2 .
Deuxième cas : si n = 1. 1 q2
Donc, d’après le cours, E (W ) = . Donc E (V ) = E (W − 1) = E (W ) − 1 = .
P (Y = n) = P (Y = 1) = 1 − P (Y > 1) = 1 − q N . 1 − q2 1 − q2
Conclusion : ∀n ∈ N∗ , P (Y = n) = q (n−1)N (1 − q N ). 4. P ((U = 0) ∩ (V = 1)) = 0 et P (U = 0)P (V = 1) = p 3 q 2 (1 + q) 6= 0. Donc U et V ne sont pas indépendantes.
(b) D’après 2.(a), ∀n ∈ N∗ , P (Y = n) = q (n−1)N (1 − q N ). Ã ! Ã !
+∞
10 CCINP 111 On admet, dans cet exercice, que ∀q ∈ N,
¢n−1 k k−q X k k−q 1
C’est-à-dire ∀n ∈ N∗ , P (Y = n) = 1 − (1 − q N ) (1 − q N ).
¡ X
x converge et ∀x ∈ ]−1, 1[, x = .
On en déduit que Y suit une loi géométrique de paramètre 1 − q N . k >q q k=q q (1 − x)q+1
1
Donc, d’après le cours, Y admet une espérance et E (Y ) = . Soit p ∈ ]0, 1[.
1 − qN Soit (Ω, A , P ) un espace probabilisé.
Soit X et Y deux variables aléatoires définies sur (Ω, A , P ) et à valeurs dans N.
On suppose que la loi de probabilité du couple (X , Y ) est donnée par
9
CCINP 106 X et Y sont deux variables aléatoires indépendantes et à valeurs dans N. Elles suivent la même loi à ! µ ¶n
n 1 p(1 − p)n
définie par ∀ k ∈ N, P (X = k) = P (Y = k) = pq k où p ∈ ]0, 1[ et q = 1 − p . si k 6 n
2
∀ (k, n) ∈ N , P ((X = k) ∩ (Y = n)) = k 2
On considère alors les variables U et V définies par U = sup(X , Y ) et V = inf(X , Y ).
0 sinon
1. Déterminer la loi du couple (U ,V ).
1. Vérifier qu’il s’agit bien d’une loi de probabilité.
2. Déterminer la loi marginale de U .
2. (a) Déterminer la loi de Y .
On admet que V (Ω) = N et que, ∀ n ∈ N, P (V = n) = pq 2n (1 + q).
(b) Prouver que 1 + Y suit une loi géométrique.
3. Prouver que W = V + 1 suit une loi géométrique. En déduire l’espérance de V .
(c) Déterminer l’espérance de Y .
4. U et V sont-elles indépendantes ?
3. Déterminer la loi de X .
Solution de 9 : CCINP 106 Solution de 10 : CCINP 111
1. (U ,V )(Ω) = (m, n) ∈ N2 tel que m > n . Soit (m, n) ∈ N2 tel que m > n . 1. On remarque que ∀ (k, n) ∈ N2 , P ((X = k) ∩ (Y = n)) > 0.
© ª
Premier cas : si m = n
(X , Y )(Ω) = (k, n) ∈ N2 tel que k 6 n .
© ª
P ((U = m) ∩ (V = n)) = P ((X = n) ∩ (Y = n)) = P (X = n)P (Y = n) car X et Y sont indépendantes.
2
Donc P ((U = m) ∩ (V = n)) = p 2 q 2n . Posons ∀ (k, n) ∈ N , p k,n = P ((X = k) ∩ (Y = n)).
Deuxième cas : si m > n ∀n ∈ N,
X
p k,n converge (car un nombre fini de termes non nuls).
P ((U = m) ∩ (V = n)) = P ([(X = m) ∩ (Y = n)] ∪ [(X = n) ∩ (Y = m)]) k >0
à ! à ! µ ¶
Les événements ((X = m) ∩ (Y = n)) et ((X = n) ∩ (Y = m)) sont incompatibles donc : +∞ n n µ 1 ¶n µ ¶n
1 n n 1 n
p(1 − p)n = p(1 − p)n p(1 − p)n 2n = p(1 − p)n .
X X X
P ((U = m) ∩ (V = n)) = P ((X = m) ∩ (Y = n)) + P ((X = n) ∩ (Y = m)). Et p k,n = =
k=0 k=0 k 2 2 k=0 k 2
Or les variables X et Y suivent la même loi et sont indépendantes donc : De plus,
X
p(1 − p)n = p
X
(1 − p)n converge (série géométrique convergente car (1 − p) ∈ ]0, 1[).
P ((U = m) ∩ (V = n)) = 2P (X = m)P (Y = n) = 2p 2 q n+m . n >0 n >0
2 2n
p q si m = n +∞ +∞ 1
Bilan : P ((U = m) ∩ (V = n)) = 2p 2 q n+m si m > n p(1 − p)n = p (1 − p)n = p
X X
Et = 1.
0 sinon n=0 n=0 1 − (1 − p)
Donc on définit bien une loi de probabilité.
11 CCINP 103
¡ ¢k
λp
= e−λp
k!
Remarque : les questions 1. et 2. sont indépendantes.
Soit (Ω, A , P ) un espace probabilisé.
Ainsi X P (λp).
1. (a) Soit (λ1 , λ2 ) ∈ (]0, +∞[)2 .
Soit X 1 et X 2 deux variables aléatoires définies sur (Ω, A , P ).
12 CCINP 108 Soient X et Y deux variables aléatoires définies sur un même espace probabilisé (Ω, A , P ) et à
On suppose que X 1 et X 2 sont indépendantes et suivent des lois de Poisson, de paramètres respectifs λ1
et λ2 .
valeurs dans N.
Déterminer la loi de X 1 + X 2 .
On suppose que la loi du couple (X , Y ) est donnée par :
(b) En déduire l’espérance et la variance de X 1 + X 2 . 1
∀ (i , j ) ∈ N2 , P ((X = i ) ∩ (Y = j )) =
2. Soit p ∈ ]0, 1]. Soit λ ∈ ]0, +∞[. e 2i +1 j !
Soit X et Y deux variables aléatoires définies sur (Ω, A , P ). 1. Déterminer les lois de X et de Y .
On suppose que Y suit une loi de Poisson de paramètre λ. 2. (a) Prouver que 1 + X suit une loi géométrique et en déduire l’espérance et la variance de X .
On suppose que X (Ω) = N et que, pour tout m ∈ N, la loi conditionnelle de X sachant (Y = m) est une loi (b) Déterminer l’espérance et la variance de Y .
binomiale de paramètre (m, p).
3. Les variables X et Y sont-elles indépendantes ?
Déterminer la loi de X .
4. Calculer P (X = Y ).
Solution de 11 : CCINP 103
Solution de 12 : CCINP 108
1. (a) X 1 (Ω) = N et X 2 (Ω) = N donc (X 1 + X 2 )(Ω) = N. 1
n 1. ∀ (i , j ) ∈ N2 , P ((X = i ) ∩ (Y = j )) = .
Soit n ∈ N. (X 1 + X 2 = n) = ((X 1 = k) ∩ (X 2 = n − k)) (union d’évènements deux à deux disjoints). e 2i +1 j !
S
k=0 X (Ω) = N.
Soit i ∈ N.
X 1 1 X 1 +∞
X 1 1
i +1 j !
= converge et = i +1 .
j >0 e 2 e 2i +1 j >0 j ! j =0 e 2
i +1 j ! 2
+∞
X +∞
X 1 1 +∞X 1 1
Or P (X = i ) = P ((X = i ) ∩ (Y = j )) donc P (X = i ) = i +1
= i +1 = i +1 .
j =0 j =0 e2 j ! e2 j =0 j ! 2
à ! à !
+∞
13 CCINP 96 On admet, dans cet exercice, que : ∀q ∈ N,
X k k−q X k k−q 1 Solution de 14 : CCINP 97
x converge et ∀x ∈ ]−1, 1[, x = .
X xn
k >q q k=q q (1 − x)q+1 +∞ xn
On rappelle que ∀x ∈ R, = ex .
X
converge et
n! n=0 n!
Soit p ∈ ]0, 1[ et r ∈ N∗ .
1. Y (Ω) = N.
On dépose une bactérie dans une enceinte fermée à l’instant t = 0 (le temps est exprimé en secondes). Soit k ∈ N. µ ¶ j +k
On envoie un rayon laser par seconde dans cette enceinte. 1
Le premier rayon laser est envoyé à l’instant t = 1. +∞ +∞ ( j + k)
X ¡ ¢ X 2
La bactérie a la probabilité p d’être touchée par le rayon laser. P (Y = k) = P (X , Y ) = ( j , k) = .
j =0 j =0 e j ! k!
Les tirs de laser sont indépendants. µ ¶ j +k µ ¶k+1 µ ¶ j −1 µ ¶ j +k
La bactérie ne meurt que lorsqu’elle a été touchée r fois par le rayon laser. 1 1 1 1
Soit X la variable aléatoire égale à la durée de vie de la bactérie. X j 2 2 X 2 X j 2
Or, = donc converge et
j >0 e j ! k! e k! j >1 ( j − 1)! j >0 e j ! k!
1. Déterminer la loi de X .
µ ¶ j +k µ ¶k+1 µ ¶ j −1 µ ¶k+1 µ ¶k+1
2. Prouver que X admet une espérance et la calculer. 1 1 1 1 1
+∞ j +∞
2 2 X 2 2 1 2
(?)
X
= = e2 = p (∗).
Solution de 13 : CCINP 96 j =0 e j ! k! e k! j =1 ( j − 1)! e k! k! e
Solution de 16 : CCINP 100 On en déduit R X > 1 et aussi [−1, 1] ⊂ D G X . Au surplus, pour tout t dans [−1, 1], le théorème du transfert
+∞
assure que la variable aléatoire t X admet une espérance et E (t X ) = t n P (X = n) = G X (t ). G X est la
X
1 1 1 n=0
1. On obtient R(x) = − + . fonction génératrice de X .
2x x + 1 2(x + 2)
2. Soit N ∈ N .
∗
à ! (b) Soit k ∈ N.
N µ 1 1 1
¶
1 XN 1 NX
+1 1 1 NX
+2 1
G X est la somme d’une série entière de rayon de convergence R X > 1.
P (X 6 N ) = λ =λ
X
− + − +
n=1 2n n + 1 2(n + 2) 2 n=1 n n=2 n 2 n=3 n Donc, d’après le cours, G X est de classe C ∞ sur ]−1, 1[ ⊂ ]−R X , R X [.
µ ¶ +∞ n!
1 1 1 1 1 1
De plus, ∀ t ∈ ]−1, 1[, G (k) t n−k P (X = n).
X
Et donc, après télescopage, P (X 6 N ) = λ + − − + + c’est-à-dire : X
(t ) =
µ ¶ 2 4 2 N + 1 2(N + 1) 2(N + 2) n=k (n − k)!
1 1 1 G (k) (0)
P (X 6 N ) = λ − + . (*) En particulier, G (k) (0) = k!P (X = k) et donc P (X = k) = X
4 2(N + 1) 2(N + 2) X k! .
Or lim P (X 6 N ) = 1. 2. (a) On suppose que X suit une loi de Poisson de paramètre λ.
N 7→+∞
Donc d’après (*), λ = 4. λn X (λt )n
∀t ∈ R, t n P (X = n) = t n e−λ
= e−λ converge (série exponentielle) et donc D G X = R.
X X
4 4 4 n! n!
X (λt )n
+∞
X X
3. nP (X = n) = converge car au voisinage de +∞, ∼ . −λ λt λ(t −1)
n >1 n >1 (n + 1)(n + 2) (n + 1)(n + 2) +∞ n 2 De plus, ∀t ∈ R, G X (t ) = e −λ
=e e =e .
n=0 n!
Donc X admet une espérance.
n n n µ 1 ¶ Ã
n n+1
! (b) On suppose que X et Y sont indépendantes et suivent des lois de Poisson de paramètres respectifs λ1 et
4 1 1 X 1 4
De plus, ∀n ∈ N∗ , S n = λ2 .
X X X X
kP (X = k) = =4 − =4 − = 2− .
k=1 k=1 (k + 1)(k + 2) k=1 k + 1 k +2 k=1 k + 1 k=2 k + 1 n +2 D G X = D G Y = R et, si on pose Z = X + Y , alors [−1, 1] ⊂ D G Z .
n
Donc lim
X
kP (X = k) = 2 et E (X ) = 2. Alors, ∀ t ∈ [−1, 1], G Z (t ) = E (t X +Y ) = E (t X t Y ) = E (t X )E (t Y ) car X et Y sont indépendantes et donc, d’après
n7→+∞
k=1 le cours, t X et t Y sont indépendantes.
4. Comme E (X ) existe, X admettra une variance à condition que X 2 admette une espérance. Donc, d’après 2.(a), G Z (t ) = eλ1 (t −1) eλ2 (t −1) = e(λ1 +λ2 )(t −1) .
4n On reconnaît la fonction génératrice d’une loi de Poisson de paramètre λ1 + λ2 .
n 2 P (X = n) =
X X
.
n >1 (n + 1)(n + 2)
n >1 Donc, d’après 1.(b), comme Z a la même fonction génératrice qu’une loi de Poisson de paramètre λ1 + λ2 ,
4n 4 X 1 alors Z = X + Y suit une loi de Poisson de paramètre λ1 + λ2 .
Or, au voisinage de +∞, ∼ et diverge (série harmonique).
(n + 1)(n + 2) +∞ n n >1 n
X 2
Donc n P (X = n) diverge.
n >1
Donc X 2 n’admet pas d’espérance et donc X n’admet pas de variance.
17 CCINP 110
Soit (Ω, A , P ) un espace probabilisé.
définie sur (Ω, A , P ) et à valeurs dans N.
1. Soit X une variable aléatoire X
On considère la série entière t n P (X = n) de variable réelle t .
On note R X son rayon de convergence.
Pour tout réel t fixé de [−1, 1], exprimer G X (t ) sous forme d’une espérance.
(b) Soit k ∈ N. Exprimer, en justifiant la réponse, P (X = k) en fonction de G (k)
X
(0).
2. (a) On suppose que X suit une loi de Poisson de paramètre λ.
Déterminer D G X et, pour tout t ∈ D G X , calculer G X (t ).
(b) Soit X et Y deux variables aléatoires définies sur un même espace probabilisé, indépendantes et suivant
des lois de Poisson de paramètres respectifs λ1 et λ2 .
Déterminer, en utilisant les questions précédentes, la loi de X + Y .
(Ω, A , P). On suppose que X , Y , Z , T suivent toutes une loi uniforme sur {−1, 1}. On pose
1 X
µ
Y
¶ 19 Loi binomiale ; loi de Poisson et gestion de stock
M=p Le nombre de clients arrivant dans un magasin pendant une journée de vente étant supposé suivre une loi de
2 Z T
Poisson 1 de paramètre λ.
1. (a) Calculer E(det(M )). Un client achète un article A avec probabilité p (il en achète au plus un).
(b) Justifier que les variables aléatoires det(M ) et − det(M ) suivent la même loi. Le stock d’articles A à l’ouverture du magasin est de s > 1 articles.
On veut calculer la loi du nombre total T d’articles demandés en une journée et la probabilité qu’il n’y ait pas
(c) Calculer V(det(M )). rupture de stock de l’article A durant cette journée.
2. (a) Calculer la probabilité pour que M soit une matrice orthogonale. On modélise la situation de la manière suivante : on se donne une variable aléatoire N , représentant le nombre
(b) Calculer la probabilité pour que M soit une matrice inversible. de clients entrant dans le magasin durant la journée, et une suite de variables aléatoires (X n )n∈N∗ , toutes définies
sur le même espace de probabilité (Ω, A , P), représentant la décision d’achat du n e client : X n = 1 s’il achète, X n = 0
(c) Calculer la probabilité pour que M soit une matrice diagonalisable.
sinon. On suppose toutes ces variables aléatoires indépendantes.
On suppose que la loi de N est la loi de Poisson P (λ) et que, pour tout n ∈ N∗ , la variable aléatoire X n suit une
Solution de 18 : loi de Bernoulli de paramètre p .
N
X
1
µ ¶
E(X )E(T ) − E(Y )E(Z ) Le nombre total d’articles demandés en une journée est la variable aléatoire T définie par T = 1(N >1) Xj.
1. (a) E(det(M )) = E (X T − Y Z ) = = 0 par linéarité et indépendance. j =1
2 2
On demande la loi de T et la probabilité P(T 6 s).
(b) On vérifie que det(M )(Ω) = {0, −1, 1} et la définition de l’espérance (nulle) donne alors le résultat.
Ou alors on vérifie que P(det M = 1) = P(X T = 1, Z Y = −1) et P(det M = 1) = P(X T = −1, Z Y = 1) et les Solution de 19 : Loi binomiale
à ; loi de Poisson
! et gestion de stock
probabilités sont égales pour des raisons de symétrie. n
X
X j = 0 donne P(T = 0) = e−λp .
G
(T = 0) = (N = 0) t N = n,
Ou alors on voit que − det(M ) est la variable aléatoire obtenue en changeant X en −X et Z en −Z ce qui n >1 j =1
ne change pas la loi car −X , Y , −Z , T sont indépendantes et de même loi uniforme que X , Y , Z , T . Ã
X n
!
(λp)k X n
X j = k donne P(T = k) = e−λp
G
¢ 1 1 1 Puis (T = k) = N = n, car X j suit une loi binomiale de paramètre
(c) Vu la première question, V(det(M )) = E det(M )2 = (1 − E(X Y Z T )) = (1 − E(X )E(Y )E(Z )E(T )) = par k!
¡
n >1 j =1 j =1
2 2 2 (n, p).
indépendance. s (λp)k
X
2. (a) P(T 6 s) = e−λp .
k=0 k!
P(M ∈ O (2)) = P X 2 + Z 2 = Y 2 + T 2 = 1, X Y + Z T = 0 = P (X Y + Z T = 0)
¡ ¢
20 ...suite Le nombre de clients arrivant dans un magasin pendant une journée de vente étant supposé suivre une
= P(X Y = 1, Z T = −1) + P(X Y = −1, Z T = 1)
= 2P(X Y = 1, Z T = −1) par symétrie loi de Poisson de paramètre λ > 0.
= 2P(X Y = 1)P(Z T = −1) par lemme des coalition 1 1 1
Les probabilités respectives pour chaque client d’acheté zéro, un ou deux articles A sont , et .
6 2 3
Le nombre d’articles en question achetés pendant une journée est une variable aléatoire S . On étudie la loi de S
1 1 grâce à son fonction génératrice.
avec P(X Y = 1) = P(X = 1)P(Y = 1) + P(X = −1)P(Y = −1) = et P(Z T = −1) = par symétrie. On modélise la situation de la manière suivante : on se donne une variable aléatoire N , représentant le nombre
2 2
1 de clients entrant dans le magasin durant la journée, et une suite de variables aléatoires (X n )n∈N∗ , toutes définies sur
Finalement, P(M ∈ O (2)) = . le même espace de probabilité (Ω, A , P), la loi de N est la loi de Poisson P (λ) et X n représente le nombre d’achats
2
1 1 1 1
(b) P(M ∈ G L 2 (R)) = P(det M = 1) + P(det M = −1) = 2P(det M = 1) = 2P(X T = −1, Z Y = 1) = par symétrie vu d’article A du n e client de loi P(X n = 0) = , P(X = 1) = et P(X = 2) = .
2 6 2 3
N
le calcul précédent. X
On définit enfin T = 1(N >1) Xj.
(c) χM (λ) = λ2 − tr(M )λ + det M . j =1
1 1. Calculer la fonction génératrice G T de la variable aléatoire T , en tout t ∈ [−1, 1].
1er cas X T = 1 et Y Z = 1 : χM (λ) = λ2 ± p λ scindé simple donc M est diagonalisable.
2 2. En déduire la probabilité P(T = 3) et la calculer numériquement pour λ = 6.
1
2e cas X T = 1 et Y Z = −1 : χM (λ) = λ2 ± p λ + 1 à discriminant < 0 : M est diagonalisable dans C mais 3. Justifier l’existence de l’espérance E(S) et de la variance V(S) et donner leur valeur. Les calculer numérique-
2 ment pour λ = 6.
pas dans R.
3e cas X T = −1 et Y Z = 1 : χM (λ) = λ2 − 1 scindé simple donc M est diagonalisable. Solution de 20 : ...suite
4e cas X T = −1 et Y Z = −1 : χM (λ) = λ2 donc M n’est pas diagonalisable car non nulle.
1 3 1. G T (t ) = G N (G X 1 (t )) = exp(λ(−5/6 + t /2 + t 2 /3)) après un Fubini élaboré : sce (N = n), puis Fubini, puis G S n = G nX 1
Finalement, la probabilité que M soit diagonalisable est dans R et dans C.
2 4 après avoir mis (N = 0) à part...
Autre raisonnement possible :
• Si Y = Z , la matrice symétrique réelle est diagonalisable cela arrive à probabilité P (Y Z = 1) = 1/2. 1. Cohérent avec l’approximation des lois binomiales par des lois de Poisson vue en cours.
Soit (X n )n∈N∗ une suite de variables aléatoires définies sur l’espace probabilisé (Ω, A , P), indépendantes, de V(aX + b) = a 2 V(X )
n
X
même loi géométrique sur N∗ de paramètre p . Pour tout n ∈ N∗ , on définit la variable aléatoire S n par S n = Xj. 4. Si X et Y sont deux éléments de L 2 , X non constante, déterminer la projection orthogonale de X sur
j =1 {aY + b ; (a, b) ∈ R2 }. Calculer la distance de X a ce plan.
1. Calculer la loi de la variable aléatoire S 2 . 5. Si X et Y sont deux éléments de L 2 , on définit leur coefficient de corrélation linéaire :
! Ã Ã !
j −1 k−1
X k −1
2. Montrer que pour 0 < n < k , = . Cov(X , Y )
j =n n − 1 n ρ(X , Y ) =
à à !! σ(X )σ(Y )
k−1
X k−1 X j −1
On pourra par exemple introduire P (x) = xn . Montrer que ρ(X , Y ) ∈ [−1, 1]. Quand ce coefficient est-il égal à ±1 ?
n=1 j =n n − 1
6. Soit X , Y deux éléments de L 2 . On note
3. Calculer par récurrence la loi de la variable aléatoire S n .
( )
4. On joue à Pile ou Face ; on note Tk le numéro du k -ième tirage Pile. Déterminer la loi de T (loi binomiale
F = Z ∈ L 2 ; ∃(a x )x∈X (Ω) ∈ R X (Ω)
X
Z= a x 1(X =x)
négative). Combien vaut l’espérance de T ? x∈X (Ω)
La loi géométrique donne le temps d’attente de la première occurrence d’un événement ; la loi que l’on vient
de trouver, dite « loi binomiale négative », donne le temps d’attente de la k e occurrence de cet événement. déterminer, s’il existe, le projeté orthogonal de Y sur F (on suppose, pour tout x , P(X = x) 6= 0).
On notera L 2 l’ensemble des variables aléatoires réelles sur (Ω, A , P) qui admettent un moment d’ordre 2. 4. Notons αY + β la projection cherchée. Alors X − αY − β|1 = X − αY − β|Y = 0. Ce qui donne le système
¡ ¢ ¡ ¢
définit un produit scalaire sur cet espace. On remarque que le déterminant est V(Y ), non nul car Y n’est pas constante. Et on trouve
2
2. Si X ∈ L , déterminer le projeté orthogonal de X sur l’espace des variables aléatoires constantes. Déterminer Cov(X , Y ) E(Y 2 )E(X ) − E(Y )E(X Y )
la distance de X à cet espace. α= , β=
V(Y ) V(Y )
Un écolier collectionne des images. Il y a en tout n images différentes. L’écolier achète chaque jour une pochette ;
¡ ¢
y P(X = x)P(Y = y|X = x) x∈X (Ω)
chaque pochette contient une image, qui augmente sa collection d’une unité s’il ne la possédait pas déjà. On suppose ¡ ¢
bien sûr que lorsqu’on achète une pochette, la probabilité d’y trouver l’image i (1 6 i 6 n ) est 1/n . est sommable, de somme y P(Y = y) (formule des probabilités totales). Et la famille y P(Y = y) y∈Y est sommable
1. Supposons que la collection de l’écolier contienne déjà k − 1 images (2 6 k 6 n ). On note L k le nombre de (du fait que Y est d’espérance finie). Il en découle, par sommabilité par paquets, que la famille
pochettes que l’écolier va devoir acheter pour augmenter sa collection d’une unité (et ainsi posséder k images). ¡ ¢
Quelle est la loi de L k ? y P(X = x)P(Y = y|X = x) (x,y)∈X (Ω)×Y (Ω)
2. On note Tn = L 1 + L 2 + . . . + L n le nombre total de pochettes que l’écolier va acheter pour avoir la collection est sommable. Et donc, pour tout x ∈ X (Ω), la famille
complète (pour des raisons évidentes, L 1 désigne la variable aléatoire constante égale à 1). Calculer E(Tn ). En
donner un équivalent quand n → +∞. ¡
y P(X = x)P(Y = y|X = x)
¢
y∈Y (Ω)
2
+∞
X 1 π
3. Calculer V(Tn ), en donner un équivalent. On rappelle 2
= . est sommable, donc aussi la famille
n=1 n 6 ¡ ¢
y P(Y = y|X = x) y∈Y (Ω)
Solution de 24 : Le problème du collectionneur ce qui exprime que la loi conditionnelle de Y sachant X = x est d’espérance finie. Et on a
n −k +1
1. Les achats de pochettes sont supposés indépendants, et un achat est un succès avec la probabilité . Donc
n
X
µ y P(X = x)P(Y = y|X = x) = P(X = x)E(Y |X = x)
n −k +1
¶
L k suit une loi géométrique G . y∈Y (Ω)
n
2. Et donc l’espérance est ce qui permet de dire que la famille (P(X = x)E(Y |X = x))x∈X (Ω) est sommable ; et la formule
n
X n X X
k=1 n − k + 1
P(X = x)E(Y |X = x) =
x∈X (ω) y∈Y (ω)y P(Y =y)
Or
n n n n
X
=
X donne le résultat.
k=1 n − k + 1 j =1 j Si Y n’est pas à valeurs positives, ce qui précède appliqué à |Y | permet d’affirmer que la famille
Un équivalent est donc n ln n . ¡
y P(X = x)P(Y = y|X = x)
¢
(x,y)∈X (Ω)×Y (Ω)
3. Les L k sont considérés deux à deux indépendants. On a
n µ n −k +1
¶
n2 est sommable, Ãon! a le droit de la sommer « dans les deux sens » et on obtient la formule.
= n 2 σn − nHn
X
V (L 1 + · · · + L n ) = 1− r X n
k=1 n (n − k + 1)2 j k (n − j )r −k
k j =1 r (n + 1)
π2 2 P(X = k) = et E(X ) = .
où (σn ) converge vers π2 /6. Un équivalent est donc n . n r +1 2n
6
25 L’espérance via une loi conditionnelle 26 Une autre expression de l’espérance Soit U variable aléatoire à valeurs dans N.
Montrer que U a une espérance finie si et seulement si la famille (P(U > j )) j ∈N∗ est sommable et qu’alors
1. On considère deux variables aléatoires réelles discrètes X et Y sur un espace probabilisé (Ω, A , P) ; on suppose
+∞
que Y est d’espérance finie. Montrer que E(U ) =
X
P(U > j ).
X j =1
E(Y ) = E(Y |X = x)P(X = x)
x∈X (Ω),P(X =x)6=0
ce qui conduit 1. Donner la loi de la longueur L 1 de la première séquence, son espérance et sa variance.
¡ naturellement, pour pouvoir utiliser la théorie de la sommabilité des suites doubles, à introduire la
suite double α j ,k ( j ,k)∈N définie par
¢
α j ,k = P(U = k) si 1 6 j 6 k, α j ,k = 0 sinon On note X i la variable aléatoire égale à 1 si le ième lancer donne Pile, égale à 0 sinon. Comme d’habitude, la
suite (X n )n >1 est une suite de variables aléatoires mutuellement indépendantes, de même loi de Bernoulli
C’est une suite double de réels positifs. On peut donc directement lui appliquer les résultats sur la sommabilité B(p).
« par paquets » sans avoir à mettre des valeurs absolues.
La variable aléatoire L 1 est à valeurs dans N∗ . Par probabilités totales, pour tout n > 1,
α j ,k converge, et sa somme vaut σ j = 0 si j = 0,
X
Remarquons que (paquets à j fixé), pour tout j ∈ N, la série
k >0
+∞ +∞ P (L 1 = n) = P (L 1 = n, X 1 = 0) + P (L 1 = n, X 1 = 1)
σj = α j ,k = α j ,k = P(U > j ) sinon.
X X
= P (X 1 = 0, . . . , X n = 0, X n+1 = 1) + P (X 1 = 1, . . . , X n = 1, X n+1 = 0)
k=0 k= j
α j ,k converge. Et sa somme vaut = (1 − p)n p + p n (1 − p)
X
Remarquons d’autre part (paquets à k fixé) que, pour tout k ∈ N, la série
j >0
+∞ k Ce qui donne, l’espérance étant manifestement finie,
α j ,k = α j ,k = k P(U = k) sinon.
X X
s k = 0 si k = 0, s k =
j =0 j =1 +∞ +∞
n(1 − p)n−1 + p(1 − p) np n−1
X X
Par théorème¡de sommabilité et sommation par paquets, les trois énoncés suivants sont équivalents : E (L 1 ) = p(1 − p)
n=1 n=1
(i) La famille α j ,k ( j ,k)∈N2 est sommable.
¢
µ ¶
1 1
(ii) La série j σ j converge. = p(1 − p) +
P
p 2 (1 − p)2
(iii) La série k s k converge.
P
1−p p
Et le cas échéant (C’est la façon snob classique de dire « si c’est le cas ». Vérifier que vous savez bien conjuguer le = +
+∞ +∞ p 1−p
σj =
X X
verbe échoir à tous les temps, tous les modes. Indication : c’est la même chose que choir), s k (la valeur
j =0 k=0 On est rassuré de voir que cette espérance est symétrique en p et 1 − p , qu’elle est minimale quand p = 1/2
αi , j ). Or l’énoncé (iii) est par définition de l’espérance équivalent
X
commune est la somme de la suite double : (étudier les variations de x + 1/x quand x > 0), qu’elle tend vers l’infini quand p tend vers 0 ou 1. . .
( j ,k)∈N2 Maintenant,
X +∞
X
à « U a une espérance ». Quand U a une espérance, on a donc bien P(U > j ) convergente, et P(U > j ) = E(U ). +∞ +∞
E (L 1 (L 1 − 1)) = p(1 − p)2 n(n − 1)(1 − p)n−2 + p 2 (1 − p) n(n − 1)p n−2
X X
j >1 j =1
Dans le cas contraire, ces deux choses sont aussi égales, à condition de leur attribuer la valeur +∞. n=2 n=2
C’est une question classique et importante, qui demande de bien maîtriser les bases de la sommabilité. Bien
µ ¶
2 2
entendu, si on rencontre dans un problème la formulation « on suppose que U est d’espérance finie, montrer = p(1 − p) (1 − p) 3 + p 3
p (1 − p)
que j P(U > j ) converge et que sa somme vaut E(U ), c’est un peu plus facile à rédiger. Le faire est un très bon
P
1−p 2 p 2
µµ ¶ µ ¶ ¶
entraînement. Notons enfin que cette formule a été admise à l’écrit math 2 des Mines 2015. On peut considérer que =2 +
p 1−p
la démonstration n’en est pas évidente.
27 Pile ou Face : longueur des premières séquences
et donc, V (L 1 ) = 2
µµ
1−p
¶2
+
µ
p
¶2 ¶
+
1−p
+
p
−
µ
1−p
+
p 2
¶
ou, en simplifiant un peu,
On joue à Pile ou Face ; la probabilité d’obtenir Pile est p , celle d’obtenir Face est 1 − p . On appellera séquence p 1−p p 1−p p 1−p
une suite de tirages consécutifs identiques précédés et suivis de tirages différents. Voici deux issues : µ ¶2 ¶2
1−p
µ
p 1−p p
V (L 1 ) = + + + −2
PFFPPPFPFFF ... FFFPFPPFPFPPP ... p 1−p p 1−p
Dans la première issue, la première séquence est P , la seconde est F F . Dans la deuxième issue, la première séquence
est F F F , la seconde est P . 2. Donner la loi de la longueur L 2 de la deuxième séquence, son espérance et sa variance.
1. Donner la loi de la longueur L 1 de la première séquence, son espérance et sa variance.
2. Donner la loi de la longueur L 2 de la deuxième séquence, son espérance et sa variance. Le plus simple est de calculer la loi conjointe de (L 1 , L 2 ), i.e. de calculer
3. Montrer que E(L 1 ) > E(L 2 ) et V(L 1 ) > V(L 2 ). P (L 1 = n, L 2 = m)
4. Calculer Cov(L 1 , L 2 ).
pour tout couple (n, m) ∈ N2∗ , puis d’utiiser les probabilités totales. On peut aussi utiliser le caractère sans
5. Calculer lim P(L 2 = n|L 1 = m)
m→+∞ mémoire de la loi géométrique.
si y > 2, ce qui est vrai. (b) Montrer, en utilisant une inégalité du programme, que
° °
2 ° f °∞
sup ¯B n (x) − f (x)¯ 6 δ(ε) +
¯ ¯
4. Calculer Cov(L 1 , L 2 ). .
x∈[0,1] nε2
Par transfert, on calcule (c) En déduire que la suite de fonctions polynômes B n converge uniformément vers f sur [0, 1].
X
E (L 1 L 2 ) = mnP (L 1 = n, L 2 = m)
(n,m)∈N2∗
Solution de 28 : Théorème de Weierstrass ; polynômes de Bernstein et probabilités (Écrits CCINP)
mn p n (1 − p)m p + (1 − p)n p m (1 − p)
X ¡ ¢
=
(n,m)∈N2∗ 1. C’est B n (x) par la formule de transfert.
mn p n+1 (1 − p)m + (1 − p)n+1 p m 2. (a) C’est une conséquence de l’uniforme continuité de f continue sur le segment [0, 1] (théorème de Heine).
X ¡ ¢
=
(n,m)∈N2∗
³¯ ¯ ´ ³¯ ¯ ´
(b) Soit séparer avec des fonctions indicatrices de ¯ Snn − x ¯ < ε et ¯ Snn − x ¯ 6 ε , soit directement dans l’espé-
¯ ¯ ¯ ¯
1 1 1 1
= (1 − p) 2 p 2 +p (1 − p)2 2 rance...
p (1 − p)2 (1 − p)2 p 1
(c) Prendre ε = p
4
. BIl en dangereux de séparer les limite n → +∞ et ε → 0 pour des problèmes de
n
double-limite ou de dépendance...
(suites doubles produits de deux suites sommables. . .). Donc, après simplifications,
µ
1−p p
¶
1 1
Cov(L 1 , L 2 ) = + −2 +
1−p p p 1−p