Académique Documents
Professionnel Documents
Culture Documents
∀n ∈ N, θn ∈ [0 ; 1[
k−1 n
X(Ω) = {n, n + 1, . . .} et P(X = k) = p (1 − p)k−n
n−1
(b) Exprimer en fonction des termes de Pla suite (θn )n∈N , la probabilité P(T ≥ n).
En déduire la divergence de la série θn . (a) Soit X1 , . . . , Xn des variables aléatoires indépendantes suivant toutes une loi
géométrique de paramètre p.
(c) Inversement, soit (θn )n∈N une suite vériant
Montrer que X1 + · · · + Xn suit une loi binomiale négatives de paramètres n
et p.
∀n ∈ N, θn ∈ [0 ; 1[ et θn diverge
X
(b) En déduire espérance et variance d'un loi binomiale négatives de paramètres
n et p.
Montrer que la suite (θn )n∈N est un taux de panne associé à une certaine
variable aléatoire T .
tirages opérés à l'arrêt du processus. Pour X un ensemble quelconque, on note 1X la fonction indicatrice de X .
Lois usuelles (b) En déduire que T admet une espérance et déterminer celle-ci.
Exercice 22 [ 04126 ] [Correction] Cette dernière hypothèse signie que, durant un laps de temps minime, la
On lance cinq dés. Après ce premier lancer ceux des dés qui ont donné un As probabilité d'arrivée d'au moins deux clients est négligeable devant la probabilité
sont mis de côtés et les autres sont relancés. On procède ainsi jusqu'à l'obtention d'arrivée d'un seul client.
des cinq As . On note T la variable aléatoire déterminant le nombre de lancers (a) Justier que la fonction p0 est décroissante et que
nécessaires.
(a) Calculer P(T ≤ n) pour n ∈ N∗ ∀s, t ∈ R+ , p0 (s + t) = p0 (s)p0 (t)
(b) Montrer que p0 est à valeurs strictement positives et qu'il existe un réel λ ≥ 0 Exercice 27 [ 04056 ] [Correction]
vériant Soient X et Y deux variables aléatoires à valeurs dans N.
∀t ∈ R+ , p0 (t) = e−λt On suppose que la loi conjointe de X et Y vérie
(c) Justier j+k
p1 (t) = + λt + o(t) et ∀n ≥ 2, pn (t) = + o(t) ∀(j, k) ∈ N2 , P(X = j, Y = k) = a avec a ∈ R
t→0 t→0
2j+k
On note Ek l'événement : le pion atteint la case k et uk = P(Ek ). (d) Écrire une fonction Python renvoyant le nombre de descendants masculins à
(b) Décrire l'événement Ek à l'aide des variable aléatoires Sn . la n-ième génération.
(c) Calculer P Ek ∩ {Y1 = j} pour 1 ≤ j ≤ k.
(e) Fixer λ et n. Calculer une moyenne, sur un grand nombre de mesures, du
nombre de descendants masculins. Comparer à E(Zn ).
(d) En déduire
k
X
∀k ∈ N∗ , uk = uk−j fj
j=1
Exercice 39 [ 04943 ] [Correction]
(e) Justier la dénition de (a) Donner le rayon de convergence de la série entière
+∞ X n2 + n + 1
tn
pour t ∈ [0 ; 1]
X
k
u(t) = uk t n!
n≥0
k=0
et montrer que u(t) = 1−f1 (t) . (b) Rappeler le développement en série entière de la fonction exponentielle et
calculer S(t) pour tout réel t convenable.
(f) Calculer u dans le cas où Y1 − 1 suit une loi de Bernoulli de paramètre
p ∈ ]0 ; 1[ et en déduire les uk . Une variable aléatoire X à valeurs dans N vérie GX (t) = λS(t) avec λ > 0.
(g) On suppose que Y1 prend un nombre ni de valeurs et que les entiers k tels (c) Déterminer λ puis P(X = n) pour n ∈ N.
que P(Y1 = k) 6= 0 sont premiers entre eux dans leur ensemble. Montrer que (d) Rappeler les expressions de l'espérance et de la variance à l'aide de la
(uk ) tend vers 1/ E(Y1 ). fonction génératrice et en déduire E(X) et V(X).
(b) On suppose que X et N possèdent une espérance. Montrer que S possède une où l'on convient 0 log 0 = 0.
espérance et la calculer. (a) Vérier que H(X) est un réel positif. À quelle condition celui-ci est-il nul ?
(c) On suppose que X et N ont un moment d'ordre 2. Montrer que S possède un Soient X et Y deux variables aléatoires à valeurs dans des ensembles nis X
moment d'ordre 2 et calculer la variance de S . et Y .
On étudie la transmission du nom de famille au cours des générations dans une (b) On appelle entropie conjointe de X et Y , l'entropie de la variable Z = (X, Y )
société patriarcale. On suppose que le nombre de descendants masculins d'un simplement notée H(X, Y ).
individu suit une loi de Poisson de paramètre λ ∈ ]0 ; +∞[. On note Z0 le nombre On suppose les variables X et Y indépendantes, vérier
d'individus masculins au début de l'étude, Zn le nombre de descendants à la
n-ième génération. On suppose que Z0 = 1. H(X, Y ) = H(X) + H(Y )
(a) Écrire une fonction S(n,p) qui simule une variable aléatoire Sn = Y /n, où Y Exercice 46 [ 04948 ] [Correction]
suit une loi binomiale B(n, p). Soit (Ω, T , P) un espace probabilisé et X une variable aléatoire centrée prenant
En déduire une fonction test(n,p) qui ache les courbes interpolant les ses valeurs dans [−1 ; 1].
points (k, Sk ), puis (a) Montrer que, pour tout x ∈ [−1 ; 1] et tout t ∈ R,
! !
1 1
r r
ln k ln k etx ≤ (1 − x)e−t + (1 + x)et
k, p − et k, p + 2 2
k k
(b) Soit t ∈ R. Montrer que E e existe et
tX
Que remarque-t-on ?
(b) Soit t ∈ R et x ∈ [−1 ; 1]. Montrer que 2
E etX ≤ et /2 .
1 1
etx ≤ (1 − x)e−t + (1 + x)et (c) Soit r > 0. Établir
2 2 2
P X > r ≤ 2e−r /2
(c) On considère une variable aléatoire X telle que |X| ≤ 1 et E(X) = 0. Montrer
que exp(tX) est d'espérance nie et
Exercice 47 [ 04087 ] [Correction]
E exp(tX) ≤ ch t ≤ exp(t2 /2)
Soit X une variable aléatoires réelle discrète admettant une variance σ 2 (avec
σ > 0). Montrer
(d) Soit X1 , . . . , Xn des variables aléatoires centrées indépendantes telles que, 1
pour tout i, |Xi | ≤ ai . On pose ∀α > 0, P |X − E(X)| < ασ ≥ 1 − 2
α
n
X
Sn = Xi
i=1
Montrer !
n
t2 X 2
E exp(tS) ≤ exp a
2 i=1 i
Soit ε > 0. Montrer
n
!
t2 X 2
P(Sn > ε) ≤ exp −tε + a
2 i=1 i
{ω ∈ Ω | N (ω) = n et Xn (ω) = y} On a
[
Y −1 ({y}) =
n∈N ∀n ∈ N, un ≥ 0
et donc [ Vérions aussi (un )Q
n∈N de somme égale à 1.
Y −1 ({y}) = {N (ω) = n} ∩ {Xn (ω) = y} Introduisons Pn = k=0n−1
(1 − θk ). On a
n∈N
est bien élément de la tribu T . n−1
X
ln Pn = ln(1 − θk ) −→ −∞
n→+∞
k=0
Exercice 2 : [énoncé]
En eet, la série des ln(1 − θk ) est divergente à terme négatifs et ce que la
(a) θn est une probabilité donc θn ∈ [0 ; 1]. suite (θn ) tend vers 0 ou non).
Si θn = 1 alors P(T = n) = P(T ≥ n) et donc P(T > n) = 0 ce qu'exclut les On a aussi P0 = 1 et Pn − Pn+1 = un , donc
hypothèses.
n
(b) On a P(T = n) = θn P(T ≥ n) et P(T = n) + P(T ≥ n + 1) = P(T ≥ n) donc X
uk = P0 − Pn+1 −→ 1
n→+∞
P(T ≥ n + 1) = (1 − θn ) P(T ≥ n) k=0
Sachant P(T ≥ 0) = 1, on obtient On peut alors dénir une variable aléatoire T dont la loi vérie
n−1
Y n−1
Y
P(T ≥ n) = (1 − θk ) P(T = n) = un = θn (1 − θk )
k=0 k=0
et donc (c) Puisque le joueur ne peut disputer que n parties, son espérance de gain
devient
k − 1 n+1
P(X1 + · · · + Xn+1 = k) = p (1 − p)k−(n+1) n +∞
!
n X
n
[ 1 1
1 × P(An ) − (2 − 1) P Ak =1− n
− (2n − 1) × n = 0
2 2
Récurrence établie. k=1 k=n+1
+∞ n−1
X 3 +1
+∞ n−1
X 3 +1 puis
N −k k
P(An ) = = +∞
n+1 N 5 pn 1
n=1
2 n=1
2 P(Sn+1 = k) = (1 − pn )N +
k 6 1 − pn 6
p1 =
1
et pn+1 =
1 + 5pn on obtient
6 6 n N XN nk
5 N 5
La résolution de cette relation de récurrence donne P(T > n) = 1 − 1 − = (−1)k−1
6 k 6
n k=1
5
pn = 1 − Par sommation géométrique
6
N
(b) Connaissant la loi de Sn , on peut déterminer directement la probabilité de X N (−1)k−1 6k
E(T ) =
l'événement (Sn = N ) k 6k − 5k
k=1
n N
Numériquement
N N 5
P(Sn = N ) = pn (1 − pn )0 = 1 − −→ 1
N 6 n→+∞ Pour N = 1, E(T ) = 6 (on reconnaît l'espérance d'une loi géométrique)
Pour N = 2, E(T ) = 96/11 ' 8,7.
L'événement On peut même poursuivre un tableau de valeurs
A = il existe n tel que Sn = N N = 3, E(T ) = 10,5
est la réunion croissante des événements (Sn = N ). Par continuité croissante N = 4, E(T ) = 11,9
N = 5, E(T ) = 13,0
P(A) = lim P(Sn = N ) = 1 et les valeurs de l'espérance qui suivent sont 13,9, 14,7, 15,4, . . .
n→+∞
Par conséquent, l'événement +∞ p=1 Ap est presque sûr. Ainsi, il existe presque
S
Nk − 1
E(T ) = sûrement un rang pair en lequel il y a deux succès consécutifs. A fortiori , il
N −1
est presque sûr qu'il existe un rang (pair ou impair) en lequel il y a deux
Notons, même si ce n'est pas l'objet de cet exercice, qu'il est assez facile de succès consécutifs.
justier que le processus s'arrête presque sûrement. Considérons l'événement
(b) Pour n ≥ 2, on souhaite calculer pn = P(T = n).
B = le processus ne s'arrête pas Pour n = 2, l'événement (T = 2) correspond à (X1 = 1, X2 = 1) de
Pour voir que celui-ci est négligeable, on va l'inclure dans un événement (de probabilité p2 .
probabilité plus immédiatement accessible) en regroupant les tirages k par k : Pour n = 3, l'événement (T = 3) correspond à (X1 = 0, X2 = 1, X3 = 1) de
probabilité (1 − p)p2 .
+∞ Pour n ≥ 3, les choses se compliquent quelque peu. Considérons le système
{les tirages de rangs jk + 1, jk + 2, . . . , jk + k ne sont pas tous identiques} complet d'événements
\
B⊂
j=0
(X1 = 0), (X1 = 1, X2 = 0), (X1 = 1, X2 = 1)
Par indépendance et continuité décroissante
J Par la formule des probabilités totales
1 P(T = n) = PX1 =0 (T = n) P(X1 = 0) + PX1 =1,X2 =0 (T = n) P(X1 = 1, X2 =
P(B) ≤ lim 1− =0
J→+∞ N k−1 0) + PX1 =1,X2 =1 (T = n) P(X1 = 1, X2 = 1)
Or Exercice 9 : [énoncé]
PX1 =0 (T = n) = P(T = n − 1) (a) Le jeu dure inniment si, et seulement si, chaque lancer produit face ou
En eet, la première épreuve étant un échec, obtenir deux succès consécutifs bien chaque lancer produit pile . Notons An l'évènement :
au rang n revient maintenant à obtenir deux succès consécutifs au rang n − 1.
Par un argument analogue le n - ième lancer donne face
car les deux succès consécutifs ont été obtenus au rang 2 et qu'ici n ≥ 3. Par continuité décroissante
Finalement, on obtient la relation de récurrence +∞
!
\
P(T = n) = (1 − p) P(T = n − 1) + p(1 − p) P(T = n − 2) P An = lim P (A1 ∩ . . . ∩ An ) = 0
n→+∞
n=1
varier les i1 , . . . , ik sur l'ensemble dénombrable des possibles, (Z = k) se Ainsi, on peut armer
comprend comme une réunion d'événements.
Enn, (Z = +∞) est aussi un événement car c'est le complémentaire de la ∀k ∈ N, P(ZN = k) −→ P(Z = k)
N →+∞
réunion dénombrable des événements (Z = k) pour k parcourant N.
(b) F est le complémentaire de (Z = +∞), c'est bien un événement. Pour tout M ,
M M
F̄ correspond à l'ensemble des ω appartenant à une innité de En . On peut
X X
k P(Z = k) = lim k P(ZN = k)
l'écrire comme l'intersection décroissante k=0
N →+∞
k=0
avec
F̄ = ∩N ∈N ∪n≥N En
M
X +∞
X
Par continuité décroissante k P(ZN = k) ≤ k P(ZN = k)
k=0 k=0
P(F̄ ) = lim P ∪n≥N En N
N →+∞
X
= E(ZN ) = E(1EN )
linéarité
Or X n=0
N +∞
P ∪n≥N En ≤ P(En ) −→ 0 X X
N →+∞ = P(En ) ≤ P(En )
n≥N
n=0 n=0
On peut conclure P(F̄ ) = 0 puis P(F ) = 1.
On a donc
(c) Posons ZN = 1En . Commençons par établir
PN
M +∞
n=0 X X
k P(Z = k) ≤ P(En ) = M
∀k ∈ N, P(ZN = k) −→ P(Z = k) k=0 n=0
N →+∞
Les sommes partielles de la série à termes positifs des k P(Z = k) sont
Soit ε > 0. Il existe un rang N0 tel que pour tout N ≥ N0 bornées, cette série converge.
X
P(En ) ≤ ε
n≥N +1 Exercice 11 : [énoncé]
Posons G l'événement réunion des En pour n ≥ N + 1. Ce qui précède donne (a) import random as rnd
P(G) ≤ ε.
Or def T():
(ZN = k) ∩ Ḡ = (Z = k) ∩ Ḡ n = 0
P = False
et PF = False
while (not PF):
P (ZN = k) = P(ZN = k ∩ G) + P(ZN = k ∩ Ḡ)
| {z } n = n + 1
≤ε x = rnd.random()
P (Z = k) = P(Z = k ∩ G) + P(Z = k ∩ Ḡ) if x < 0.5:
| {z }
≤ε
P = True
elif P:
donc PF = True
else:
P(ZN = k) − P(Z = k) ≤ 2ε
P = False if P:
return n PP = True
P = True
def repete(n): else:
c = 0 P = False
for i in range(n): return n
c = c + T() On conjecture cette fois-ci une espérance égale à 6.
return c/n
(f) q2 est la probabilité de PP et q3 celle de FPP d'où les valeurs proposées. Pour
L'étude numérique amène à conjecturer E(T ) = 4. n ≥ 4, on considère le système complet constitué des événements commençant
(b) Posons A∞ l'événement par F, PF et PP et on obtient par argument de symétrie (quand on a obtenu
Le motif PF n'apparaît pas . F, ceci remet les compteurs à zéro )
L'événement A∞ est exactement la réunion des événements correspondant à 1 1 1
qn = qn−1 + qn−2 + × 0 (1)
une succession de F de longeur k ∈ N suivie exlcusivement de P ainsi que de 2 4 4
l'événement correspondant uniquement à l'obtention de F . L'événement A∞ (g) Commençons par vérier que les An avec n ≥ 2 constituent un système
est alors négligeable car réunion dénombrable d'événements de probabilités complet. Les événements An sont deux à deux incompatibles et la série des qn
nulles 1 . On en déduit que la réunion des Ai , avec i ≥ 2, est un événement converge. En sommant la relation (??) pour n supérieur à 2, on obtient après
presque sûr. glissement d'indice
(c) An est la réunion des congurations commençant par un certain nombre +∞ +∞ +∞
k ∈ N de F puis se poursuivant avec des P au nombre de ` ∈ N∗ tel que
X 1 1 1X 1X
qn = + + qn + qn
k + ` = n − 1 et se poursuivant enn par un F . Chacune de ces congurations n=2
4 8 2 n=3 4 n=2
est de probabilité 1/2n et donc qn = n−1
2n . puis
(d) La suite des nqn est sommable donc T admet une espérance et +∞
X 1 1X
+∞
1X
+∞
qn = + qn + qn
+∞ 4 2 n=2 4 n=2
X (n − 1)n 1 2 n=2
E(T ) = n
= · =4 On en tire que la somme des qn est égale à 1. On peut alors calculer
2 4 (1 − 1/2)3
n=2
l'espérance de T .
(la somme est calculée en dérivant deux fois la série entière géométrique). Pour t ∈ [−1 ; 1], la fonction génératrice de T en t est donnée par
(e) On adapte le code précédent +∞
1 2 1 3 t
t2
t2
(2)
X
GT (t) = qn tn = t + t + GT (t) − + GT (t)
def T(): 4 8 2 4 4
n=2
n = 0
P = False On peut exprimer GT (t) par une fraction rationnelle dénie sur [−1 ; 1],
PP = False celle-ci est dérivable en 1 ce qui assure que T admet une espérance et, par
while (not PP): dérivation de (??),
n = n + 1 t 1 t t t2
x = rnd.random() G0T (t) = + GT (t) + G0T (t) + GT (t) + G0T (t)
2 2 2 2 4
if x < 0.5:
Pour t = 1, on obtient
1. Par exemple, la probabilité de n'obtenir que des F est par continuité décroissante la limite
des probabilités de commencer par n F à savoir 1/2n . Les autres calculs sont analogues et, de 1 1 1 1 1
façon générale, la probabilité d'obtenir un tirage inni précis est nulle. E(T ) = + + E(T ) + + E(T )
2 2 2 2 4
Diusion autorisée à titre entièrement gratuit uniquement - dD
[http://mp.cpgedupuydelome.fr] édité le 27 avril 2017 Corrections 18
avec
n
! n n
Y Y Y
E (λδσ(i),i − mσ(i),i ) = E(λδσ(i),i − mσ(i),i ) = (λδσ(i),i − µ) E (Y − S) = (a − 1)mS + b
i=1 i=1 i=1
et
On en déduit V (Y − S) = V ((a − 1)S + aB + b) = (a − 1)2 σs2 + a2 σB
2
E χM (λ) = χA (λ)
car la covariance de S et B est nulle.
avec A la matrice dont tous les coecients sont égaux à µ. La poursuite des La quantité V(Y − S) est minimale pour
calculs donne
σS2
E χM (λ) = (λ + nµ)λn−1
a=
σS2 + σB2
(b) Soit C = t ccca1 · · · an un vecteur propre de Σ associé à une valeur Exercice 17 : [énoncé]
propre λ. Les variables X et Y sont à valeurs dans N∗ donc X + Y est à valeurs N \ {0, 1}.
On a t CΣC = λt CC = λ kCk2 et, pour X = a1 X1 + · · · + an Xn , V(X) ≥ 0 Pour k ∈ N \ {0, 1}, on a
donc k−1
V(X) X
λ= 2 ≥0 P(X + Y = k) = P(X = `, Y = k − `)
kCk
`=1
Par indépendance
Exercice 16 : [énoncé]
k−1
(a) Le plus ecace est sans doute de raisonner par les fonctions génératrices. On X
P(X + Y = k) = P(X = `) P(Y = k − `)
obtient une loi binomiale de paramètres n et p.
`=1
(b) (U − 1)2 prend les valeurs 0 et 1 avec
Il ne reste plus qu'à dérouler les calculs :
2
1
P (U − 1) = 1 = P(U = 1) = P(X + Y = k) = (k − 1)p2 (1 − p)k−2
2
Les variables (U − 1)2 et (V − 1)2 suivent chacune une loi de Bernoulli de
paramètre 1/2. Par indépendance de U et V , on a aussi celle de (U − 1)2 et Exercice 18 : [énoncé]
(V − 1)2 et donc S suit une loi B(2, 1/2).
(a) Posons
(c) Par indépendance, l'espérance d'un produit est le produit des espérances λn
un = P(X = n) = e−λ
3 3 n!
E S(T − 1) = E (U − 1) E(V − 1) + E(U − 1) E (V − 1) =0
On a
La variable T prend les valeurs 0, 1 et 2. un+1
=
λ
1 un n+1
P(T = 0) = P(U = 0, V = 2) + P(U = 2, V = 0) =
8 donc si n + 1 ≤ λ alors un+1 ≥ un et si n + 1 > λ alors un+1 < un .
et La valeur maximale de un est donc obtenue pour n = bλc.
P(T = 2) = P(U = 0, V = 0) + P(U = 2, V = 2) =
1 (b) Il sut d'étudier les variations de la fonction λ 7→ e−λ λn . La probabilité sera
8 maximale si λ = n.
On en tire P(T = 1) = 3/4.
Par la formule de Huygens
Exercice 19 : [énoncé]
Cov(S, T ) = E(ST ) − E(S) E(T ) Par la formule de transfert
= E S(T − 1) + E(S) − E(S) E(T )
1
+∞
X 1
+∞
p X (1 − p)k
=0+1−1=0 E = (1 − p)k−1 p =
X k 1−p k
k=1 k=1
La covariance nulle ne sut pas à armer l'indépendance de S et T . Or pour x ∈ ]−1 ; 1[
Étudions l'événement (S = 0, T = 0). +∞
1 k
L'événement (S = 0) correspond à (U = 1, V = 1) alors que (T = 0)
X
x = − ln(1 − x)
correspond à (U = 0, V = 2) ∪ (U = 2, V = 0). Ceux-ci sont incompatibles et k=1
k
donc donc
P(S = 0, T = 0) = 0 6= P(S = 0) P(T = 0) 1 p
E = ln p
Les variables S et T ne sont pas indépendantes. X p−1
Exercice 23 : [énoncé]
Exercice 22 : [énoncé] Une matrice de la forme
(a) Distinguons les cinq dés et notons pour chacun X1 , . . . , X5 les variables a 1
aléatoires donnant le nombre de lancers nécessaires avant que le dé 0 b
correspondant ne produise un As . Ces variables aléatoires suivent des lois est diagonalisable si a 6= b (2 valeurs propres distinctes pour une matrice de taille
géométriques indépendantes de paramètre p = 1/6 et T = max(X1 , . . . , X5 ). 2) et ne l'est pas si a = b (1 seule valeur propre et n'est pas une matrice scalaire).
On a La probabilité recherchée n'est donc autre que
(T ≤ n) = (X1 ≤ n) ∩ . . . ∩ (Xn ≤ n)
Par indépendance P(X 6= Y )
Ainsi pq Sachant la fonction f continue, on peut armer que celle-ci est linéaire : il
P (X = Y ) =
p + q − pq
existe a ∈ R tel que
∀t ∈ R+ , f (t) = at
Finalement, la probabilité que la matrice soit diagonalisable vaut
Ainsi,
p + q − 2pq ∀t ∈ R+ , p0 (t) = eat
1 − P(X = Y ) =
p + q − pq
Enn, puisque la fonction p0 est décroissante, le réel a est nécessairement
négatif ce qui permet de l'écrire −λ avec λ ∈ R+ .
Exercice 24 : [énoncé] (c) Par l'hypothèse H5 avec p0 (t) = + 1 − λt + o(t), on obtient
t→0
(a) Pour s ≤ t, l'événement A(0, 0, s) contient l'événement A(0, 0, t) et donc
p0 (s) ≥ p0 (t). p1 (t) + o(p1 (t)) = + λt + o(t)
t→0
Pour s, t ≥ 0, l'événementA(0, 0, s + t) est la conjonction des événements
A(0, 0, s) et A(0, s, s + t). Par conséquent Ainsi p1 (t) ∼ + λt ce qui peut encore s'écrire
t→0
∀t ∈ R+ , f (t) = ln (p0 (t)) p0 (s) = + 1 − λs + o(s), p1 (s) = + λs + o(s) et pk (s) = + o(s) pour k ≥ 2
s→0 s→0 s→0
Exercice 25 : [énoncé]
(a) Pour (n, k) ∈ N2 . Si k ≤ n alors Exercice 27 : [énoncé]
P (X = n, Y = k) = P (X = n) P(Y = k | X = n) (a) La loi conjointe de X et Y déterminant une probabilité
n
−λ λ n k
=e p (1 − p)n−k +∞ X
+∞
n! k X
P (X = j, Y = k) = 1
Si k > n alors P (X = n, Y = k) = 0. j=0 k=0
(b) Pour k ∈ N
Or
+∞
X +∞
X +∞
+∞ X
X
P (Y = k) = P (X = n, Y = k) = P (X = n, Y = k) P (X = j, Y = k) = 8a
n=0 n=k j=0 k=0
Après réorganisation et glissement d'indice car
+∞ X
+∞ +∞
k+∞
(λp) −λ X 1 (λp)k
X j X j 1
P (Y = k) = e (1 − p)n λn = e−λp = = =4
k! n! k! j=0 k=0
2j+k j=0
2j−1 (1 − 1/2)2
n=0
+∞ En simpliant
X k+1 k
P (Y = k) = P (X = j, Y = k) = k+2 1−p 1−p
2 P(X = k) = 1−
j=0 1+p 1+p
(c) Les variables ne sont par indépendantes car l'on vérie aisément (d) Les variables ne sont par indépendantes car l'on vérie aisément
P (X = j, Y = k) 6= P (X = j) P (Y = k) P (X = k, Y = n) 6= P (X = k) P (Y = n)
pour j = k = 0. pour k = n = 0.
(d) Par probabilités totales
+∞ +∞
X X 2n 1 Exercice 29 : [énoncé]
P (X = Y ) = P (X = n, Y = n) = 2n+3
=
2 9
n=0 n=0 (a) T1 suit une loi géométrique de paramètre p.
(b) Notons (Xn )n∈N∗ la suite des variables de Bernoulli testant la réussite de
chaque expérience.
Exercice 28 : [énoncé] L'évènement (Tm = n) est la réunion correspond à l'évènement
(a) La loi conjointe de X et Y déterminant une probabilité X1 + · · · + Xn = m et Xn = 1 soit encore
X1 + · · · + Xn−1 = m − 1 et Xn = 1. Par indépendance
+∞ X
X +∞
P (X = k, Y = n) = 1 P(Tm = n) = P(X1 + · · · + Xn−1 = m − 1) P(Xn = 1)
k=0 k=0
En réordonnant les sommes et en simpliant les zéros Puisque X1 + · · · + Xn−1 ∼ B(n − 1, p) et Xn ∼ B(p), on obtient
+∞ X
n +∞ n−1 m
X X n 1 P(Tm = n) = p (1 − p)n−m
P (X = k, Y = n) = p (2a(1 − p)) = p m−1
n=0 k=0 n=0
1 − (2a(1 − p))
et écriture vaut aussi quand n ≤ m car le coecient binomial est alors nul.
On est donc amené à résoudre l'équation
(c) En exploitant le développement connu de (1 + u)α , on obtient
1 − 2a(1 − p) = p +∞
1 n+m−1 n
t pour t ∈ ]−1 ; 1[
X
=
ce qui conduit à la solution a = 1/2. (1 − t)m m−1
n=0
(b) Pour n ∈ N,
n n
(d) Par dénition
X 1 X n +∞
P(Y = n) = P (X = k, Y = n) = n p(1 − p)n = p(1 − p)n X n−1 m
2 k GTm (t) = p (1 − p)n−m tn
k=0 k=0
n=0
m − 1
En isolant les premiers termes nuls et en décalant l'indexation (b) La fonction génératrice de X est
+∞ p
(pt)m
X n+m−1 n pt p 1−p
GTm (t) = (pt)m ((1 − p) t) = m GX (t) = E(tX ) = = +
n=0
m−1 (1 − (1 − p)t) 1 − (1 − p)t p − 1 1 − (1 − p)t
(r) X
= λr eλ(t−1) (b) G0X (1) = E(X) = λ, G00X (1) = E (X(X − 1)) = λ2 et
GX (t) = E X(X − 1) . . . (X − r + 1)t
GX (1) = E (X(X − 1)(X − 2)) = λ3 .
(3)
En particulier On en déduit
(r) E(X 2 ) = λ2 + λ et E(X 3 ) = λ3 + 3λ2 + λ
GX (1) = E (X(X − 1) . . . (X − r + 1)) = λr
puis
E (X − λ)3 = E(X 3 ) − 3λ E(X 2 ) + 3λ2 E(X) − E(X)3 = λ
Exercice 31 : [énoncé]
(a) Par la formule de transfert
Exercice 33 : [énoncé]
+∞
(a) S1 suit une loi géométrique de paramètre p et
X
E (X(X − 1) . . . (X − r + 1)) = k(k − 1) . . . (k − r + 1)(1 − p)k−1 p
k=r
pt
GS1 (t) =
Or 1 − qt
+∞
dr
X
k−r 1 r!
k(k − 1) . . . (k − r + 1)x = =
dxr 1−x (1 − x)r+1 (b) Sm − Sm−1 suit la même loi géométrique de paramètre p.
k=r
Or les variables aléatoires de cette somme sont indépendantes car la S suit une loi binomiale de paramètre 2n et 1/2 : cela s'explique aisément car
probabilité de l'événement l'expérience de chaque tirage peut être modélisée par deux tirages successifs d'une
pièce équilibrée.
(S1 − S0 = n1 , S2 − S1 = n2 , . . . , Sm − Sm−1 = nm )
On en déduit m Puisque
pt +∞
dn
GSm (t) =
X 1 n!
1 − qt (n + k) . . . (k + 1)xk = =
dxn 1−x (1 − x)n+1
k=0
Puisque
+∞ on obtient a
X m+n−1 GX (t) =
GSm (t) = q n pm tn+m (1 − pt)n+1
n=0
m−1
Sachant GX (1) = 1, on en tire la valeur de a
on obtient
n − 1 n−m m a = (1 − p)n+1
P (Sm = n) = q p pour n ≥ m
m−1
On peut ensuite calculer espérance et variance
p p
Exercice 34 : [énoncé] E(X) = G0X (1) = (n+1) et V(X) = G00X (1)+G0X (1)−G0X (1)2 = (n+1)
1−p (1 − p)2
Notons X1 , . . . , Xn les variables aléatoires fournissant les points obtenus lors des
tirages.
Les variables Xi suivent la même loi de fonction génératrice Exercice 36 : [énoncé]
La fonction génératrice d'une variable Y suivant une loi uniforme sur J2 ; 12K est la
1 2 1
1+t
2 fonction polynomiale
GX (t) = + t + t2 =
4 4 4 2 1 2
t + t3 + · · · + t12
GY (t) =
12
Puisque S = X1 + · · · + Xn avec X1 , . . . , Xn mutuellement indépendantes on a
2n Notons GX1 et GX2 les fonctions génératices de chacun des dés.
1+t
n
GX1 (t) = p1 t + p2 t2 + · · · + p6 t6 et GX2 (t) = q1 t + q2 t2 + · · · + q6 t6
GS (t) = GX1 (t) . . . GXn (t) = (GX (t)) =
2
La fonction génératrice de la somme X1 + X2 est donnée par
En développant la somme
GX1 +X2 (t) = GX1 (t) × GX2 (t) = t2 p1 + p2 t + · · · + p6 t5 q1 + q2 t + · · · + q6 t5
2n
1 X 2n k
GS (t) = t Pour que GY = GX1 GX2 , il faut p1 q1 > 0 et p6 q6 > 0 auquel cas les facteurs de
22n k degré 5 possèdent chacune une racine réelle non nulle. Cependant
k=0
[ en posant u0 = 1.
Ek = (Sn = k) (e) La
P suite uk est une suite de probabilité : elle est bornée et la série entière
n∈N
uk tk est de rayon de convergence au moins égale à 1.
Par produit de Cauchy de série absolument convergentes
+∞ +∞ +∞ X +∞
(c) Si j = k,
X X X X
f (t)u(t) = fi ti uk tk = fi uk tn = un tn = u(t) − 1
i=1 k=0 n=1 i+k=n n=1
P Ek ∩ (Y1 = j) = P(Y1 = k) On en déduit la relation proposée.
(f) Si Y1 suit une loi de Bernoulli
1 1
Si j < k, par incompatibilité des événements (Sn = k) (car les Yi prennent f (t) = (1 − p)t + pt2 et u(t) = =
1 − (1 − p)t − pt2 (1 − t)(1 + pt)
(g) La fonction f est un polynôme qui prend la valeur 1 en 1 : car l'événement (S = m) est la réunion disjointe des événements
(N = n, X1 + · · · + Xn = m). Par indépendance puis réoganisation du calcul
n
X de la somme d'une famille sommable, il vient
f (t) = fi t i
+∞
+∞ X
i=1 X
GS (t) = P(N = n) P(X1 + · · · + Xn = m)tm
Vérions que f (t) − 1 ne possède pas d'autres racines que 1 de module m=0 n=0
inférieur à 1. +∞
X +∞
X
Supposons |t| ≤ 1. Si f (t) = 1, on a par inégalité triangulaire = P(N = n) P(X1 + · · · + Xn = m)tm
n=0 m=0
Xn
X n n +∞
X
i X
1= fi ti ≤ fi t ≤ fi = 1 = P(N = n)GX1 +···+Xn (t)
n=0
i=1 i=1 i=1
n
On en déduit fi |t|i = fi pour tout i compris entre 1 et n. Les indices i tels Enn, par indépendance, GX1 +···+X n (t) = GX1 (t) × · · · × GXn (t) = GX (t)
que les fi sont non nuls étant premiers dans leur ensemble, il vient 2 |t| = 1. et on conclut GS = GN GX (t) .
De plus, par égalité dans l'inégalité triangulaire complexe, les fi ti ont le (b) GN et GX sont dérivables en 1 donc aussi GN ◦ GX et alors S admet une
même argument lorsqu'ils sont non nuls. Aussi, leur somme est égale à 1 et espérance :
on en tire que les ti sont tous égaux à 1. Par le même argument qu'au-dessus,
il vient t = 1. E(S) = G0S (1) = G0X (1) × G0N GX (1) = E(X) E(N )
Exercice 38 : [énoncé] (d) On évite d'écrire lambda qui est un mot clé Python.
2. Si i1 , . . . , ip sont les indices pour lesquels fi 6= 0, il sut d'écrire |t| = |t|i1 u1 +···+ip up avec import random as rnd
u1 , . . . , up entiers tels que i1 u1 + · · · + ip up = 1. import math
et donc
def poisson(l): +∞
x = rnd.random()
X n(n − 1) + 2n + 1 n
S(t) = t
n = 0 n=0
n!
p = math.exp(-l) +∞ +∞ +∞
1 1 1 n
while x > p:
X X X
= tn + 2 tn + t
x = x - p n=2
(n − 2)! n=1
(n − 1)! n=0
n!
n = n + 1 = (t2 + 2t + 1)et = (t + 1)2 et
p = p * l/n
return n (c) GX (1) = 1 détermine λ = e−1 /4. On en déduit
def generation(n,l): n2 + n + 1
P(X = n) =
Z = 1 4e · n!
for k in range(n): (d) Si GX est deux fois dérivable en 1,
S = 0
for z in range(Z): E(X) = G0X (1) et V(X) = G00X (1) + G0X (1) − G0X (1)
2
S = S + poisson(l)
Z = S Ici, on obtient E(X) = 2 et V(X) = 3/2.
return Z
On sépare la somme en deux et l'on somme le résultat sur y ∈ Y pour obtenir Exercice 42 : [énoncé]
X X (a) Soit t ∈ R, on a, avec convergence absolue
P(Y = y)H(X | Y = y) = H(X, Y )+ P(X = x, Y = y) log (P(Y = y))
+∞
y∈Y (x,y)∈X ×Y X λk kt t
MX (t) = e−λ e = eλ(e −1)
k!
Or k=0
Notons (xn )n∈N une énumération des valeurs de X . Pour t ∈ ]−a ; a[ Exercice 43 : [énoncé]
+∞ +∞ Posons
X X X1 + · · · + Xn
MX (t) = P(X = xn )etxn = un (t) X=
n
n=0 n=0
avec Par linéarité de l'espérance
txn
un (t) = P(X = xn )e n n
1X 1X
Par hypothèse, la série de fonctions convergence simplement sur ]−a ; a[. E(X) =
n i=1
E(Xi ) =
n i=1
pi
Les fonctions un sont toutes de classe C ∞ avec
u(k) k txn
n (t) = P(X = xn )xn e
Les variables étant deux à deux indépendantes
Soit α > 0 tel que [−α ; α] ⊂ ]−a ; a[. n
1 X
n
1 X 1
Pour t ∈ [−α ; α], on peut écrire V(X) = 2 V(Xi ) = 2 pi (1 − pi ) ≤
n i=1 n i=1 4n
un (t) ≤ P(X = xn ) xkn eα|xn |
(k)
car x(1 − x) ≤ 1/4 pour tout x ∈ [0 ; 1].
Introduisons ρ ∈ ]α ; a[. On peut écrire En appliquant l'inégalité de Bienaymé-Tchebychev, on écrit
k k
P(X = xn ) |xn | eα|xn | = |xn | e(α−ρ)|xn | × P(X = xn )eρ|xn | V(X)
P (|X − E(X)| ≥ ε) ≤
ε2
D'une part, la fonction t 7→ tk e(α−ρ)t est dénie et continue sur [0 ; +∞[ et de
limite nulle en +∞, elle est donc bornée ce qui permet d'introduire une En passant au complémentaire, on obtient
constante Mk vériant !
X + · · · + X n
k 1 n 1 X 1
∀n ∈ N, |xn | e(α−ρ)|xn | ≤ Mk P − pi < ε ≥ 1 − −→ 1
n n i=1 4nε2 n→+∞
D'autre part,
ce qui permet de conclure.
P(X = xn )eρ|xn | ≤ P(X = xn )eρxn + P(X = xn )e−ρxn
En vertu de la convergence en ±ρ de la série dénissant MX (t), on peut
assurer la convergence de la série positive Exercice 44 : [énoncé]
(a) On sait E(Sn ) = nx et V(Sn ) = nx(1 − x). On en déduit
X
ρ|xn |
P(X = xn )e
La majoration uniforme x(1 − x)
E(Xn ) = x et V(Xn ) =
n
un (t) ≤ Mk P(X = xn )eρ|xn |
(k)
Par l'inégalité de Bienaymé-Tchebychev, on peut armer
donne la convergence normale de sur [−α ; α].
(k)
P
un
Via convergence uniforme sur tout segment, on peut conclure que MX est de V(Xn )
P (|Xn − E(Xn )| > α) ≤
classe C ∞ sur ]−a ; a[. α2
De plus, on a pour tout ordre de dérivation k et avec sommabilité la relation On en déduit
+∞ +∞ x(1 − x) 1
(k)
X X P (|Xn − x| > α) ≤ 2
≤
MX (0) = u(k)
n (0) = xkn P(X = xn ) = E(X ) k nα 4nα2
n=0 n=0 car x(1 − x) ≤ 1/4 pour tout x ∈ [0 ; 1].
(b) Sachant que les valeurs prises par Xn gurent parmi les k/n avec k ∈ J0 ; nK, Exercice 45 : [énoncé]
la formule de transfert donne (a) import random as rnd
n
k k
k
n k import math
avec P Xn =
X
E(Yn ) = f P Xn = = P (Sn = k) = x (1−x)n−k
n n n k
k=0 def S(n,p):
R = 0
Ainsi n
X n for k in range(n+1):
k
Bn (f )(x) = f xk (1 − x)n−k if rnd.random() < p: R = R + 1
k n
k=0 return R/n
La fonction x 7→ Bn (f )(x) est bien une fonction polynôme.
import matplotlib.pyplot as plt
(c) Sachant
k k def test(n,p):
f − f (x) ≤ f + |f (x)| ≤ 2M
n n Lk = range(1,n)
on obtient LS = [S(k,p) for k in Lk]
Linf = [p - math.sqrt(math.log(k)/k) for k in Lk]
Lsup = [p + math.sqrt(math.log(k)/k) for k in Lk]
X k
plt.clf()
X
f − f (x) P(X = k/n) ≤ 2M P(X = k/n) = 2M P (|X − x| > α)
n n n
n
k
| n −x|>α
| n −x|>α
k plt.plot(Lk,LS)
plt.plot(Lk,Linf)
et donc plt.plot(Lk,Lsup)
On remarque que la courbe expérimentale est plutôt bien encadrée.
X k M
f − f (x) P(Xn = k/n) ≤ (b) On a
n 2nα2
1
k
| n −x|>α
tx = (1 − λ) × (−t) + λt avec λ = (1 + x) ∈ [0 ; 1]
2
Aussi, lorsque |k/n − x| ≤ α, on a
La convexité de la fonction exponentielle produit alors le résultat voulu.
(c) La variable aléatoire X est bornée donc aussi exp(tX) qui est alors
k
f − f (x) ≤ ε
n d'espérence nie. L'inégalité au-dessus permet d'écrire la comparaison
et donc 1 1
exp(tX) ≤ (1 − X)e−t + (1 + X)et
2 2
Par croissance et linéarité de l'espérance, il vient
X k X
f − f (x) P(Xn = k/n) ≤ ε P(Xn = k/n) ≤ ε
n
k
| n −x|≤α
1 1
| nk −x|≤α E exp(tX) ≤ 1 − E(X) e−t + 1 + E(X) et
2 2
(d) Pour n assez grand, on a M/2nα2 ≤ ε et alors Enn, la nullité de l'espérance de X permet de conclure
X k
X k
E exp(tX) ≤ ch t
|Bn (f )(x) − f (x)| ≤ f − f (x) P(Xn = k/n)+ f − f (x) P(Xn = k/n) ≤ 2ε
k n n En développant en
série entière ch t et exp(t2 /2), on remarque
| n −x|≤α | nk −x|>α
ch t ≤ exp(t2 /2) car on peut comparer les termes sommés respectifs.
(d) On écrit Xi = ai Yi avec E(Yi ) = 0 et |Yi | ≤ 1 et alors Par croissance de l'espérance et nullité de l'espérance de X
1 −t 1 t
n
!
E(Y ) ≤ e + e = ch(t)
Y
E exp(tS) = E exp(tai Yi ) 2 2
i=1
Par développement en série entière et en employant (2n)! ≥ 2n n! , on obtient
Par indépendance et l'inégalité précédente
+∞ +∞
n n n
! X t2n X t2n 2
t2 X 2 = et /2
Y Y 1 2 2 ch(t) = ≤
E exp(tS) = E exp(tai Yi ) ≤ exp t ai = exp a (2n)! n
2 n!
i=1 i=1
2 2 i=1 i n=0 n=0
Par l'inégalité de Markov (c) Par l'inégalité de Markov, on a pour tout t > 0,
2
P(X > r) = P etX > etr ≤ e−tr E etX ≤ e−tr+t /2
P(Sn > ε) = P exp(tSn ) > exp(tε) ≤ exp(−tε) E exp(tSn )