Vous êtes sur la page 1sur 5

UNIVERSITÉ DE NICE-SOPHIA ANTIPOLIS

L2 M - Statistiques - 2011-2012

Correction TD 2.

Exercice 1: On traitera l’exercice dans le cas où p > 0.


1. Soit (Yi )i∈N? une suite de variables aléatoires indépendantes telle que chaque Yi suit une loi de
Bernouilli de paramètre p. La variable aléatoire X est une variable aléatoire discrète, à valeurs
dans N? ∪ {∞}. Pour k ∈ N? dire que X = k signifie que Yi = 0 pour 1 ≤ i ≤ k − 1 et Yk = 1.
Pour k = ∞, dire que X = k signifie que Yi = 0 pour tout i ∈ N? .
Interessons nous tout d’abord à la probabilité P (X = ∞). Donnons nous N ∈ N? un entier.
Cette probabilité vaut:
N
Y
P (X = ∞) = P (∀i ∈ N? , Yi = 0) ≤ P (∀1 ≤ i ≤ N, Yi = 0) = P (Yi = 0)
i=1

où on a utilisé dans la dernière inégalité l’indépendance des variables aléatoires Yi . Donc,
l’inégalité suivant est valide pour tout entier N
N
Y
P (X = ∞) ≤ (1 − p) = (1 − p)N .
i=1

En particulier, comme p 6= 0, en prenant la limite N → +∞, P (X = ∞) = 0.


Pour k ∈ N? , calculons P (X = k). Cette probabilité vaut:
P (X = k) = P (Y1 = 0, . . . , Yk−1 = 0, Yk = 1).
Par indépendance des Yi ,
k1
!
Y
P (X = k) = P (Yi = 0) P (Yk = 1).
i=1

Puisque Yi ∼ B(p), P (Yi = 0) = 1 − p et P (Yk = 1) = p. Finalement la loi de X est donnée


par: X(Ω) = N? , et pour tout k ∈ N? , P (X = k) = (1 − p)k−1 p. Cette loi est la loi géométrique
de paramètre p et on note X ∼ G(p).
P∞
2. L’espérance de X vaut E(X) = k=1 k(1 − p)k−1 p. Pour calculer cette somme, fixons un entier
N ∈ N? et définissons f sur [0, 1[ par
N N
X X 1 − xN +1
f (x) = xk = xk − 1 = − 1.
1−x
k=1 k=0

Par conséquent, en dérivant


N
X 1 + N xN +1 − (N + 1)xN
∀x ∈ [0, 1[, f 0 (x) = kxk−1 = .
(1 − x)2
k=1

Si on fait tendre N vers +∞, on obtient donc la relation pour tout x ∈ [0, 1[:

X 1
kxk−1 = .
(1 − x)2
k=1

On l’applique à x = 1 − p ∈ [0, 1[, ce qui donne


1
E[X] = .
p

1
3. varX = E(X 2 ) − (E(X))2 = E(X 2 ) − 1/p2 . De plus,

X
E(X 2 ) = k 2 (1 − p)k−1 p
k=1

Le calcul de cette somme est analogue à la question précédente en calculant f 00 (x). On trouve

X 2 1
k 2 (1 − p)k−1 = − 2,
p3 p
k=1

Finalement,
1−p
varX = .
p2
Exercice 2: On commence par rappeller le résultat suivant, dont la preuve se fait par
récurrence sur n.
Lemma 1. Soient A1 , A2 , . . . An , n évenements. (Rappel: un evenement est une partie de Ω).
On suppose ces evenements sont disjoints deux à deux, ce qui signifie P (Ai ∩ Aj ) = 0 pour tout
i 6= j ∈ {1, . . . n}. Alors, !
[n n
X
P Ai = P (Ai ).
i=1 i=1

On rappelle aussi le résultat connu suivant:


k

Lemma 2. L’ensemble des sous parties à n élements de {1, . . . k} a pour cardinal n .

A chaque visite, le démarcheur a une probabilité p de convaincre un client de soucrire à un


contrat. On traitera l’exercice dans le cas où p > 0 puisque le cas où p = 0 correspond au cas où
le démarcheur ne vend jamais de contrat. Puisque le démarcheur ne vend que 0 ou 1 contrat a
chaque visite, P (N ≤ n − 1) = 0. Soit désormais k ≥ n. Dire que N = k signifie qu’en k − 1 visites
il a vendu n − 1 contrat et qu’il a vendu son n ème contrat à la k ème visite.
Notons (Yi )i≥1 la suite des variables aléatoires définie par Yi (Ω) = {0, 1} , Yi = 1 si le
démarcheur a vendu un contrat à la i ème visite, Yi = 0 sinon. La loi de Yi est donc une loi de
Bernouilli de paramètre p. De plus, on suppose que les Yi sont indépendantes. Mathématiquement
dire que N = k signifie que:
1. Yk = 1

2. Exactement n − 1 variables parmi Y1 , . . . , Yk−1 valent 1. Cela signifie qu’il existe un sous
ensemble A de {1, . . . k − 1}, de cardinal n − 1 tel que Yi = 1 pour i ∈ A, et Yi = 0 pour
i 6∈ A.
Notons P l’ensemble des sous parties de {1, . . . k − 1} de cardinal n − 1. Alors,

P (N = k) = P (∃A ∈ P, ∀i ∈ A, Yi = 1, ∀i 6∈ A, Yi = 0, Yk = 0) .

Pour deux ensembles distincts A1 ∈ P et A2 ∈ P, les événements

[∀i ∈ A1 , Yi = 1, ∀i 6∈ A1 , Yi = 0, Yk = 0] et [∀i ∈ A2 , Yi = 1, ∀i 6∈ A2 , Yi = 0, Yk = 0]

sont disjoints. En utilisant le lemme, on a donc:


X
P (N = k) = P (∀i ∈ A, Yi = 1, ∀i 6∈ A, Yi = 0, Yk = 1) .
A∈P

En utilisant l’indépendance des Yi ,


! 
X Y Y
P (N = k) = P (Yi = 1)  P (Yi = 0) P (Yk = 1) .
A∈P i∈A i6∈A

2
Puisque les Yi suivent une loi de Bernouilli de paramètre p,
X X
P (N = k) = pn−1 × (1 − p)(k−1)−(n−1) × p = pn (1 − p)k−n .
A∈P A∈P

Finalement, en utilisant le deuxième lemme,


 
k−1 n
P (N = k) = p (1 − p)k−n .
n−1
Finalement la loi de N est donnée par N (Ω) = {n, n + 1, n + 2, . . . }, et pour tout k ≥ n.
k−1 n
P (N = k) = n−1 p (1 − p)k−n .
Exercice 3: On a 50 articles, chaque article pouvant etre défaillant ou non. On numérote les
articles de 1 à 50. Pour chaque i ∈ {1, . . . , 50}, on note Xi = 1 si l’article i est défaillant, et Xi = 0
sinon. Chaque Xi ne peut prendre que deux valeurs possibles 0 et 1 est donc une variable aléatoire
de Bernouilli. On note pi son paramètre, c’est à dire, pi = P (Xi = 1). On suppose que chaque
article a la même probabilité d’ être défaillant, ce qui signifie que pi ne dépend pas de i. On note
p = pi .
Selon l’énoncé, en moyenne, dans un échantillon d’articles il y a 2% d’articles défectueux. Cela
signifie donc:
E [card {i ∈ {1, . . . , 50}, Xi = 1}] = 0.02 × 50 = 1.
Or, puisque chaque Xi ne peut prendre que deux valeurs, 0 ou 1,
50
X
card {i ∈ {1, . . . , 50}, Xi = 1} = Xi .
i=1

Donc, en utilisant la linéarité de l’espérance


50
X
E [card {i ∈ {1, . . . , 50}, Xi = 1}] = E(Xi ).
i=1

De plus, E(Xi ) = p, ce qui donne 50p = 1 et donc p = 0.02.


On supposera que les variables aléatoire X1 , . . . , X50 sont indépendantes, ce qui signifie, que
la défaillance d’un article n’influe pas sur la défaillance des autres articles. On doit calculer la
probabilité p0 que la production s’arrete. Cette probabilité est:

p0 = P (card {i ∈ {1, . . . , 50}, Xi = 1} ≥ 2) .

Donc, !
50
X
p0 = P Xi ≥ 2 .
i=1
P50
Notons X la variable aléatoire X = i=1 Xi . Il s’agit d’une somme de variable aléatoire indépendantes
de Bernouilli de même paramètre. Donc X ∼ B(50, 0.02). Donc,

p0 = 1 − P (X < 2)
= 1 − (P (X = 0) + P (X = 1))
    
50 50
= 1− 0.020 0.9850 + 0.021 0.9849
0 1
= 1 − 0.9850 − 0.9849
' 0.264229

Remarque: lorsque X ∼ B(n, p) avec n grand et p petit, une solution souvent plus rapide pour
calculer des probabilités est d’approximer X par une loi de Poisson. De manière générale on peut
utiliser le lemme suivant:
Lemma 3. Soit λ ∈ R et (pn )n≥1 une suite de réels de [0, 1] telle que limn→+∞ pn = 0 et
limn→+∞ npn = λ. Soit, pour chaque n ∈ N? la variable aléatoire Xn ∼ B(n, pn ). Alors, pour tout
k ∈ N? ,
e−λ λk
lim P (Xn = k) = .
n→+∞ k!

3
De manière plus précise, l’inégalité suivante donne une vitesse de convergence:
∞ −npn
(npn )k

P (Xn = k) − e
X
2

k! ≤ npn .
k=0

Ce lemme nous dit la chose suivante. Si X ∼ B(n, p) avec n grand et p petit, et si Y ∼ P(np),
alors pout tout ensemble A,
P (X ∈ A) ' P (Y ∈ A)
De plus, l’erreur est majorée par |P (X ∈ A) − P (Y ∈ A)| ≤ np2 .
Généralement, on accepte l’approximation quand n ≥ 50 et p < 0.1. En particulier,ici, on
peut appliquer ce raisonnement avec n = 50 et p = 0.02. Donc, si Y suit une loi de Poisson de
paramètre 1,
P (X ≥ 2) ' P (Y ≥ 2) = 1 − 2e−1 .
Utilisant le lemme, l’erreur commise est majorée par |P (X ≥ 2) − P (Y ≥ 2)| ≤ 0.02. En fait,
numériquement, 1 − 2e−1 ' 0.264241, ce qui montre que l’approximation est très bonne.
Exercice 4:
1. Soit X ∼ B(n, θ). La loi de Y est donnée par Y (Ω) et P (Y = k) pour tout k ∈ Y (Ω). Puisque
X(Ω) = {0, . . . , n}, on a également Y (Ω) = {0, . . . , n}. De plus, pour k ∈ Y (Ω),

P (Y = k) = P (n − X = k)
= P (X = n − k)
 
n
= θn−k (1 − θ)n−(n−k)
n−k
 
n n−k
= θ (1 − θ)k
k

La loi de X est donc la loi binomiale de paramètres n et 1 − θ.


(a) On a:
 
n
b(x, n, 1 − θ) = (1 − θ)x (1 − (1 − θ))n−x
x
 
n
= (1 − θ)x θn−x
n−x
= b(n − x, n, θ).

(b) Dans le calcul suivant, nous effectuons un changement d’indice à la 2ème ligne et nous
utilisons le résultat de la question précédente à la 3ème.
x
X n−x−1
X
Prob(1 − θ, n, x) + Prob(θ, n, n − x − 1) = b(i, n, 1 − θ) + b(i, n, θ)
i=0 i=0
Xx Xn
= b(i, n, 1 − θ) + b(n − i, n, θ)
i=0 i=x+1
Xx Xn
= b(i, n, 1 − θ) + b(i, n, 1 − θ)
i=0 i=x+1
Xn
= b(i, n, 1 − θ)
i=0
Xn
= P (Y = i)
i=0
= 1

Exercice 5:

4
1. Puisque X ∼ P(0.8t), alors E(X) = varX = 0.8t. Donc, puisque varX = E[X 2 ] − (E(X))2 ,

E[X 2 ] = var(X) + (E(X))2 = 0.8t + (0.8t)2 = 0.8t + 0.64t2

2. Notons Y le profit au bout de t heures. Alors,

Y = 400t − 100X 2 .

Donc le profit moyen est

E(Y ) = 400t − 100(0.8t + 0.64t2 ) = 320t − 64t2

3. On cherche t tel que E(Y ) est maximal. Une étude de la fonction t 7→ 320t − 64t2 donne t = 5/2.
Pour une période de 2.5 heures, le profit moyen vaut donc 400 euros.

Vous aimerez peut-être aussi