Vous êtes sur la page 1sur 10

Pr.

Toufik Chaayra Probabilité et Processus 2020–2021


Master: MFIGR Stochastique FSJES-AS Casablanca

Correction du TD

Exercice 1 :
On tire deux variables U et V de façon indépendante et uniformément dans l’ensemble
{1, 2, 3, 4, 5}. On en déduit les variables aléatoires X = min(U, V ) et Y = max(U, V ).
1. Déterminer la loi jointe du couple (U, Y ).
2. Déterminer E[U | Y = n], pour n ∈ {1, 2, 3, 4, 5}.
3. En déduire E[U | Y ].
4. Déterminer E[Y | U ].
5. Déterminer de même E[U | X] et E[X | U ].

Corrigé :
1. On a : U (Ω) = {1, 2, 3, 4, 5}, V (Ω) = {1, 2, 3, 4, 5}, Y (Ω) = {1, 2, 3, 4, 5}
et (U (Ω), Y (Ω)) = {1, 2, 3, 4, 5}2
La loi jointe du couple (U, Y ) est donnée par le tableau suivant :
Y
1 2 3 4 5
U
1 1/25 1/25 1/25 1/25 1/25
2 0 2/25 1/25 1/25 1/25
3 0 0 3/25 1/25 1/25
4 0 0 0 4/25 1/25
5 0 0 0 0 5/25
2. Soit n ∈ {1, 2, 3, 4, 5} fixé.
Alors si Y = n, puisque Y est le maximum de U et V , il est clair que U peut
prendre les valeurs de 1 à n. On a donc :

E[U | Y = n] = P(U = 1 | Y = n) + 2P(U = 2 | Y = n) + · · · + nP(U = n | Y = n)

Il reste à préciser les probabilités :

P(U = k, Y = n)
P(U = k | Y = n) =
P(Y = n)

Puisqu’on connait la loi jointe, il reste à préciser la loi marginale de Y , c’est-à-dire


sommer sur les colonnes dans le tableau de la question précédente.

1
Ce qui donne :
1 1 2n − 1
P(Y = n) = P(U = 1, Y = n)+· · ·+P(U = n, Y = n) = (n−1)+ n =
25 25 25
Ainsi, on obtient pour la loi conditionnelle de U sachant Y :
(
1/(2n − 1) si 1 ≤ k ≤ (n − 1)
P(U = k | Y = n) =
n/(2n − 1) si k = n

Au total, on obtient :
1 n
E[U | Y = n] = (1 + · · · + (n − 1)) +n
2n − 1 2n − 1
La première somme, entre parenthèses, est arithmétique de raison 1 , donc :

n(n − 1)
1 + · · · + (n − 1) =
2
d’où finalement :
n(n − 1) n2 n(3n − 1)
E[U | Y = n] = + = .
2(2n − 1) 2n − 1 2(2n − 1)
Remarque : quand vous arrivez ici, après quelques calculs, pensez à vérifier que la
formule fonctionne, par exemple pour n = 1 et n = 2.
3. On en déduit que :
Y (3Y − 1)
E[U | Y ] =
2(2Y − 1)
4. Pour déterminer E[Y | U ], on commence par calculer E[Y | U = n] pour tout
n ∈ {1, 2, 3, 4, 5}. Lorsque U vaut n, il est clair que Y peut prendre les valeurs
n, . . . , 5. Comme ci-dessus, il faut donc commencer par préciser la loi marginale de
U. Or U est obtenue en tirant un nombre au hasard entre 1 et 5, donc U suit une
loi uniforme sur l’ensemble {1, 2, 3, 4, 5} : P(U = n) = 51 . On en déduit que :
(
1/5 si (n + 1) ≤ k ≤ 5
P(Y = k | U = n) =
n/5 si k = n

On en déduit l’espérance conditionnelle de Y sachant U = n :


n 1
E[Y | U = n] = n + ((n + 1) + · · · + 5) .
5 5
On reconnait à nouveau une somme arithmétique dans la parenthèse :

(n + 6)(5 − (n + 1) + 1) (n + 6)(5 − n)
(n + 1) + · · · + 5 = = ,
2 2
2
et finalement on obtient :
n2 − n + 30
E[Y | U = n] = .
10
Et l’espérance conditionnelle de Y sachant U est donc :

U 2 − U + 30
E[Y | U ] =
10

5. Pour déterminer E[U | X], on reprend pas à pas le raisonnement vu ci-dessus.


La loi jointe du couple aléatoire (U, X) est représentée par
X
1 2 3 4 5
U
1 5/25 0 0 0 0
2 1/25 4/25 0 0 0
3 1/25 1/25 3/25 0 0
4 1/25 1/25 1/25 2/25 0
5 1/25 1/25 1/25 1/25 1/25
Pour tout n entre 1 et 5 , on a cette fois :

E[U | X = n] = nP(U = n | X = n) + · · · + 5P(U = 5 | X = n)

Pour la loi marginale de X, on a : P(X = n) = 11−2n


25
.
Ce qui donne pour la loi conditionnelle de U sachant X = n :
(
1/(11 − 2n) si (n + 1) ≤ k ≤ 5
P(U = k | X = n) =
(6 − n)/(11 − 2n) si k = n

On a donc :
6−n 1 30 + 11n − 3n2
E[U | X = n] = n + ((n + 1) = · · · + 5) =
11 − 2n 11 − 2n 22 − 4n
Donc finalement :
30 + 11X − 3X 2
E[U | X] =
22 − 4X
Pour calculer l’espérance conditionnelle de X sachant U , il suffit en effet de remar-
quer, puisque l’espérance conditionnelle est linéaire, que :

E[X + Y | U ] = E[X | U ] + E[Y | U ]

or X + Y = U + V , puisque si X est égal à U, Y est égal à V et vice-versa. Donc :

E[X + Y | U ] = E[U + V | U ] = E[U | U ] + E[V | U ]

3
et on utilise les propriétés classiques de l’espérance conditionnelle : E[U | U ] = U
d’une part, et E[V | U ] = E[V ] d’autre part, puisque U et V sont indépendantes.
Si on fait les comptes, on a donc obtenu :

E[X | U ] = U + E[V ] − E[Y | U ]

Or E[V ] = 3 puisque V suit une loi uniforme et on a calculé E[Y | U ] ci-dessus.


Finalement :
11U − U 2
E[X | U ] =
10
Exercice 2 :
À raison d’un véhicule toutes les dix secondes en moyenne, le flux des véhicules dans
une voie donnée comporte une proportion de p = 10% de camions et de 90% de voitures
(particulières).
1. Quelle est la probabilité qu’au moins un camion passe dans un intervalle d’une
minute ?
2. Sachant que dix camions sont passés dans un intervalle de cinq minutes, quel est
le nombre moyen de véhicules qui sont passés dans cet intervalle ?
3. Trente véhicules sont passés durant dix minutes, quelle est la probabilité que trois
parmi eux sont des camions ?

Corrigé :
1. Soit N (t) le nombre de véhicules passant dans l’intervalle [0, t].
On suppose que {N (t) : t ≥ 0} est un processus de Poisson de densité λ, qui est
l’espérance mathématique du nombre de passages par unité de temps, disons la
1
minute, soit λ = 60 = 6.
10
Le nombre de camions passant au point fixé dans un intervalle de temps est un
processus de Poisson de densité λp = 6 × 0, 1 = 0, 6.
La probabilité qu’au moins un camion passe en une minute est :

λ0p −λp
P (N (t) ≥ 1) = 1 − P (N (t) < 1) = 1 − e = 1 − e−0,6 ≈ 0, 45
0!
.
2. Soit Nc (t) (resp. Nv (t)) le processus de Poisson régissant le flot des camions (resp.
des voitures).
Il s’agit de calculer E [N (5) | Nc (5) = 10], qui vaut

E [Nc (5) | Nc (5) = 10]+E [Nv (5) | Nc (5) = 10] = 10+E [Nv (5)] = 10+6×0, 9×5 = 37

4
3. Conditionnellement à {N (10) = 30} les arrivées des trente véhicules se répartissent
uniformément sur [0, 10], avec une proportion de camions égale à p = 1/10.
Le nombre de camions suit alors une loi binomiale de paramètre n = 30, p = 1/10.
La probabilité cherchée est de :
3  27
1 9

3
C30 ≈ 0, 24
10 10
.

Exercice 3 :
On considère un processus de Poisson {N (t) : t ≥ 0} de densité λ > 0.
Étudier les processus suivants déduits du processus {N (t) : t ≥ 0} par les opérations
suivantes.
1. On supprime les tops de rang impair.
Noter {N1 (t) : t ≥ 0} le processus obtenu.
2. Pour tout i = 1, 2, . . . on décale l’instant Si d’apparition du iième top d’une quantité
constante a.
Noter {N2 (t) : t ≥ 0} le processus obtenu.
3. Pour tout i = 1, 2, . . . on décale l’instant Si d’apparition du iième top d’une quantité
aléatoire Y positive dont la densité de probabilité g(x) est indépendante de i.
[Soient N3 (t) le processus résultant et G(t) la fonction de répartition de Y .
On démontre d’abord que, conditionnellement à l’évènement {N (t) = n}, la va-
riable aléatoire N3 (t) est binomiale de paramètre (n, p(t)) avec
1Z t
p(t) = G(t − x)dx
t 0
puis on calcule P {N3 (t) = k} .]

Corrigé :
1. Pour k ≥ 0, on a :

{N1 (t) = k} = {N (t) = 2k} ∪ {N (t) = 2k + 1}.

D’où

P {N1 (t) = k} = e−λt (λt)2k /(2k)! + e−λt (λt)2k+1 /(2k + 1)!


 
= e−λt (λt)2k /(2k)! (1 + λt/(2k + 1))

2. Pour t ≥ a et k ≥ 0 il vient :

P {N2 (t) = k} = P{N (t − a) = k} = e−λt eλa (λ(t − a))k /k!

5
3. Soit X l’instant où s’est produit l’un des n tops et soit Y la quantité aléatoire, de
densité g(x), que l’on ajoute à cet X.
Conditionnellement à {N (t) = n}, la variable N3 (t) a même loi que la somme
I{X1 +Y1 ≤t} + · · · + I{Xn +Yn ≤t} , qui suit une loi binomiale de paramètres (n, p).
Il s’agit d’évaluer p.
Or,
h i
p = E I{X+Y ≤t} = P{X + Y ≤ t}
Z h i
= E I{X+Y ≤t} | X = x (1/t)I[0,t] (x)dx
R+

et
h i Z
E I{X+Y ≤t} | X = x = I{x+y≤t} (y)g(y)dy,
R+

qui vaut  Z t−x



g(y)dy si t > x
G(t − x) = 0
0, sinon.

D’où Z Z t
p= G(t − x)(1/t)I[0,t] (x)dx = (1/t) G(t − x)dx.
R+ 0

On en déduit que
 !
n
pk (1 − p)n−k si n ≥ k


P {N3 (t) = k | N (t) = n} =  k

0, sinon.

Par conséquent,

e−λt (λt)n (λtp)k e−λtp


!
n
pk (1 − p)n−k
X
P {N3 (t) = k} = = .
n≥k
k n! k!

Exercice 4 :
On considère une chaîne de Markov (Xn )n≥0 sur {1, . . . , 7} de matrice de transition Q
donnée par  
1/2 1/4 0 1/4 0 0 0
 1/2 0 0 0 0 0 1/2 
 
 
 0 0 1/8 0 7/8 0 0 
 
Q=

1/4 0 0 0 0 0 3/4  
 
 0 1/9 7/9 0 0 1/9 0 
 
 0 0 0 0 0 1 0 
 
0 0 0 1 0 0 0

6
1. Dessiner le graphe de la chaine de Markov associée en précisant les probabilités de
transitions entre les différents états.
2. Déterminer les classes d’états récurrents et transitoires.
3. La chaîne est-elle irréductible ?
4. Calculer P3 (X2 = 6) et P1 (X2 = 7).

Corrigé :
1. Graphe :

2. On déduit du graphe qu’il y a deux classes récurrentes : {1, 2, 4, 7} et {6}, et une


classe transiente : {3, 5}.
3. Non, sinon elle n’admettrait qu’une seule classe.
X
4. Par la formule Px (X2 = y) = Q2 (x, y) = Q(x, z)Q(z, y), on obtient
z

7 1 7
P3 (X2 = 6) = Q(3, 5)Q(5, 6) = × = , et
8 9 72
1 1 1 3 5
P1 (X2 = 7) = Q(1, 2)Q(2, 7) + Q(1, 4)Q(4, 7) = × + × =
4 2 4 4 16
Exercice 5 :
Un lapin se déplace dans un terrier composé de trois galeries, notées A, B et C, dans
chacune desquelles il est confronté à un stimulus particulier. À chaque fois qu’il est soumis
à un stimulus, le lapin reste dans la galerie où il se trouve ou change de galerie. Cela

7
constitue une étape. S’il est dans la galerie A ou C, il y reste avec la probabilité 1/3 ou
il passe dans la galerie B avec la probabilité 2/3 S’il est dans la galerie B, il y reste avec
la probabilité 1/2 sinon il passe dans la galerie A ou la galerie C avec la probabilité 1/4.
1. Représenter le graphe de probabilité associé à cette situation.
On notera A, B et C les trois états correspondant aux trois galeries.
2. Écrire la matrice de transition associée.
 
3. Écrire en justifiant le raisonnement la relation liant Rn = an b n c n , M et
Rn+1
4. Déterminer la distribution stationnaire.
On donnera les trois valeurs sans parenthèses, sous la forme u/v en les séparant
par une virgule.
5. On définit la suite (un ) par :

n ∈ N, un = an − cn

(a) Montrer que la suite (un ) est géométrique de raison :


1
(b) En déduire que pour tout n ∈ N, un = 3n

Corrigé :
1. L’énoncé donne
S’il est dans A (resp. C ), il y reste avec la probabilité 1/3 et il passe dans B avec
la probabilité 2/3.
S’il est dans B, il y reste avec la probabilité 1/2 et il passe dans A (resp. C ) avec
la probabilité 1/4.
Ce qui donne le graphe de probabilité à trois états A, B et C :

1/3

2/3
1/4

2/3
1/3 A B 1/2
1/4

2. On traduit les données de l’énoncé par :


2
P (Bn+1 | An ) = P (Bn+1 | Cn ) =
3
8
1
P (An+1 | An ) = P (Cn+1 | Cn ) =
3
alors
P (Cn+1 | An ) = P (An+1 | Cn ) = 0
1
P (An+1 | Bn ) = P (Cn+1 | Bn ) =
4
1
P (Bn+1 | Bn ) =
2
 
1/3 2/3 0
M =  1/4 1/2 1/4 
 

0 2/3 1/3
3. On fixe n ∈ N
La famille (An , Bn , Cn ) est un système complet d’événements. Par la formule des
probabilités totales,

P (An+1 ) = P (An+1 | An ) P (An ) + P (An+1 | Bn ) P (Bn ) + P (An+1 | Cn ) P (Cn )

soit
1 1
an+1 = an + bn
3 4
de même
1 1
cn+1 = bn + cn .
4 3
P (Bn+1 ) = P (Bn+1 | An ) P (An ) + P (Bn+1 | Bn ) P (Bn ) + P (Bn+1 | Cn ) P (Cn )
donc
2 1 2
bn+1 = an + bn + cn
3 2 3
soit pour tout n ∈ N,
Rn+1 = Rn M
4. On cherche π = (x y x) tel que π = πM
x, y et z étant positifs ou nuls et de somme égale à 1.
Comme tous les éléments de M sont strictement positifs, on sait que π existe et
est unique.
 
1/3 2/3 0
M =  1/4 1/2 1/4 
 

0 2/3 1/3

9
x y 2x y 2z y z
 
π = πM ⇔ π = + + + +

3 4 3 2 3 4 3

 x = x/3 + y/4
⇔ y = 2x/3 + y/2 + 2z/3


z = y/4 + z/3


2/3x = y/4
⇔ y/2 = 2x/3 + 2z/3


2z/3 = y/4


 x = 3y/8
y = 4x/3 + 4z/3





 x = 3y/8
z = 3y/8

3y
Donc x = 8
=z
 
3y 3y
On a obtenu π = 8
y 8
.
Or
3y 7y 4
+y = =1 ⇔ y=
4 4 7
Donc  
3 4 3
π= 14 7 14
.

5. (a)
1 1 1 1
   
un+1 = an+1 − cn+1 = an + b n − c n + bn
3 4 3 4
Donc
1 1

un+1 = (an − cn ) = un
3 3
Par suite (un ) est une suite géométrique de raison 13 .
(b) Par propriété des suites géométriques, pour tout n ∈ N,
 n
1 1
un = u0 = (a0 − c0 )
3 3n
1 1
Sachant que a0 = 1 et b0 = c0 = 0, alors un = n
soit an − cn n .
3 3

10

Vous aimerez peut-être aussi