Académique Documents
Professionnel Documents
Culture Documents
31 octobre 2017
Une autre méthode consisterait, dans bien des cas, tout en par-
tant de données non rectifiées, à mettre en cause les résultats
provisoires de l’optimisation mathématique, pour tenir compte
des expansions ou régressions dues à la conjoncture ou aux évé-
nements particuliers à l’entreprise et à son environnement im-
médiat.
Nous serons aidés par le fait que presque tous, étant donné le ca-
ractère discret de leurs ensembles d’états, peuvent être exposés
concrètement en utilisant la théorie des graphes.
Définition
Un processus stochastique (ou processus aléatoire)
{Xt , t ∈ T } est une collection de variables aléatoires indexées
par un paramètre t et définies sur un même espace de proba-
bilités (Ω, F, P). Le paramètre t est généralement interprété
comme le temps et appartient à un ensemble ordonné T .
Définition
L’ensemble de toutes les valeurs que peuvent prendre les va-
riables définissant un processus stochastique est appelé l’espace
des états du processus et sera noté S. Si cet ensemble est fini
ou dénombrable, le processus est appelé une chaîne.
Xn = Xn−1 + Yn , n = 1, 2, . . .
et
P[Yn = 0] = 1, si Xn−1 ∈ {0, 6}.
Cette situation correspond à l’exception mentionnée
ci-avant. Les états 0 et 6, situés ”au bord”de l’espace S,
modifient la distribution de la variable Yn et jouent ici le
rôle de parois absorbantes.
P[Dn = k] = ak , k = 0, 1, 2, . . .
Définition
Une telle règle de gestion est connue sous le nom de
politique (s, S) où s et S sont deux paramètres donnés.
ak
si i < s et j = S − k, k ≥ 0
P[Xn = j|Xn−1 = i] = ak si i ≥ s et j = i − k, k ≥ 0
0 autrement
E = {E1 , E2 , . . . , En , . . .}
Matrices stochastiques
Les matrices de transition sont également appelées matrices
stochastiques et satisfont les deux conditions suivantes :
1 leurs éléments sont non négatifs :
pij ≥ 0, ∀i, j ∈ S
(m)
Les probabilités pij sont appelées probabilités de transition
en m étapes et la matrice P(m) dont l’élément (i, j) est égal à
(m)
pij est appelée matrice de transition en m étapes.
(1)
Nous avons évidemment pij = pi,j et P(1) = P mais de telles
écritures ne seront que rarement utilisées.
(2)
Ainsi pij est simplement égal à l’élément (i, j) de la matrice
P2 .
Théorème
(m)
La probabilité pij qu’une chaîne de Markov se retrouve dans
l’état j après m étapes, si elle se trouve actuellement dans l’état
i, est donnée par l’élément (i, j) de la matrice Pm .
Définition
Deux états i et j d’une chaîne de Markov communiquent si
les sommets associés aux états i et j appartiennent à la même
composante fortement connexe du graphe représentatif G de la
chaîne.
Propriété 1
L’état j d’une chaîne de Markov est accessible depuis l’état i
(n)
si et seulement si il existe n ≥ 0 tel que pij > 0.
Propriété 2
Deux états i et j d’une chaîne de Markov communiquent si
(n)
et seulement si il existe n ≥ 0 et m ≥ 0 tels que pij > 0 et
(m)
pij > 0.
Exemple
Soit la chaîne de Markov définir sur l’ensemble d’états S =
{1, 2, 3, 4, 5} et de matrice de transition
1 0 0 0 0
1/3 1/6 1/4 1/4 0
P=
0 1/2 0 0 1/2
0 0 0 0 1
0 0 0 1 0
Le graphe représentatif G et le graphe réduit GR de cette chaîne
sont donnés par
image
Définition
Une classe est persistante si elle correspond à un sommet sans
successeur de GR . Dans le cas contraire, la classe est transi-
toire.
Définition
Un état est
persistant (ou récurrent) s’il appartient à une classe
persistante ;
transitoire s’il appartient à une classe transitoire.
Propriété
Une chaîne de Markov possède au moins une classe persis-
tante.
Propriété
Soit C ⊆ S une classe persistante d’une chaîne de Markov.
Alors, pour tout état i ∈ C et pour tout état j ∈
/ C , pij = 0.
Exemple
La chaîne de Markov de l’exemple précédent possède trois
classes : C1 = {1}, C2 = {2, 3} et C3 = {4, 5}. Les classes
C1 et C3 ainsi que les états 1, 4 et 5 sont persistants ; la classe
C − 2 et les états 2 et 3 sont transitoires.
Définition
Une chaîne de Markov est irréductible si son graphe représen-
tatif est fortement connexe. Dans le cas contraire, la chaîne est
dite réductible.
Propriété
Une chaîne de Markov est irréductible si et seulement si, pour
tout état i et j, il existe m ≥ 0 (pouvant dépendre de i et j)
tel que
(m)
pij > 0
Propriété
Une chaîne de Markov est irréductible si et seulement si toutes
ses paires d’états communiquent.
Définition
Une chaîne de Markov est absorbante si tous ses états per-
sistants sont absorbants, c’est-à-dire si chacune de ses classes
persistantes ne comporte qu’un seul état.
Définition
La période de l’état i d’une chaîne de Markov est égale au plus
(n)
grand diviseur commun d de tous les n pour lesquels pii > 0.
De plus, l’état i est périodique lorsque d > 1 et apériodique
lorsque d = 1.
Mouhamadou Lamine BALDE INFO416 : Processus & Files d’attente
Classification des états et des chaînes
image
Remarque
La définition précédente ne s’applique qu’aux états pour lesquels
il existe au moins une possibilité de retour après un certain
(n)
nombre de transitions. Si i est tel que pii = 0 pour tout n ≥ 1,
l’état est dit apériodique.
Corollaire
Si pii > 0, l’état i est apériodique.
Théorème
Les états d’une classe ont tous la même période.
X (0) X (0)
= pji πj = πj pji
j∈S j∈S
π (1) = π (0) P
Théorème
Si la distribution de l’état initial d’une chaîne de Markov est
donnée par le vecteur de probabilités π (0) , la distribution des
états de la chaîne après n étapes est
Questions
1 Quelles conditions doit vérifier la chaîne pour que
limn→∞ π (n) existe ?
2 Sous quelles conditions cette limite est-elle indépendante
de la distribution initiale π (0) ?
3 Lorsqu’elle existe, quelle est la valeur π ∗ de cette limite ?
π∗ = π∗P
Définition
Une distribution de probabilités π sur les états d’une chaîne de
Markov est invariante (ou stationnaire) si elle vérifie
π = πP
Remarque
La transposée de la matrice de transition P d’une chaîne irré-
ductible ne possède qu’un seul vecteur propre associé à la valeur
propre 1 et toutes les composantes de ce vecteur sont de même
signe.
Remarque
Si une chaîne de Markov admet une distribution à long terme,
cette dernière dépend à priori non seulement de P, mais égale-
ment de π (0) .
Théorème
La distribution π (n) d’une chaîne de Markov converge vers une
limite π ∗ indépendante de la distribution initiale π (0) si et seule-
ment si la matrice Pn tend vers une limite P∗ dont toutes les
lignes sont identiques entre elles et, de plus, identiques à π ∗ .
Exemple 1
Considérons la chaîne de Markov définie par la matrice de tran-
sition
1/4 0 3/4
P= 1/4 1/4 1/2
Exemple 1 (Suite)
Les différentes puissances de P sont égales à :
−1
1 −3 6 1 0 0 1 −3 6
Pn =
1 1 0 0
1
0 1 1
1
n
1 1 −4 0 0 (−1/4) 1 1 −4
1 3
+ 56 ( −1 )n 9
− 65 ( −1 )n
4 10 4 20 4
1 3
=
4 10
+ 56 ( −1
4
)n 9
20
− 65 ( −1
4
)n
1 3 6 −1 n 9 6 −1 n
4 10
+ 5( 4 ) 20
− 5( 4 )
Exemple 1 (Fin)
Faisant tendre n vers l’infini, nous obtenons
1/4 3/10 9/20
lim Pn
P∗ = n→∞ 1/4 3/10 9/20
=
Exemple 2
La chaîne de Markov associée à la matrice
!
0 1
P=
1 0
et !
2k+1 0 1
P =
1 0
Exemple 2 (Fin)
La limite de Pn lorsque n tend vers l’infini n’existe donc
pas.
La chaîne admet cependant une distribution invariante
π = (1/2, 1/2) mais, pour la distribution initiale
π (0) = (p, 1 − p), nous avons :
Exemple 3
Considérons une marche aléatoire sur l’ensemble
S = {0, 1, 2, 3, 4} définie par la matrice de transition
1 0 0 0
1/2 0 1/2 0
P=
0 1/2 0 2/3
0 0 0 1
Exemple 3 (Suite)
De plus, P est diagonalisable et la limite de ses puissances est
1 0 0 0
2/3 0 0 1/3
lim Pn =
P∗ = n→∞
1/3 0 0 2/3
0 0 0 1
Exemple 3 (Fin)
Les lignes de P∗ ne sont pas toutes égales entre elles et la
distribution à long terme de la chaîne n’est pas indépendante
de sa distribution initiale.
En effet, nous avons
Exercice
Montrer que la multiplicité de la valeur propre 1 d’une matrice
de transition P est supérieure ou égale au nombre de classes
persistantes de la chaîne de Markov définie par P.
Remarque
Les différences dans le comportement asymptotique des chaînes
de Markov irréductibles dépendent uniquement de la période de
la chaîne.
La caractérisation suivante des chaînes irréductibles apériodiques
ainsi que le lemme seront utiles pour établir le résultat principal
concernant le comportement asymptotique de ces processus.
Propriété
Une chaîne de Markov irréductible est apériodique si et seule-
ment si il existe un entier m tel que, pour tout entier n ≥ m et
(n)
pour toutes paires d’états i et j, on a pij > 0.
Lemme
Soit P une matrice stochastique s × s dont le plus petit élément
est ε et soit x un vecteur quelconque de Rs dont la plus petite
composante est m0 et la plus grande M0 . Soit encore m1 et M1
la plus petite et la plus grande composante du vecteur Px. Alors
m0 ≤ m1 ≤ M1 ≤ M0
et
M1 − m1 ≤ (1 − 2ε)(M0 − m0 )
Théorème
Soit P la matrice de transition d’une chaîne irréductible et apé-
riodique. Les propriétés suivantes sont vérifiées :
1 La matrice Pn tend vers une matrice stochastique P∗
lorsque n tend vers l’infini.
2 Les lignes de P∗ sont toutes égales entre elles.
3 pij∗ > 0 pour tout i, j ∈ S.
πP = π (11)
π1 = 1 (12)
lim Pn
P∗ = n→∞
Mouhamadou Lamine BALDE INFO416 : Processus & Files d’attente
Les chaînes irréductibles apériodiques
Exemple
Pour la matrice
1/4 0 3/4
P = 1/4 1/4 1/2
πP = π
π1 = 1
Théorème
La distribution stationnaire π ∗ d’une chaîne de Markov irréduc-
tible apériodique satisfait
1
πi∗ = (13)
µi
où µi est l’espérance du nombre de transitions entre deux visites
successives de l’état i.
Théorème ergodique
Soit {Xn , n = 0, 1, . . .} une chaîne de Markov irréductible apé-
riodique de distribution stationnaire π ∗ et f une fonction réelle
définie sur l’espace S des états de la chaîne. Alors
n
1 X X
lim f (Xk ) = πi∗ f (i) (14)
n→∞ n + 1 k=0 i∈S
presque sûrement.
Remarque
Pendant de la loi forte des grands nombres, le théorème er-
godique s’applique non seulement aux chaînes irréductibles et
apériodiques mais plus généralement aux processus dits ergo-
diques, c’est-à-dire convergeant, indépendamment de leur état
initial, vers une distribution stationnaire unique.
πP = π
π1 = 1
avec
0, 95 0, 04 0, 01 0
0 0, 90 0, 05 0, 05
P=
0 0 0, 80 0, 20
1 0 0 0
Lemme
L’ensemble S des états d’une chaîne de Markov irréductible de
période d peut être partitionné en d classes D0 , D1 , . . . , Dd−1
disjointes et telles que, partant d’un état de Dj , la chaîne se
retrouve à l’étape suivante dans un état de Dj+1 pour j = 0,
1, . . . , d −2. Depuis un état de Dd−1 , la chaîne retourne à l’étape
suivante dans un état de D0 .
Théorème
Soit P la matrice de transition d’une chaîne de Markov irréduc-
tible de période d et soit R = Pd . Alors
(n) d
lim r
n→∞ ij
= si i et j appartiennent à la même classe Dk
µj
et
(n)
lim r
n→∞ ij
= 0 sinon
où µj est l’espérance du nombre de transitions entre deux visites
successives de l’état j (en utilisant la matrice P).
Définition
Une suite {Xn , n = 1, 2, . . .} converge au sens de Cesaro vers
X ∗ si n
1X
lim
n→∞ n
Xn = X ∗
k=1
Remarque 1
Exprimé différemment, une suite converge au sens de Cesaro si
la valeur moyenne de ses éléments converge au sens ordianaire.
Remarque 2
Si une suite converge au sens ordinaire, elle converge également
au sens de Cesaro et les deux limites sont les mêmes.
Remarque 3
La réciproque n’est pas vraie : la suite {1, 0, 1, 0, . . .} ne
converge pas au sens ordinaire mais, au sens de Cesaro, sa limite
est égale à 1/2.
Théorème
Soit P la matrice de transition d’une chaîne de Markov irréduc-
tible. Les propriétés suivantes sont vérifiées :
Théorème (Suite)
Théorème (Fin)
πP = π
π1 = 1
Théorème
Pour toute chaîne de Markov et pour tout état initial, la pro-
babilité de se retrouver dans un état persistant à l’étape n tend
vers 1 lorsque n tend vers l’infini.
Corollaire
(n)
Pour tout état transitoire j, limn→∞ pij = 0, ∀i ∈ S.
Remarque
La définition d’une chaîne de Markov ergodique (du grec
travail et chemin) varie sensiblement selon les auteurs.
Parfois réservée aux seules chaînes irréductibles et
apériodiques, parfois synonyme d’irréductible, la définition
de l’ergodicité est, cependant, toujours liée aux propriétés
de convergence de la distribution de probabilités des états
de la chaîne de Markov.
Théorème
Soit P la matrice de transition d’une chaîne de Markov ergo-
dique. Les propriétés suivantes sont vérifiées :
Théorème (Suite)
3) Pour tout état i ∈ S,
1
πi∗ = >0 si i est persistant
µi
et
πi∗ = 0 si i est transitoire
où µi est l’espérance du nombre de transitions entre deux
visites successives de l’état i.
Théorème (Fin)
πP = π
π1 = 1
Dans les diapos qui suivent, nous allons développer les tech-
niques nécessaires au calcul du nombre moyen de transitions
avant absorption et des probabilités d’être absorbé par tel ou
tel état.
Lemme
Soit Q une matrice telle que limn→∞ Qn = 0. Alors, (I − Q)
est inversible et
∞
N = (I − Q)−1 = I + Q + Q2 + . . . = Qn
X
n=0
et !n !
I 0 I0
Pn = = Pn−1 k
R Q ( k=0 Q )R Qn
(n)
L’élément qij de la matrice Qn est égal à la probabilité qu’un
processus initialement dans l’état transitoire i se retrouve,
après n transitions dans l’état transitoire j.
lim Qn = 0
n→∞
Définition
La matrice N = (I − Q)−1 joue un rôle particulièrement im-
portant et est appelée la matrice fondamentale de la chaîne.
Théorème
Dans une chaîne absorbante, le nombre moyen nij de visites de
l’état transitoire j avant absorption sachant que le processus
débute dans l’état transitoire i est donné par
Corollaire
Pour un processus débutant dans l’état transitoire i, le nombre
moyen Ni de transactions avant absorption est
X
Ni = nij (16)
j transitoire
Remarque
Le calcul du nombre moyen de visites d’un état avant absorption
prend en compte l’état initial du processus. Ainsi, pour tout état
transitoire i, nous avons nii ≥ 1.
Théorème
Dans une chaîne de Markov absorbante, la probabilité
d’absorption par l’état absorbant j sachant que le processus
débute dans l’état transitoire i est égale au terme bij de la ma-
trice
B = NR = (I − Q)−1 R (17)