Académique Documents
Professionnel Documents
Culture Documents
&
Files d’Attente
Par dérivation:
Phénomènes Aléatoires
&
Files d’Attente
i: discret (Ex: chaque jour, chaque changement d’état, chaque intervalle du temps,…)
Chaînes de Markov à Temps Discret
X1 X2 X3 Xi Xn
P2 P3 Pi+1 Pn
X1 X2 X3 Xi Xn
P1
P1
P(X1=x1,X2=x2,….,Xn=xn)=P1(X1=x1)xP2(X2=x2/X1=x1) xP3(X3=x3/X2=x2) x…xPn(Xn=xn/Xn-1=xn-1)
Exemple:
1er jour Dimanche Les autres jours
N B H N B H N B H
0.98 0.00 0.02 N 0.01 0.98 0.01 0.08 0.90 0.02
B 0.00 0.97 0.03 0.00 0.88 0.12
H 0.00 0.00 1.00 0.00 0.00 1.00
P1
Si Pi(Xi/Xi-1) ne dépond pas du temps i (les dates) alors la chaîne de Markov est Homogène.
aij=P(Xt=j/Xt-1=i)
0.20
Chaînes de Markov à Temps Discret
• Vecteur d’état:
Pour une chaîne de Markov à N états, on appelle le vecteur [P(i)]
= [p1(i) , p2(i) , ………………pN(i)] le vecteur d’état du système à
l’instant i. pj(i) représente la probabilité pour qu’on soit, à
l’instant i, dans l’état j.
Ce vecteur est stochastique : et
Chaînes de Markov à Temps Discret
• Équation d’évolution:
Soit une chaîne de Markov avec le vecteur d’état initial P(0) et la
matrice de transition M= ,(pij = P(Xt+1=j/Xt=i))
0.3 +0.5 0.2 0.5 + 0.2 0.3 0.5 0.5 0.2 0.5+02
0 1 2 0 1 2
0.3 0.3+0.5+0.2 0.3 0.3
0.2
t = Chaque matin juste avant l’arrivage t = Chaque matin juste après l’arrivage
Chaînes de Markov à Temps Discret
• Décomposition et Classification des C.M :
– Classe d’équivalence : Ensemble des états qui peuvent communiquer
entre eux (on peut aller de n’import quel état vers n’import quel autre état
de la même classe)
– Classe fermée et transitoire : Une classe d’équivalence est dite fermée
(finale) ssi on ne peut plus sortir si on y entre. Sinon elle est transitoire.
– État persistant et transitoire : un état qui appartient à une classe fermée
est dit persistant (récurrent). Si une classe fermée est composée d’un seul
état alors cet état est absorbant. Les états qui composent les classes
transitoires sont des états transitoires.
– C.M irréductible et réductible : Si tous les états d’une chaîne
appartiennent à la même classe d’équivalence alors on dit que cette chaîne
est irréductible. Sinon (il y a au moins deux classes) la chaîne est réductible.
Chaînes de Markov à Temps Discret
Exemple:
Chaînes de Markov à Temps Discret
Chaînes de Markov à Temps Discret
Exemple:
Chaînes de Markov à Temps Discret
• Comportement asymptotique d’une C.M :
Il s’agit, principalement, d’étudier le comportement de la chaîne
lorsque le nombre de transitions augmente indéfiniment.
Précisément, il s’agit d’étudier la limite du vecteur d‘état :
C’est-à-dire les probabilités d’états tendent vers des valeurs limites p1,p2 ,
…………….,pN strictement positives indépendantes de la distribution initiale
p1(0),p2(0),………., pN(0). Dans ce cas, la matrice correspondante est dite
régulière ou ergodique. On appelle régime permanent celui qui correspond
aux valeurs [p(∞ )] dans le cas où le système a la propriété ergodique.
Chaînes de Markov à Temps Discret
• Comportement asymptotique d’une C.M :
2. Chaîne irréductible:
B. Chaînes apériodiques (ergodiques ou régulières):
Chaînes de Markov à Temps Discret
• Comportement asymptotique d’une C.M :
2. Chaîne irréductible:
B. Chaînes apériodiques (ergodiques ou régulières):
Remarque : En régime permanent, Pn, la probabilité de l’état n représente la fraction
du temps pendant laquelle le système est dans cet état (loi des grands nombres :
fréquences = probabilités).
Exemple:
Chaînes de Markov à Temps Discret
• Comportement asymptotique d’une C.M :
2. Chaîne irréductible:
B. Chaînes apériodiques (ergodiques ou régulières):
i: continu
Chaînes de Markov à Temps Continu
• Définition:
Les Chaînes de Markov à temps continu décrivent des systèmes
pour lesquels les changements d’états peuvent avoir lieu à tout
instant. On considère alors le système au moment où il quitte
l’état n qu’il occupe actuellement et on caractérise la chaîne de
Markov par le taux instantané de transitions de n vers n’≠n.
Chaînes de Markov à Temps Continu
• Définition:
Plus précisément, une Chaîne de Markov à temps continu
homogène et régulière (Processus de Markov) est un processus
aléatoire qui vérifie les 3 propriétés suivantes :
1. Absence de mémoire :
P( X t s n' / X u n,0 u t ) P( X t s n' / X t n)
2. Homogénéité :
P ( X t s n' / X t n) P ( X s n' / X 0 n)
3. Régularité :
n n': P( X t dt n' / X t n) pnn ' (dt ) nn ' dt o(dt )
n nn' : P( X t dt n / X t n) pnn (dt ) 1 n dt o(dt )
n ' n
Chaînes de Markov à Temps Continu
Exemple (précédent):
0 01 110
( )
1 10 12 0 01 2 21
2 21 112
0 1 2 1
Chaînes de Markov à Temps Continu
• Régime stationnaire
Il existe une distribution de probabilité limite quand t tend vers
l’infini, indépendante de [P(o)] et notée P, si et seulement si la
chaîne comporte une seule classe finale (pas de périodicité pour
les chaînes à variable continue). Soit la matrice G dont ses
éléments sont λnn’ (λnn = -λn). Cette matrice de transitions est
appelée générateur. La somme de chacune de ses lignes est
nulle.
[ P ].G 0
Pi 1
i
Chaînes de Markov à Temps Continu
• Exemple
Soit G le générateur d’une CMC.
5 2 3
G 0 2 2
1 0 1
1. Donner le graphe représentatif ;
2. Classifier les états de la chaîne ;
3. Déterminer, si elle existe, la distribution stationnaire de la
chaîne.
Chaînes de Markov à Temps Continu
• Processus de naissance et de mort
Un processus aléatoire {Xt, t≥0} à temps continu et à espace
d’états E dénombrable est un processus de naissance et de mort
s’il vérifie les propriétés suivantes :
i. Le système ne peut évoluer instantanément (entre t et t+dt)
que vers les états voisins : si le système est dans l’état n à
l’instant t, il ne pourra passer à l’instant t+dt que vers les
états : n-1, n+1ou n; les probabilités correspondantes étant :
µndt+o(dt), λndt+o(dt) et 1-(µn+λn)dt+o(dt).
Chaînes de Markov à Temps Continu
• Processus de naissance et de mort
Un processus aléatoire {Xt, t≥0} à temps continu et à espace
d’états E dénombrable est un processus de naissance et de mort
s’il vérifie les propriétés suivantes :
ii. Les probabilités de passage d’un état à un autre dépendent
de l’état de départ considéré, mais pas de la date t
(processus homogène).
iii. Au plus un évènement (naissance ou mort) peut survenir
pendant l’intervalle de temps dt (infiniment petit), en
particulier on ne peut avoir une naissance et une mort à la
fois.
Chaînes de Markov à Temps Continu
• Processus de naissance et de mort
Régime permanent : En appliquant le théorème des coupes, on
aura : C1
0
µ λ0
P0 0 P11 n
i 1
1
C0 1, Cn 0
1 C2
P P
1 1 2 2 P P i 1 i µ2 λ1
0 0
2
n
i 1 S Cn
Pn 1n 1 Pn n Pn P0
i 1 i
n 0
n-1 Cn
P0 1 µn λn-1
Pi 1 S
Pi 1
n
i 0 P C P
i 0 n n 0 µn+1 λn
n+1
Chaînes de Markov à Temps Continu
• Processus de naissance et de mort
Régime permanent : La condition nécessaire pour qu’un régime
permanent puisse s’établir est que la série S converge :
n
i 1
S Cn 1
n 0 n 0 i 1 i
En particulier : i 0, i 0
Cette condition nécessaire est souvent suffisante et on a alors,
en régime permanent : 1
P0
S
Pn 0 Cn P0
Chaînes de Markov à Temps Continu
• Exemple :
Une station de taxi permet à quatre taxis de se garer pour attendre les clients. Les
taxis arrivent à la station aléatoirement suivant une loi de Poisson de taux μ
(taxis/min). Lorsque la station est complète, le taxi poursuit sa route. Les clients
arrivent aléatoirement suivant une loi de Poisson de taux λ (clients/min), ils font
éventuellement la queue et sont pris en charge selon l’ordre de leur arrivée; Toutefois,
on a remarqué que lorsque cinq clients attendent déjà, tout nouveau client arrivant
renonce à attendre.
1. Associer à ce problème un processus de naissance et de mort; on notera Eij l’état
pour lequel i taxis et j clients sont en attente (i=0 ou j=0); existe–t-il une condition
pour qu’un régime permanent s’instaure ;
2. Calculer la probabilité des états en régime permanent ;
3. Quel est le nombre horaire moyen des taxis arrivant à la station sans pouvoir s’y
arrêter.
4. Quel est le nombre moyen de clients qui renoncent à attendre ;
5. Application numérique : μ=1 et λ=1,2.
Phénomènes Aléatoires
&
Files d’Attente
Files d’attente
Files d’attente
• Introduction:
Les files d’attente sont des phénomènes qu’on observe
fréquemment dans notre activité quotidienne: dans le domaine
économique, administratif, dans des procédés technologiques
etc. Ces phénomènes de congestion ont toujours leur source
dans des fluctuations du système: c’est parce que pendant
certaines périodes la demande de service excède l’offre (la
capacité de service) que des files d’attente se créent.
Files d’attente
• Caractéristiques:
Les caractéristiques d’un phénomène d’attente sont en général constituées par :
Des arrivées d’unités à des intervalles de temps réguliers ou irréguliers
dans un système dont la structure sera précisée plus loin ; par exemple
arrivées de bateaux dans un port. L’origine de ces unités est appelée
source.
Le système comprend un centre d’attente et un centre de service. Ce
dernier est constitué par une ou plusieurs stations. Chaque unité doit
passer dans une (ou plusieurs) station pour y recevoir un certain service.
La durée de service est en général aléatoire de sorte que les unités
peuvent avoir à attendre avant qu’une station soit disponible. Elles
séjournent alors dans le centre d’attente en constituant une file
d’attente. On suppose que le passage du centre d’attente au centre de
service est instantané.
Files d’attente
• Exemples :
Unités Service Stations
Bateaux Déchargement quais
Avions Atterrissage Pistes
Appels téléphoniques Conversation Central téléphonique
fichiers impression imprimante
Machines à réparer Réparation Atelier de réparation
Véhicules péage Poste de péage
Demande de traitement Traitement Processeur
Arrivées de voyageurs Contrôle de douane Douaniers
λ µ
Source
Centre d’attente
Centre de service
Files d’attente
• Caractéristiques:
La plus part des files d’attente qu’on rencontre peuvent être caractérisés
par une séquence de six symboles notés (a/ b/ c) (d/ e/ f), appelée
notation de Kendall. Cette notation a été adoptée par la conférence
internationale sur la standardisation des notations dans la théorie des
files d’attente en 1971. Ces symboles désignent respectivement :
Le processus d’arrivée
Le processus de service
Le nombre de serveurs (stations)
La borne supérieure du nombre d’unité dans le système
Le nombre d’unités dans la source
La discipline de la file
Files d’attente
Files d’attente
• Propriétés:
En prenant l’espérance mathématique des les relations
précédente, on obtient en régime permanent : LC S
LQ LC LS
1
WQ WS
En particulier, on a, en régime permanent :
Flux moyen d’entrée = flux moyen de sortie
On trouve la formule de LITTLE: LS WS
LQ WQ
Files d’attente
• Exercice :
Considérez un système de file d’attente ayant un seul serveur. Les temps
d’arrivée et de service pour chacun des cinq premiers clients sont donnés
par le tableau suivant :
Client Instant d’arrivée Temps de service
1 5 8
2 8 6
3 17 2
4 18 4
5 22 7
– Régime permanent
Cn n et S 1 2
1
1 S p0 1 pn (1 ) n
1
Files d’attente
• M/M/1 :
– Grandeurs caractéristiques
LS E ( X )
1
L 1
WS S
1
WQ WS WS
2
LQ WQ LS
1
P ( station occupée) 1 p0
Files d’attente
• M/M/S :
n n 0,1,2,
n n n 1,2, , S n S n S
– Régime permanent
n
si n S
n!
Cn S nS
si n S
S! S
nS
S 1
n
S S 1
n S S
SS
n 0 n! S! n S S n 0 n! S! S
Files d’attente
• M/M/S :
– Régime permanent
1
S 1 n
S
S
p0
n 0 n! S ! S
n
p si n S pn 1 si n S
n!
0
n
pn S nS
p si n S p si n S
S! S 0 S n 1
S S
P ( stations occupées ) ( , S ) p0
S! S
Files d’attente
• M/M/S :
– Grandeurs caractéristiques
LQ ( , S )
S
LQ
WQ
1
WS WQ
LS WS
Phénomènes Aléatoires
&
Files d’Attente
Observations S S N P S P S
Etat interne
s1 s2 s1 s3 s2 s2 s1
(caché)
L’émission d’un état observé n’est pas déterministe ! Chaque état caché émet,
de manière aléatoire, un parmi N symboles d’un alphabet
Exemple
Trames sonores représentatives de trois mots
différents
pad
bad
spat
Printemps Hiver
N=0.1
P=0.45
S=0.45 0.25
N=0.05
Eté Automne P=0.55
S=0.4
N=0.01
P=0.13 0.25 0.25
S=0.86
0.25
Que peut-on faire avec un HMM ?
L’entraînement de Viterbi
L’algorithme de Baum-Welch
Quelques domaines d’application
Reconnaissance de formes Analyse géopolitique
Reconnaissance de la Robotique
parole Diagnostic
Traitement de la langue Etc.
naturelle
Commande automatique
Avec les SVM, les HMM sont
Traitement du signal
les méthodes statistiques les
Analyse des séquences plus efficaces en dehors des
biologiques approches neuro-mimétiques
Économie
Évaluation de modèle
Étant donné un modèle HMM ={,,,A,B} et une
séquence d’observations O, quelle est la probabilité que
O soit dû à , P(O|) ?
Supposons que O est généré par la séquence Th. de Bayes
d’états Si = si(1),…,si(n) :
P(Si|)=P(si(1),…,si(n)|)=i(1)*ai(1),i(2)*ai(2),i(3)*…*ai(n-1),i(n)
P(O|Si ,)=P(O| si(1),…,si(n),)=bi(1)(o1)* bi(2)(o2)*…* bi(n)(on)
P (O ) P (O Si , ) P ( Si )
i
Th. de Bayes
i (1) * ai (1),i ( 2 ) * bi (1) (o1 ) * ... * ai ( n 1),i ( n ) * bi ( n 1) (on 1 ) * bi ( n ) (on )
i
bi(ot)
Par induction :
s1
m
P( O ) t ( i ) 1( i ) i*bi ( o1 )
i1
m
sj si t1( i ) t ( j )a ji *bi ( ot1 )
j1
Chacun de s1..sm
aurait pu sm Probabilité que si complète
émettre ot Forward la sous-séquence finissant à
t
Observations o1 o2 … on-1 on
s? s? … s? s?
Explication : L’algorithme de Viterbi
max P (O, Si )
b1(.) i
s1 s2
A b2(.)
Recherche parmi tous les
chemins possibles : o(mn) !
b3(.) s3
s2 s2 s2 s2 s2
si si si si si
sn sn sn sn sn
Algorithme de Viterbi (fin)
Soit t (i ) max
i
P (o1 , o2 ,..., ot , si ( t ) si ) la probabilité du
meilleur état finissant la sous-séquence o1,…,ot à l’instant t
1 (i ) i * bi (o1 )
Règle d’induction: (i ) max ( j ) * a * b (o )
t 1 t ji i t 1
j 1..m
2. Récurrence :
t 1
(i ) max t ( j ) * a j ,i * bi (ot 1 )
Pour t = 2,…,n, j 1..m
et 1 i m , (i ) arg max j ( t 1 ( j ) * a j ,i )
t
j 1..m
3. Terminaison :
s(n) = argmaxiT ( i )
4. Retour en arrière :
Pour t = n-1,…,1, s(t) = Ψt+1(s(t+1))
Exemple
Une personne en vacances envoie une carte
postale mentionnant les activités suivantes :
jour 1: plage ; jour 2 : magasinage ; jour 3 : sieste.
On veut en déduire la séquence météorologique
sous-jacente probable sachant que :
Les conditions météorologiques suivent une chaîne de
Markov à 2 états : Pluie et soleil
On possède des statistiques sur le comportement des
touristes selon les états
Modèle HMM
0.4 0.3 0.6
0.7 0.3
A= B= 0.1 0.6 = 0.4
0.4 0.6
0.5 0.1
Transition d’état émission de symboles par les états état initial
={pluie=1, soleil=2}, ={magasinage=1, plage=2, sieste=3}
t=3
3(1) = maxj (2(j)*aj1)*b1(3)
= max{0.0384*0.7, 0.0432*0.4}*0.5 = 0.01344
=> Ψ3(1) = 1
3(2) = maxj (2(j)*aj2)*b2(3)
= max{0.0384*0.3, 0.0432*0.6}*0.1 = 0.002592
=> Ψ3(2) = 2
P(s1=i,s2=j,s3=k,o1=2,o2=1,o3=3|)=i*bi(2)*aij*bj(1)*ajk*bk(3)
S πi bi aij bj ajk bk P
1,1,1 0.6 0.1 0.7 0.4 0.7 0.5 0.005880
1,1,2 0.6 0.1 0.7 0.4 0.3 0.1 0.000504
1,2,1 0.6 0.1 0.3 0.3 0.4 0.5 0.001080
1,2,2 0.6 0.1 0.3 0.3 0.6 0.1 0.000324
2,1,1 0.4 0.6 0.4 0.4 0.7 0.5 0.01344
2,1,2 0.4 0.6 0.4 0.4 0.3 0.1 0.001152
2,2,1 0.4 0.6 0.6 0.3 0.4 0.5 0.008640
2,2,2 0.4 0.6 0.6 0.3 0.6 0.1 0.002592
Caractérisation d’un HMM par
apprentissage
Partant d’un ensemble de séquences d’observations
O={O1,...,OT}, comment ajuster =<,,,A,B> pour
maximiser P(O|) ?
0
1
0 0
1,1 2,2
3,3
m m m
i, M
j 1 l 1
i
jl N ijk 1 i
j 1 k 1
P( ,V ) i ( 1 )* b j ( ol ) a j ,k
M ijl N ijk
i i
s jS ol
sk S
Entraînement de Viterbi
Pj
P( ,V ) j b j ( ol ) jl a j ,kjk
M N
s jS
ol sk S
N jk : Nombre de passages sj en sk pour l ’ensemble des séquences
M jl : Nombre d’émissions du symbole ol par sj pour l ’ensemble des
séquences
Pj : Nombre de fois où sj est premier dans le chemin de Viterbi
Pj N jk M jl
ˆ j , aˆ j , k m
, bˆ j(ol ) m
T
N
i 1
ji M
i 1
il
Entraînement de Viterbi
1. Choix du paramétrage initial du HMM
2. Répéter
· Initialiser les compteurs N jk M jl Pàj 0
· Pour chaque séquence d’observations Oi
· Calculer le chemin de Viterbi pour le HMM courant
· Mettre à jour des compteurs N jk M jl Pj
Fin pour
· Re-estimer les paramètres du HMM avec les formules
précédentes
Jusqu’à stabilité des paramètres;
Algorithme de Baum-Welch
T
t (i ) * ai , j * b j (ot 1 ) * t 1 ( j )
t (i, j )
P (O k ) t t((ii))PP((oo1t,..., o ,s s H)
1 ,...,t onk i( t ) i , iH )
Algorithme de Baum-Welch (2)
(i, j )
t 1
t : Espérance du nombre de transitions par sj à l’instant t
n 1
t 1
t (i ) : Espérance du nombre total de passages par si
(i, j )
t
Espérance du nombre de transitions de s i vers s j
aˆi , j t 1
n 1
Espérance du nombre de passages par s i
t (i)
t 1
ˆ i 1 (i )
n n
t ( j ) ot t ( j )(ot ˆ j )T (ot ˆ j )
ˆ j t 1
n
ˆ j t 1
n
t ( j)
t 1
t ( j)
t 1