Académique Documents
Professionnel Documents
Culture Documents
Réalisé par :
Kennoud Amira
A qui mes études faisaient les grandes joies et ma réussite le couronnement d’une éducation
pleine de bonté et d’indulgence.
Qui n’ont jamais cessé, de formuler des prières à mon égard, de soutenir et de m’épauler
pour que je puisse atteindre mes objectifs.
Et A qui
Tous les mots ne seraient être suffisamment éloquents pour exprimer ma profonde gratitude
et l’amour que je vous porte.
Père, Mère, ce jour n’aurait pas été possible sans vous, et je souhaite du plus profond de mon
cœur vous honorer et faire votre fierté.
A qui je dois tout l’amour, avec tout mes voeux de les voir réussir dans leur vie.
Qui sait toujours comment procurer la joie et le bonheur pour moi et pour son père,
A ma belle mère
A mon beau-père
A tout ma famille,
La famille Kennoud
Conclusion Générale…………………………………………………………………………………………………………………77
Annexe………………………………………………………………………………………………………………………………….....78
Bibliographie…………………………………………………………………………………………………………………………….83
7
Introduction générale :
Les chaines de Markov ont une place prépondérante dans le domaine des probabilités.
Ils permettent de modéliser l’évolution dynamique d'un système aléatoire. L’étude de ces
chaines a connu de nombreux champs d’applications, et s’étend sur plusieurs domaines,
notamment en génétique. Néanmoins en écologie, réseaux, mathématiques financières,
simulation…, ce qui nécessite un développement continuel de la théorie qui les régit. Ce
mémoire à pour objet d’exposé un des problèmes théoriques des chaines de Markov. La
question qu’on va se poser est : Dans le cas général, est ce que la suite de variables
aléatoires( ) définie sur une partition quelconque de par :
( ) ( )
est une chaine de Markov. Dans la suite on va donner quelques conditions suffisantes pour
que cette suite ( ) soit une chaine de Markov.
Le deuxième chapitre forme le noyau de ce mémoire. Les outils de bases étant bien
définis au cours de premier chapitre, on peut donc aborder "les chaines de Markov quotients".
Ce chapitre est scindé en deux parties :
Chapitre I
Chaine de Markov à temps discret et Image d’une chaine de
Markov
1. Introduction :
Les chaines de Markov constituent l’exemple le plus simple des processus stochastique,
lorsque dans l’étude d’une suite de variable aléatoire, on abandonne l’hypothèse
d’indépendance. Il s’agit d’un processus à temps discret, d’où le nom de « chaine ».
{ }est fini.
Définition 3 :Une relation binaire est une relation d’équivalence si et seulement si elle est
réflexive, symétrique et transitive.
Propriétés :
{ } { }.
{ }.
Remarque :
CHAPITRE 1.CHAINE DE MARKOV A TEMPS DISCRET ET IMAGE D’UNE CHAINE DE MARKOV 12
1.1.8. Tribu
1.
2. ⇒ (stabilité par complémentaire) ;
3. Si (stabilité par réunion dénombrable).
Exemple :Soit { }
Les ensembles{ }{ { } { }} sont des tribus sur mais { { }} n’est pas une
tribu car ne contient pas le complémentaire de { }
Remarque : La plus petite tribu (tribu triviale) sur est { } tendis que la plus grande
(tribu maximale) est .
Proposition : L’intersection des tribus sur est encore une tribu sur .
Exemple :( ) est une espace mesurable où la tribu engendré par les intervalles
ouvertsde .
Remarques :
Exemples triviaux :
Mesure nulle :
Mesure infinie :
1. Finie si µ( ;
2.
1.1.11. Espace mesuré
Définition :On appelle espace mesuré, le triplet , où est un espace mesurable, est
une tribu sur et une mesure sur .
L'ensemble est appelé l'univers et les éléments de sont appelés les événements, la
mesure est appelée probabilité ou, mieux, mesure de probabilité, et pour un
événement A de , le nombre réel s'appelle la probabilité de l’événement .
Remarque :Dans le cas général on note par pour un espace probabilisé.
Autrement dit, une fonction est dite ( )-mesurable si la tribu image réciproque par
de la tribu est incluse dans . C'est-à-dire si :
Preuve :
Soit Alors .
Exemple :Soit S le nombre de piles obtenus lors du lancer de deux pièces de Monnaie.
L’ensemble des valeurs possibles pour S est {0,1,2}. Si l’on munit l’univers Ω associé à cette
expérience aléatoire de la probabilité uniforme P, il vient :
Cela définit une nouvelle probabilité sur Ω qui tient compte de l’information « l’évènement A
est réalisé ».
Pour comprendre d’ou vient cette formule, plaçons-nous dans le cas d’une expérience
aléatoire dont l’ensemble des résultats possibles Ω est au plus dénombrable.
CHAPITRE 1.CHAINE DE MARKOV A TEMPS DISCRET ET IMAGE D’UNE CHAINE DE MARKOV 15
Supposons que cette expérience aléatoire ait été réalisée mais que l’on ignore son issue ; on
sait seulement que l’évènement A (supposé de probabilité non nulle) a eu lieu.
On doit définir une nouvelle probabilité qui tienne compte de cette information.
D’une part, sachant que l’évènement A est réalisé, on posera : ({ω}) = 0 si ω Ω\A.
D’autre part, il n’y a pas de raison de changer le rapport entre les probabilités de deux
éléments de A, ce qui amène à poser ({ω}) = cP({ω}) pour tout ω A, c étant une
constante indépendante de ω.
Pour que soit une probabilité, c doit valoir égal à 1/P(A). La probabilité est maintenant
entièrement définie : ({ω}) = P ({ω}) / P (A) pour tout ω Ω. Par conséquent, pour
tout évènement B, (B) = P (B∩A) / P (A).
Exemple :Pierre apprend qu’une famille avec deux enfants a acheté l’appartement voisin du
sien. Il se dit qu’il y a une chance sur deux la famille ait une fille et un garçon (il a supposé
que chaque enfant a une probabilité 1/2 d’être un garçon et 1/2 d’être une fille). Dans la
conversation avec des voisins, il apprend ensuite qu’au moins un des deux enfants de cette
famille est une fille. Avec cette nouvelle information, il y a maintenant 2 chances sur 3 que
cette famille ait un garçon et une fille.
Proposition :
Preuve :
P( ∩...∩ ).
( / , = …, , = ( / = )
Cela signifie que l’état du processus à l’instant ( +1) ne dépend que de celui à l’instant
précédent. Le processus est dit sans mémoire.
La chaine est caractérisée par la probabilité de passage de l’état vers l’état qu’on appelle
probabilité de transition et qu’on note par :
=P( / =)
CHAPITRE 1.CHAINE DE MARKOV A TEMPS DISCRET ET IMAGE D’UNE CHAINE DE MARKOV 17
C’est la probabilité que la chaine soit à l’état à l’instant ( +1) sachant quelle était à l’état à
l’instant .
Nous nous intéressons dans ce qui suit uniquement au cas des chaines définies sur un
ensemble d’états fini où dénombrable.
Carré ;
Pour tous les couple de , ≥0 ;
Pour tous ∑ =1 ;
Définition 2 :Une chaine de Markov est représentée par un graphe dont les sommets sont les
états ; il y a un arc du sommet vers le sommet si >0.
-une journée ensoleillée est suivie d’une journée pluvieuse avec probabilité 0.5.
-une journée pluvieuse est suivie d’une journée ensoleillée avec probabilité 0.1.
- une journée pluvieuse est suivie d’une journée pluvieuse avec probabilité 0.9.
Tel que :
P : Pluvieuse
S: Ensoleillé
( / =S) =0.5
CHAPITRE 1.CHAINE DE MARKOV A TEMPS DISCRET ET IMAGE D’UNE CHAINE DE MARKOV 18
( / =P) =0.1
( / =P)=0.9
La matrice de transition :
=( ).
Le graphe de transition :
= ( j/ =i) = ( j/ =i) .
On note la matrice dont les éléments sont les probabilités en transition d’aller de
vers .
= =Pet =I.
Théorème(Equation de Chapmann-Kolmogorov) :
Soit une Chaine de Markov homogène d’espace d’état , de matrice de transitions
Alors,
=∑ ;
En notation matricielle :
= .
Dans le cas général ; On écrit :
CHAPITRE 1.CHAINE DE MARKOV A TEMPS DISCRET ET IMAGE D’UNE CHAINE DE MARKOV 19
=∑ ou =
Exemple 1.2 :Soit une chaine de Markov d’espace d’état { }et de matrice
de transition,
( ).
∑ =
( )
2ème méthode :On calcule directement la matrice de transition puissance le nombre d’étapes :
( )
On a : =0.44.
( )= ( .
=( ( ), ( ), . . ),
Où
CHAPITRE 1.CHAINE DE MARKOV A TEMPS DISCRET ET IMAGE D’UNE CHAINE DE MARKOV 20
( )=∑ ; avec : = ( )
= .
Exemple 1.3 :Soit une chaine de Markov d’espace d’état { } de loi initial
= (1/2 ,1/2) et de matrice de transition,
=( ).
Si l’état est accessible à partir de l’état et que est aussi accessible de l’état On dit alors
que ses états communiquent entre eux et on note .
Remarques :
Dans une chaine de Markov irréductible, tous les états communiquent entre eux
(directement ou indirectement).
=( )
Graphe de transition :
Tous les états communiquent entre eux, donc la chaine est irréductible.
Remarque : un état absorbante ⇒un état récurrente (l’inverse n’est pas toujours vraie).
Exemple 1.5 :Soit une chaine de Markov d’espace d’état { }et de matrice de
transition,
( ).
Le graphe de transition :
Exemple 1.6 :Considérons une chaine de Markov, dont l’ensemble des états est
{ },et de matrice de transition,
( ).
Le graphe de transition :
CHAPITRE 1.CHAINE DE MARKOV A TEMPS DISCRET ET IMAGE D’UNE CHAINE DE MARKOV 23
1.2.7. La périodicité
On défini la période d’un état comme le plus grand diviseur commun de
l’ensemble des temps tel que c’est à dire,
{ }
Proposition :Deux états qui communiquent entre eux ont la même période.
i j =
On en déduit que dans une même classe de communication, la période est le même pour tous
les états.
En terme formel, on dit qu’une chaine de Markov converge vers ou possède une
distribution limite si :
La convergence d’une chaine de Markov est donc une propriété qui ne dépend que de la
matrice de transition .
Pour calculer la distribution stationnaire d’une chaine de Markov d’espace d’états fini,
on résout le système d’équations linéaires suivant :
{∑
Ou :
∑
{
Théorème 1 :
Si la matrice de transition est telle qu’au moins une des ses puissances n’a que des termes
strictement positifs alors :
Et lorsque n
est un vecteur de probabilité strictement positif appelé distribution limite et une matrice
dont toutes les lignes sont identiques au vecteur limite .
Théorème 2 :
Si la valeur propre 1 de la matrice de transition est simple (de multiplicité 1) et toute autre
valeur propre de est de module strictement inférieur a 1 alors :
Lorsque .
CHAPITRE 1.CHAINE DE MARKOV A TEMPS DISCRET ET IMAGE D’UNE CHAINE DE MARKOV 25
=SD .
Avec :
: La matrice inverse de S.
On aura :
est une matrice dont toutes les lignes sont identiques et égales à la distribution limite .
On écrit :
Exemple 1.7:Supposons que le temps qu’il fait d’une journée à la journée suivante est décrit
par une chaine de Markov sur les états 0, 1,2 (0 pour ensoleillés, 1 pour nuageux et 2 pour
pluvieux) de matrice de transition,
=( )
Le graphe de transition :
D’après la graphe de transitions de , on trouve que la chaine est irréductible car elle
contient une seule classe d’équivalence, donc elle possède une unique distribution
stationnaire.
On trouve:
=( ), =( ),
=( ).
On a que :
ne comprend que des termes positifs ce qui confirme le théorème1, on a donc une chaine
de Markov convergente, et on écrit : .
+ =0
Ce qui confirme le deuxième théorème, donc la chaine converge vers une distribution
limite .
Le calcul de :
D=( ).
D’autre part on a :
=( )
et
=( )avec : .
Ona:
⇒ ⇒ .
( )
( )
( )
( )
( ) ( )=
Remarque :une chaine de Markov irréductible possède une unique distribution stationnaire
ne possède pas nécessairement une distribution limite.
1.2.14. Ergodicité
Définition : On dit qui’ un état est ergodique, s'il est récurrent positif et apériodique. On dit
aussi qu’une chaine de Markov est "ergodique" s’il existe une probabilité telle
quepour toute loi initiale µ, la suite converge en loi vers
∑ ∑
Le théorème central limite affirme alors que la suite converge en loi vers une variable
aléatoire normal centrée réduite.
Exemple 3.1:Soit une chaine de Markov de loi initiale = (1 /3, 1/3, 1/3), de distribution
stationnaire et de matrice de transition
P=( )
0;
( ).
= ; = ; = .
.
CHAPITRE 1.CHAINE DE MARKOV A TEMPS DISCRET ET IMAGE D’UNE CHAINE DE MARKOV 30
Exemple 3.2 :Soit une chaine de Markov définie sur un espace probabilisé (Ω,
à espace des états et de matrice de transition,
( )
= = ;
= = =1 ;
= = =0 ;
= = =0 ;
= = =1/2 ;
= = =1/2 ;
= = =3/4 ;
= = =0 ;
= = =1/4 .
Donc :
( ).
Si ∑ =∑ .
Proposition 2 :Si π est une distribution stationnaire pour la suite alors est une
distribution stationnaire pour la suite ( tel que et ∑ .
Preuve :
∑ ∑ .
∑ ∑ ∑ =∑ ⋃ { }
*∑ ∑ ∑ ∑ ∑ ∑ .
{ } { }
Soit une chaine de Markov de loi initiale µ= (1 /3, 1/3, 1/3), de distribution stationnaire
et de matrice de transition,
P=( )
= =0.
= { }
{ }
=
=
CHAPITRE 1.CHAINE DE MARKOV A TEMPS DISCRET ET IMAGE D’UNE CHAINE DE MARKOV 32
=
= =1.
= { }
{ }
=
{ }
( )( ) ( )( )
= = = ;
{ } { })
{ } { }
=
{ }
= .
Donc:
( ).
tel que ∑ .
∑ .
CHAPITRE 1.CHAINE DE MARKOV A TEMPS DISCRET ET IMAGE D’UNE CHAINE DE MARKOV 33
∑ ∑ = .
Donc :
, ).
Preuve :
Soient
Soient
Donc :
Soient alors :
1) .
2)
Soit .alors :
1)
P=( ).
et le graphe de transition de :
( )
Le graphe de transition de :
{ }
Irréductible et
Donc :
{ }.
Irréductibleet
Preuve :
On a :
∑ (Car irréductible).
∑ (Car irréductible).
Soient { } alors :
1) ⇒
2) ⇒
CHAPITRE 1.CHAINE DE MARKOV A TEMPS DISCRET ET IMAGE D’UNE CHAINE DE MARKOV 36
Preuve :
Soit , alors { } ⇒ { } .
( )
Son graphe :
( ).
Proposition :
Proposition 1 :
( )
Proposition 2 :
On a :
∑ ∑
Soient une chaine de Markov d’espace d’états fini, de distribution limite et une
application surjective tel que .
Proposition :Si est irréductible apériodique alors est une chaine de Markov
irréductible apériodique et
( )
( )
1. La chaine est irréductible car elle contient une seule classe de communication.
2. La période : car les deux états se trouve dans la même classe, donc la
chaine est apériodique.
3. La chaine est récurrente positive car l’espace des états est fini et la chaine est
irréductible, donc la chaine est ergodique.
; ∑ .
( ).
Proposition :Si est irréductible périodique alors est une chaine de Markov
irréductible périodique de période ( et
∑ =∑ .
CHAPITRE 1.CHAINE DE MARKOV A TEMPS DISCRET ET IMAGE D’UNE CHAINE DE MARKOV 40
Où ∑ ∑
Chapitre 2
Chaines de Markov Quotients
CHAPITRE 2. CHAINES DE MARKOV QUOTIENTS 42
Chapitre 2
Chaines de Markov Quotients
Nous avons vérifie dans le chapitre précédent si l’image d’une chaine de Markov ( ) par
une fonction conserve le caractère markovien quand cette fonction a une propriété
particulière (injective (bijective) ou surjective).A présent nous arrivons à l’objet même de ce
mémoire. La question qu’on va se poser est : Dans le cas général, est ce que la suite de
variables aléatoires( ) définie sur une partition quelconque de par :
( ) ( )
est une chaine de Markov. Si ( ) est une chaine de Markov, cette suite appelée chaine de
Markov quotient.Dans la suite on va donner quelques conditions nécessaires et suffisantes
pour que cette suite ( ) soit une chaine de Markov.
1. Cas particulier
Si possède que des singletons c'est-àdireque }.
Proposition 1 :Si la partition possède que des singletons alors la suite de variables
aléatoires( ) à valeur dans définie par :
( ) ( ) .
où
( ) tel que = où
Preuve :Soient
⇔ tel que },
( ,… , ) ( ,… , )
= ( ) (car ).
Donc :
( ,… , ) ( )
CHAPITRE 2. CHAINES DE MARKOV QUOTIENTS 43
La propriété de Markov est vérifie d’où ( ) est bien une Chaine de Markov.
Exemple 1 : Soit ( ) une chaine de Markov définie sur l’espace d’état = {1, 2, 3}, de
distribution stationnaire ( , , ) et de matrice de transition,
( )
( ) ( )
Solution :
Possède que des singletons alors ( ) est une chaine de Markov quotient de matrice de
transition :
= ;
= ;
= ;
= ;
= ;
= ;
= ;
Donc :
( )
( ) . tel que : = ( ).
D'où : ( )
CHAPITRE 2. CHAINES DE MARKOV QUOTIENTS 44
( ) ( )
( ) tel que ∑ , .
De plus si( ) admet une distribution stationnaire , alors ( ) admet une distribution
stationnaire donnée par :
( ) tel que =∑ .
Preuve :Soient
( )
On pose : { } card .
( ,… , )= ( )
( ,… , )
( )
( )
( ) ( ) ( )
( { } { } { })
= ( ) ( )
( { } { })
( ) ( )
∑ ∑ ∑ ( )
= ( ) ( )
∑ ∑ ( )
( ) ( ) ( ) ( ) ( )
∑ ∑ ∑ ( ) ( ) ( )
= ( ) ( ) ( )
∑ ∑ ( ) ( )
CHAPITRE 2. CHAINES DE MARKOV QUOTIENTS 45
( ) ( ) ( ) ( ) ( )
∑ ( )∑ ( ) ∑ ( )
= ( ) ( ) ( ) … (*)
∑ ( ) ∑ ( )
( ) ( )
=∑ ( )…(1)
( )
( )
( )
( ) ( )
( { } { })
= ( )
( { })
( ) ( )
∑ ∑ ( )
= ( )
∑ ( )
( ) ( ) ( )
∑ ( )∑ ( )
= ( )
∑ ( )
( ) ( )
=∑ ( )…(2)
Exemple 2 :Soit la suite ( ) une chaine de Markov définie sur l’espace d’état ={1, 2, 3},
de loi initiale µ=( , ), de distributionstationnaire ( )et de matrice de transition
( )
( ) ( )
On vérifié si :
Pour , et } ( )
( ) ( )
CHAPITRE 2. CHAINES DE MARKOV QUOTIENTS 46
et pour , et ( ) ( )
( ) ( )
( )
( )
∑ ( )
( )
( ) ( )
( )
( ) ( )
( )
( ) ( ) ( ) ( )
( )
…(1)
( ) ( )
( )
( )
∑ ( )
( )
( ) ( )
( )
( ) ( ) ( ) ( )
( )
CHAPITRE 2. CHAINES DE MARKOV QUOTIENTS 47
…(3)
De même on calcule :
( { } ) ( )
( ) ( ) =
( ) ( )
( ) ( )
= = .
( )
( { } ) ( )
( ) ( ) =
( ) ( )
( ) ( )
= = …(4)
( )
De l’égalité entre (1) et (2), entre (3) et (4), et d’après la proposition (*) et ( ) nous obtenons
que
( ) ∑ ,
Pour
∑ = .
∑ =∑ = .
∑ = , avec :∑ ∑ = .
∑ =∑ = , avec :
∑ ∑ = . ∑ = .
Donc :
( ).
Pour et ( , , ).
CHAPITRE 2. CHAINES DE MARKOV QUOTIENTS 48
=∑ = = =∑ = = + = .
donc ( )
On suppose que ∑ =∑
Preuve :
( ) est irréductible
D’autre part, on a :
( ) est irréductible
∑ ( ( ) )
∑ ( ( ) )
{
( ) est irréductible.
On suppose que ∑ =∑
Soit Alors :
1) é é é ..
2) é
Preuve :
1) Si état récurrent alors ∑ ( ) donc
∑ ( ) ∑ ∑ ( ) ∑ ( ) (car état récurrent)
alors est récurrente.
Proposition 4 : Si ( ) ( ) Alors.
CHAPITRE 2. CHAINES DE MARKOV QUOTIENTS 49
Preuve :
Soit ( ) ⇔( )
( ) { } { ∑ }= ( ). Alors
( )
D’après le graphe de transition de ( ) elle contient une seul classe d’équivalence donc elle
est irréductible… (a)
On a : ( )
( ).
De même on a trouvé d’après le graphe de transition de ( ) que elle contient une seule
classe d’équivalence donc elle est irréductible … (c)
On a : ( )
De (a) et (c) on déduire que la proposition (1) est vérifié, de (b) et (d) la proposition (4) est
vérifié.
on a :
Exemple 4 :Soit( ) une chaine de Markov définie sur l’espace d’état = {1, 2} de
distribution stationnaire ( ), et de matrice de transition,
( )
( )
Graphe de transition de :
1. La chaine est irréductible car elle contient une seule classe de communication.
2. La période : ( ) ( ) car les deux états se trouve dans la même classe, donc
la chaine est apériodique.
3. La chaine est récurrente positive car l’espace des états est fini et la chaine est
irréductible, donc la chaine est ergodique.
= ; = = 0.5.
( )
=( ).
CHAPITRE 2. CHAINES DE MARKOV QUOTIENTS 52
= .
( )
( ) .
Exemple 5 :Soit( ) une chaine de Markov définie sur l’espace d’états = {1, 2, 3, 4}, de
distribution stationnaire ( )et de matrice de transition
( )
( )
D’après le graphe, on a :
1. La chaine est irréductible car elle contient une seule classe de communication.
Les classes : { } { }
( )
( )
∑ ∑
alors ∑ ∑ ( ) ( )
=
CHAPITRE 2. CHAINES DE MARKOV QUOTIENTS 54
Proposition :Si ( ) est irréductible apériodique alors ( ) est une chaine de Markov
irréductible apériodique de distribution limite ∑ , .
∑ ∑
Exemple 6 :Soit( ) une chaine de Markov définie sur l’espace d’état = {1, 2, 3} de
distribution stationnaire ( ), et de matrice de transition
( )
( )
CHAPITRE 2. CHAINES DE MARKOV QUOTIENTS 55
Son graphe :
D’après le graphe, on a :
1. La chaine est irréductible car elle contient une seule classe de communication.
3. La chaine est récurrente positive car l’espace des états est fini et la chaine est
irréductible, donc la chaine est ergodique.
=∑ = =∑ = = .
( )
=( )
Proposition : Soit ( ) une chaine de Markov quotient irréductible périodique sur une
partition quelconque sur l’espace et de matrice de transition ∑
∑ {
∑ ( ) ∑ .
CHAPITRE 2. CHAINES DE MARKOV QUOTIENTS 56
( ) ( )
Théorème :
Où ∑ ∑
Exemple 7 :Soient( ) une chaine de Markov définie sur l’espace d’états = {1, 2, 3, 4}, de
distribution stationnaire ( ) et de matrice de transition
( )
( )
Le graphe de transition de ( ):
Alors :
Proposition :
1) Si ( ) tel que
( )
2) Si , card ( ) alors il existe une application surjective non injective tel que
( )
Preuve :
D’où ( ) ( )
2) On pose ( )
( ) ( ) donc n’est pas injective,
CHAPITRE 2. CHAINES DE MARKOV QUOTIENTS 58
Soit ,
( ) ( )
( )
( )
Chapitre 3
Applications
CHAPITRE 3. APPLICATIONS 60
Chapitre 3
Applications
1. Introduction sur MATLAB
MATLAB (MATRIX LABORATORY) est un langage interprété, c’est à dire qu’il
exécute directement (sans compilation) les commandes que vous entrez dans la fenêtre de
commandes.
Pour pouvoir l’utiliser, vous devez donc lancer l’interpréteur. L’application vous offre
plusieurs fenêtres, dont une fenêtre principale contenant la fenêtre de commandes avec le
prompt : ». C’est dans cette fenêtre que vous entrerez toutes les commandes MATLAB. Il est
à noter que toutes les commandes sont en minuscules et en anglais.
Lorsque l’on entre une commande, MATLAB affiche systématiquement le résultat de cette
commande dans cette même fenêtre.
Pour entrer dans MATLAB cliquez sur Start/Programmes/MATLAB sous l’environnement
Windows, ou tapez MATLAB au prompt de la Shell sous Unix.
Tout programme ou application écrite en MATLAB peuvent être exécutés dans le MATLAB
ou dans des environnements compatibles. Il peut également l'interface avec des fonctions et
des sous-programmes écrits en l'un des langages de programmation C ou en Fortran, tant
couramment utilisés dans la science et de l'ingénierie. Code MATLAB peut également écrire
des fichiers qui utilisent l'environnement MATLAB en tant que moteur de calcul. En outre, il
peut également écrire du code pour normaliser les processus qui, autrement, se reproduit de
façon anecdotique. Plutôt que de décrire ce qu'on a fait et ayant une autre reproduire ce
processus sur la base des instructions, un code dans MATLAB peut exactement exécuter ces
instructions.
MATLAB contient un support solide pour une précision mathématique, au-dessus et au-delà
d'autres programmes qui manipulent et analysent les données. Parce qu'il est conçu pour
mettre en œuvre des algorithmes et équations complexes, MATLAB permet de décimaux et
des fractions étendues, plutôt que de l'arrondissement que d'autres programmes font. Aussi,
MATLAB peut stocker des fichiers d'image avec une plus grande précision. Plutôt que de
briser l'information en pixels représentés avec trois valeurs de couleur 8 bits comme nombres
entiers compris entre 0 et 255, MATLAB peut être programmé à l'information de l'image du
magasin en double précision, l'arithmétique, ce qui rend les données d'image avec une plus
grande précision flottante.
MATLAB est développé et commercialisé par la société américaine The MATLAB Works.
CHAPITRE 3. APPLICATIONS 61
2. Un exemple pratique
Une entreprise dispose de 2 machines identique fonctionnant indépendamment et
pouvant tomber en panne au cours d’une journée avec la probabilité q= .
On note le nombre de machine en panne au début de n-ième journée.
On suppose qu’une machine en panne n’est réparée que lendemain, le réparateur ne pouvant
toujours réparée qu’une machine dans la journée.
(La machine qui fonctionne ne tombe pas en panne l’autre est réparée)
=( ).
Dans ce chapitre nous utiliserons toujours la matrice mentionnée dans l’exemple pratique.
Remarque : on note µ=V dans les algorithmes que nous avons les traiter.
CHAPITRE 3. APPLICATIONS 62
L’algorithme :
L’exécution :
Nous avons vu un théorème dans le chapitre 1 qui stipule que si la matrice de transition est
telle qu’au moins une des ses puissances n’a que des termes strictement positifs alors la
chaine de Markov converge, par conséquent suivant la condition suffisante, la convergence de
la chaine implique l’existence de sa distribution stationnaire.
L’exécution :
L’irréductibilité
Nous rappelons qu’une chaine de Markov est irréductible si elle contient une seule classe
d’équivalence, si non elle est réductible.
L’algorithme :
L’exécution :
La périodicité
( )
On rappelle que la période d’un état i est définie par : ( ) { }
L’algorithme :
L’exécution :
Ergodicité
On dit que la chaine de Markov est ergodique si elle est "irréductible" et "apériodique" et
"récurrente positive".
L’algorithme :
L’exécution :
Il suffit pour cela de calculer le nombre des éléments de l’ensemble et le nombre des
partitions de puis de les comparer comme suit :
A noter que la CNS signifie "Conditions nécessaires et Suffisantes "vues tout au long du
chapitre (Si ∑ =∑ ).
Nous rappelons que si "la partition possèdeque des singletons", on peut conclure
directement que ( ) est une chaine de Markov quotient.
∑ =∑ .
L’exécution 1:
L’exécution 2 :
Si « la partition est quelconque » il faux vérifie les CNS par l’algorithme suivant :
CHAPITRE 3. APPLICATIONS 72
Exécution 1:
Exécution 2 :
Exécution1 :
Exécution 2 :
Conclusion générale :
L’image d’une variable aléatoire par une fonction est toujours une variable aléatoire,
mais l’image d’une chaine de Markov par la fonction n’est pas forcément une chaine de
Markov. Il existe différents conditions nécessaires et suffisants qui permettent à la fonction
de conserver le caractère markovien de la chaine à temps discret :
- est injective.
- est bijective.
- est surjective et vérifie une condition particulière.
Après avoir confirmé que l’image d’une chaine de Markov par la fonction est une chaine de
Markov il est possible de calculer la matrice de transition associe à la chaine de Markov
image et sa distribution stationnaire a partir de la matrice de transition de la chaine de
Markov et cela dépend de la fonction f (injective, bijective, surjective).
Après avoir confirmé que est une chaine de Markov il est possible de calculer la matrice
de transition associe à la chaine de Markov quotient et sa distribution stationnaire
a partir de la matrice de transition de la chaine de Markov et sa distribution stationnaire
, cela dépend de la partition de des deux cas étudier (cas particulier, cas général).
Une chaine de Markov quotient conserve les mêmes caractéristiques que la chaine
(la périodicité, irréductibilités, récurrence et transition) et peut être identifié à partir de
la matrice de transition de la chaine de Markov
Le code Matlab
ANNAEXE 80
ANNAEXE 81
ANNAEXE 82
83
Bibliographie :
[1] Carl Graham. CHAINES DE MARKOV. Cours et exercices corrigés. Mathématiques
appliquées pour le Master/SMAI, Ecoles d’ingénieurs.
[2] DIBOUN Mejdouline et TALBI Malika. Chaines de Markov Images. Mémoire de fin
d’étude. En vue de l’obtention du diplôme de master. Année 2016/2017.
Lyon1, 2010-2011.
[9] Paolo Baldi. Laurent Mazliak. Pierre Priouret. Martingales et chaine de Markov avec
[11] SAKHERI Fatma zohra et LAKRID wassila. Comportement asymptotique d’une chaine
de Markov image. Mémoire de fin d’étude. En vue de l’obtention du diplôme de master.
Année 2017/2018.