Vous êtes sur la page 1sur 8

Université Frères Mentouri.

Constantine 1
Faculté des Sciences de la Nature et de la Vie
Département de Biologie Appliquée

Master en Bio-informatique

Modélisation in Silico des systèmes


biologiques

Modèle de Markov Caché


"MMC"

Dr. Habiba BOUHALLOUF

Septembre 2018
Dr. Habiba BOUHALLOUF 2
Table des matières

1 Probabilités 5
1.1 Définition classique des probabilités . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Définition statistique des probabilités . . . . . . . . . . . . . . . . . . . . . . 6
1.2.1 Fréquence d’un événement . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.2 Complémentaire ou contraire d’un événement . . . . . . . . . . . . . 6
1.2.3 Réunion ou somme de deux événements . . . . . . . . . . . . . . . . . 6
1.2.4 Intersection ou produit de deux événements . . . . . . . . . . . . . . 6
1.2.5 événements incompatibles . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Probabilités conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.1 Evénements dépendants . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.2 Evénements indépendants . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.5 Espérance mathématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.6 Théorème de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.7 Lexique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

2 Matrices 9
2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.3 Addition de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.3.1 Somme de deux matrices . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.3.2 Multiplication d’une matrice par un scalaire . . . . . . . . . . . . . . 10
2.3.3 Propriés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.4 Produit de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.4.1 Produit de deux matrices . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.4.2 Produit d’un vecteur colonne et un vecteur ligne . . . . . . . . . . . . 11
2.4.3 Matrice identité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.4.4 Formule de binôme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.5 Inverse d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.5.1 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.5.2 Calcul de l’inverse d’une matrice (2 x 2) . . . . . . . . . . . . . . . . 13
2.5.3 Calcul de l’inverse d’une matrice (n x n) . . . . . . . . . . . . . . . . 13
2.6 Matrices particulières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.6.1 Matrice triangulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.6.2 Matrice diagonale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.6.3 Matrice transposée . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.6.4 Matrice symétrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

3
3 Processus stochastique 17
3.1 Un espace des temps T . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.2 Un espace des états E . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.3 Une famille de variables aléatoires (Xt )t2T . . . . . . . . . . . . . . . . . . . 17
3.4 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.5 Quelques relations de dépendance . . . . . . . . . . . . . . . . . . . . . . . . 18
3.5.1 Processus de comptage . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.5.2 Processus homogène dans le temps . . . . . . . . . . . . . . . . . . . 18
3.5.3 Processus de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

4 Modèle de Markov 19
4.1 Définition d’une chaîne de Markov . . . . . . . . . . . . . . . . . . . . . . . . 19
4.2 Propriété de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4.3 Chaîne de Markov homogène . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4.4 Matrice de transition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.4.1 Loi de Xn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.4.2 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.5 Représentation graphique d’une chaîne de Markov . . . . . . . . . . . . . . 21
4.6 Théorème de Perron-Frobenius . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.6.1 Etat stable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.6.2 Chaîne de Markov stationnaire . . . . . . . . . . . . . . . . . . . . . 22
4.7 Chaîne de Markov irréductible . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.8 Etat récurrent . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.8.1 Remarque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.9 Etat absorbant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.10 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.10.1 Exemple 01 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.10.2 Exemple 02 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.10.3 Exemple 03 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

5 Modèle de Markov caché 25


5.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
5.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
5.3 MMC du premier ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
5.4 Processus caché . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
5.5 Processus observé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
5.5.1 Exemple d’une séquence de 4 états . . . . . . . . . . . . . . . . . . . 28
5.5.2 Déscription de la figure . . . . . . . . . . . . . . . . . . . . . . . . . 28
5.5.3 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
5.6 Observation d’une séquence d’observation . . . . . . . . . . . . . . . . . . . . 29
5.7 Problèmes rencontrés et algorithmes . . . . . . . . . . . . . . . . . . . . . . . 29
5.7.1 Calcul de P (OT / ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
5.7.2 Recherche de la séquence des étast optimales . . . . . . . . . . . . . . 32
5.7.3 Maximisation de P (OT / ) . . . . . . . . . . . . . . . . . . . . . . . . 32

Bibliographie 35

Dr. Habiba BOUHALLOUF 4


Chapitre 1

Probabilités

Tous les résultats d’une expérience aléatoire constituent un ensemble S appelé l’unvers
des résultats possibles. Les éléments de S sont appelés événements élémentaires.

1.1 Définition classique des probabilités


Soit un événement A contient r points et appartient à l’ensemble S. Sa probabilité est
donnée par :
r
P (A) = (1.1)
n
n : est le nombre d’éléments de l’ensemble S (nombre de cas possibles).
r : est le nombre de cas favorables pour la réalisation de l’événement A.

Propriétés
1. La probabilité est une valeur positive ne dépassant pas 1,

0  P (A)  1 (1.2)

Cela implique que :

— Si P (A) = 0, on dit que l’événement A est impossible.

— Si P (A) = 1, on dit que l’événement A est certain.

— Si P (A) est voisine de 0, on dit que l’événement A est peu probable.

— Si P (A) est voisine de 1, on dit que l’événement A est très probable.

2. La somme de toutes les probabilités d’un événement est égale à 1,


n
X
P (A) = 1 (1.3)
i=1

3. La probabilité de non réalisation de A est égale à (1 P (A)).

5
1.2 Définition statistique des probabilités
1.2.1 Fréquence d’un événement
Si on répète N fois une expérience et on suppose qu’on a obtenu k fois la réalisation d’un
événement A, on appelle la fréquence de l’événement A, le rapport :
k
f= (1.4)
N
La probabilité d’un événement A est donc la limite des fréquences quant le nombre de
répétitions de l’expérience tend vers 1.

1.2.2 Complémentaire ou contraire d’un événement


L’événement contraire d’un événement A est noté Ā. Ā est donc l’événement qui se réalise
quand A ne se réalise pas, et réciproquement.

1.2.3 Réunion ou somme de deux événements


La réunion de deux événements A et B est définie par A [ B, c’est l’événement qui se
réalise quand l’un au moins des deux événements A ou B se réalise.

1.2.4 Intersection ou produit de deux événements


L’intersection de A et B est définie par A \ B qui est l’événement qui se réalise quand A
et B se réalisent simultatnément.

Par conséquent, on écrit :

P (A [ B) = P (A) + P (B) P (A \ B) (1.5)

1.2.5 événements incompatibles


Si A \ B = ;, on dit que A et B sont incompatibles. Pour cela, on peut écrire :

P (A [ B) = P (A) + P (B) (1.6)

1.3 Probabilités conditionnelles


1.3.1 Evénements dépendants
On dit que l’événement A dépend de l’événement B si la probabilité de la réalisation de
l’événement A est modifiée par la réalisation ou la non réalisation de l’événemnt B.

On désigne la probabilité de la réalisation de l’événement A à condition que l’événement


B ait lieu, par P (A/B) qu’on appelle : probabilité conditionnelle de l’événement A sachant
que B est réalisé.
P (A \ B)
P (A/B) = (1.7)
P (B)

Dr. Habiba BOUHALLOUF 6


1. Probabilités

1.3.2 Evénements indépendants


On dit que l’événement A est indépendant de l’événement B si la probabilité de la
réalisation de l’événement A ne dépend pas du fait que l’événement B soit réalisé ou non.
Cela permet d’écrire :

P (A/B) = P (A) (1.8)


P (B/A) = P (B) (1.9)
P (A \ B) = P (A).P (B) (1.10)

1.4 Propriétés
1. soit Ā l’événement contraire de l’événement A, on a :

P (A) + P (Ā) = 1 (1.11)

2. Si A et B sont deux événements quelconques, alors :

P (A \ B) = P (B \ A) ) P (A/B).P (B) = P (B/A).P (A) (1.12)

3. Si A et B sont incompatibles, alors :

P (A [ B) = P (A) + P (B) (1.13)

4. Si A et B sont indépendants, alors :

P (A [ B) = P (A) + P (B) P (A).P (B) (1.14)

5. Si A dépend de B, alors

P (A [ B) = P (A) + P (B) P (A/B).P (B) (1.15)

6. Si A, B et C sont trois événements quelconques, alors :

P (A[B [C) = P (A)+P (B)+P (C) P (A\B) P (A\C) P (B \C)+P (A\B \C)
(1.16)

1.5 Espérance mathématique


Si x désigne une variable aléatoire discrète pouvant prendre des valeurs : x1 , x2 , ..., xn avec
P1 , P2 , ..., Pn comme probabilité respectivement, de telle manière que : P1 + P2 + ... + Pn = 1,
l’espérance mathématique, notée E(x) de x est définie par :
n
X
E(x) = P1 x1 + P2 x2 + ... + Pn xn = Pi x i (1.17)
i=1

Dr. Habiba BOUHALLOUF 7


1.6 Théorème de Bayes
On s’intéresse à la modification des probabilités d’événements suite à la connaissance des
faits. Il s’agit d’exprimer la probabilité conditionnelle P (A/B) :
P (A \ B)
P (A/B) =
P (B)
En changeant la formule du numérateur tel que : P (A \ B) = P (B/A).P (A), on aura :
P (B/A).P (A)
P (A/B) = (1.18)
P (B)
En général, on ne connait pas B. On peut l’exprimer en fonction de A :
P (B) = P (A \ B) + P (Ā \ B) (1.19)
Les événements (A \ B) et (Ā \ B) sont incompatibles. La probabilité d’avoir l’un et l’autre
est la somme des probabilités :
P (B) = P (B/A).P (A) + P (B/Ā).P (Ā) (1.20)
Finalement, la formule du théorème de Bayes s’écrit ainsi :
P (B/A).P (A)
P (A/B) = (1.21)
P (B/A).P (A) + P (B/Ā).P (Ā)
en généralisant cette formule, il vient :
P (B/Ai ).P (Ai )
P (Ai /B) = (1.22)
P (B/Ai ).P (Ai ) + P (B/Āi ).P (Āi )
avec i varie de 1 à n.

1.7 Lexique
A ⌘ L’événement associé à A s’est réalisé.

Ā ⌘ L’événement associé à A ne s’est réalisé pas.

A \ B ⌘ L’événement associé à A et B se sont réalisés au même temps.

A [ B ⌘ L’un au moins des événements associés à A et B s’est réalisé.

A \ B̄ ⌘ L’événement associé à A s’est réalisé et l’événement associé à B ne s’est réalisé


pas.

A [ B̄ ⌘ L’événement associé à A s’est réalisé ou l’événement associé à B ne s’est réalisé


pas.

A [ B ⌘ Aucun des deux événements associés à A et B ne s’est réalisé pas.

A \ B ⌘ Les événements associés à A et B ne se sont réalisés pas au même temps.

Dr. Habiba BOUHALLOUF 8

Vous aimerez peut-être aussi