Académique Documents
Professionnel Documents
Culture Documents
1 Graphes 2
1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Matrice d’adjacence . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Graphe pondéré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2 Chaîne de Markov 5
2.1 Graphe probabiliste . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.2 Chaîne de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.3 Chaîne de Markov homogène . . . . . . . . . . . . . . . . . . . . . . 5
2.4 Distribution de transition . . . . . . . . . . . . . . . . . . . . . . . . 6
2.5 Distribution invariante . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1 Graphes
1.1 Définitions
E B
A b b
b
b
A E
b
B C b
b
b
A b
B
C b
b
D b
b
D b
C
b
E D
Graphe 1 d’ordre 5 Graphe 2 d’ordre 5 Graphe 3 d’ordre 5
Nature
non orienté non orienté orienté
Degré des A B C D E Graphe complet A B C D E
sommets 2 3 2 3 0 Sommets de degré 4 4 3 2 2 3
E b
A b b
A E
b
b
B
b
B
C b
b
b
C
b
Exemples : D D
A B C D E A B C D E
A 0 1 0 1 0 A 0 0 1 1 0
B 1 0 1 1 0 B 1 0 0 0 1
M1 = C
0 1 0 1 0 M2 = C
1 0 0 0 0
D 1 1 1 0 0 D 0 1 0 0 0
E 0 0 0 0 0 E 0 0 0 0 1
Exemple : Les arêtes du graphe ci-contre représentent des pistes de ski de fond
mesurant chacune 2 km. Les sommets de ce graphes sont les différents points
d’accès à ce domaine skiable.
B
1) Déterminer la matrice d’adjacence du graphe. b
a) de 4 km reliant B à C b
D
b) de 6 km reliant C à lui-même.
c) d’au plus 6 km reliant A à D. b
✏✏✏✏✏✏✏✏✏✏✏✏✏✏✏✏✏✏✏✏✏
0 2 1 0 5 1 2 4 4 16 14 5
2 0 1 1 1 6 4 2 et M3 = 16 8 11 14
1) M =
1 , on en déduit M2 = 14 11 8 16
1 0 2 2 4 6 1
0 1 2 0 4 2 1 5 5 14 16 4
A
Exemple : Les chaînes reliant B à D :
b
2
• B-D de poids 7 C b
1
• B-C-A-D de poids 4 + 2 + 1 = 7
4 7 D 3
• B-F-E-D de poids 1 + 5 + 3 = 8
b
b
E
• B-F-C-A-D de poids 1 + 2 + 2 + 1 = 6 B b
2
Cette dernière est la plus courte pour relier B à 5
D. 1 b
0, 25 0.55 0, 2 0,55 0,2
M= 1 0 0
0 0, 15 0, 85 1
Remarque : Une chaîne de Markov est une suite de variables aléatoires ( Xn ) tel
que la loi de probabilité de Xn+1 ne dépend uniquement que de Xn .
Si cette chaîne modélise un processus temporel, l’état futur du système, Xn+1 , ne
dépend que de son état présent, Xn , et non des états passés (X0 , X1 , . . ., Xn−1 ).
Un tel processus est alors qualifié de « processus sans mémoire ».
(n)
pij = p( X0 =i) ( Xn = j)
Théorème 4 : Loi de Xn
L’espace des états est noté : E = {1 ; 2 ; . . . ; N }
Pour tout n ∈ N, la variable aléatoire Xn est définie par les N probabilités :
p ( Xn = 1) , p ( Xn = 2) , . . . , p ( Xn = N )
Soit πn la matrice ligne : πn = p( Xn = 1) p( Xn = 2) . . . p( Xn = N ) , on a :
∀n ∈ N, πn+1 = πn P ⇒ πn = π0 Pn
0, 8 0, 2 2 1
Exemple : Si P = alors la distribution invariante est π = .
0, 4 0, 6 3 3
q p
D’où π =
p+q p+q
Soit une distribution initiale π0 , on a la distribution à l’instant n, πn = xn 1 − xn
πn+1 = πn P ⇒ xn+1 = xn (1 − p) + q(1 − xn ) ⇒ xn+1 = (1 − p − q) xn + q.
q
La suite ( xn ) est arithmético-géométrique. On définit la suite un = xn − .
p+q
q q q
u n +1 = x n +1 − = (1 − p − q ) x n + q − = (1 − p − q ) x n −
p+q p+q p+q
= (1 − p − q ) u n
La suite (un ) est géométrique de raison (1 − p − q).
Or p, q ∈]0 ; 1[ donc −1 < 1 − p − q < 1.
q
La suite (un ) converge alors vers 0 et donc la suite ( xn ) converge vers .
p+q
La distribution (πn ) converge donc quelque soit l’état initiale π0 vers π.