Vous êtes sur la page 1sur 8

1

GRAPHES – Chapitre 2/2

Partie 1 : Graphes orientés et graphes pondérés


1) Graphes orientés

Définitions : - Un graphe est orienté si ses arêtes, appelées arcs dans ce cas, ont un sens de
parcours.
- Un chemin est une succession d'arcs mis bout à bout.
- Un circuit est un chemin fermé dont les arcs sont tous distincts.

Exemple :
Le graphe orienté ci-contre est d'ordre 3 car il
possède 3 sommets.
Il possède une boucle sur le sommet A.
A – C – B est un chemin de longueur 2.
B – C – B – A – A – C – B est un chemin fermé de
longueur 6.
A – C – B – A est un circuit de longueur 3.

2) Graphes pondérés

Définitions : - Un graphe est étiqueté si ses arêtes (ou ses arcs) sont affectées d'étiquettes
(mots, lettres, symboles, nombres, …)
- Dans le cas où les étiquettes sont des nombres, le graphe est dit pondéré. Les étiquettes
sont appelées les poids entre les sommets.
- Le poids du chaîne (respectivement d'un chemin) est la somme des poids des arêtes
(respectivement des arcs) constituant la chaîne (respectivement le chemin).

Exemple :
Le graphe orienté ci-contre est pondéré.
Le poids entre le sommet B et le sommet A est égal à
5.
Le poids du chemin B – C – B – A est égal à :
1+3+5=9

Vidéo https://youtu.be/ZEiOWcqX7S4

Remarque :
Le chemin le plus court entre deux sommets est le chemin qui a le poids minimum.

Yvan Monka – Académie de Strasbourg – www.maths-et-tiques.fr


2

3) Matrice d’adjacence associée à un graphe orienté

Définition : Soit un graphe G orienté d'ordre n dont les sommets sont numérotés de 1
à n.
La matrice d'adjacence associée à G est la matrice carrée de taille n dont chaque terme a ij
est égal au nombre d'arcs orientés reliant le sommet i vers le sommet j .

Exemple :
Vidéo https://youtu.be/yRBCx3uxN9A

La matrice d'adjacence associée au graphe ci-


contre est :

( )
0 1 1
A= 1 1 1
0 0 0

Partie 2 : Chaîne de Markov

1) Définition

Dans une équipe de football, on étudie les passes que se font trois attaquants A , B et C .
Les probabilités qu'un attaquant passe le ballon à un
autre sont schématisées sur le graphe orienté et
pondéré suivant. Chaque passe de ballon correspond
à une nouvelle expérience aléatoire dont les issues
sont A , B ou C (un des trois attaquants est
susceptible de recevoir le ballon).

Par exemple, la probabilité que l'attaquant A passe


2
le ballon à l'attaquant B est égale à .
3

Les poids des arcs sont alors des probabilités.

Un tel schéma est appelé un graphe probabiliste.

Définition : Un graphe probabiliste est un graphe orienté et pondéré possédant au plus un


arc entre deux sommets et dont la somme des poids des arcs issus d'un même sommet est
égale à 1.

2 1
Par exemple, la somme des poids issus de A est égal à +¿ ¿ 1
3 3

Yvan Monka – Académie de Strasbourg – www.maths-et-tiques.fr


3

2) Marche aléatoire

On considère la variable aléatoire X n prenant les valeurs A , B ou C à l'étape n.


A , B ou C s'appelle les états de X n.
Par exemple, X 3 =B signifie que l'attaquant B possède le ballon après la 3e passe.
La suite de variables aléatoires ( X n ) est appelée marche aléatoire ou chaîne de Markov sur
l'ensemble des issues { A ; B; C }.

Dans une chaîne de Markov, l'état du processus à l'étape n+1 ne dépend que de celui à l'état
n , mais non de ses états antérieurs. Ainsi, la probabilité que l'attaquant C possède le ballon
ne dépend que de la position précédente du ballon (en A ou en B) mais non de ses positions
antérieures.

3) Probabilité de transition

On considère la loi de probabilité de X n, appelée probabilité de transition, qui donne la


probabilité qu'un attaquant possède le ballon à l'étape n (n -ième passe).
1
On note par exemple P X = A ( X n +1=C ) =¿ : la probabilité que le ballon se trouve chez
n
3
l'attaquant C après la (n+1 ¿-ième passe sachant que c'est l'attaquant A qui envoie le ballon.
Il s'agit d'une probabilité conditionnelle.
Cette probabilité ne dépend pas de n .

4) Matrice de transition

Définition : La matrice de transition d'une chaîne de Markov est la matrice carrée d'ordre n
dont le coefficient pij situé sur la ligne i et la colonne j est la probabilité de transition portée
par l'arc reliant le sommet i vers le sommet j s'il existe et 0 dans le cas contraire.

Vidéo https://youtu.be/KRi0C_zOsHs

Dans l'exemple, la matrice de transition est :

( )
2 1
0
3 3
P= 0 , 5 0 0,5 ¿
3 1
0
4 4
Vers A ↑ ↑ VersC
↑ Vers B

On trouve par exemple à l'intersection de la première ligne et de la deuxième colonne la


probabilité que le ballon arrive chez l'attaquant B alors qu'il se trouvait chez l'attaquant A.

Remarques :
- Le coefficient p11 de la matrice P est nul car la probabilité que l'attaquant A garde le ballon
est nulle. Il en est de même pour les coefficients p22 et p33.
- La somme des coefficients d'une même ligne d'une matrice de transition est égale à 1.
Yvan Monka – Académie de Strasbourg – www.maths-et-tiques.fr
4

Définition : L'état probabiliste après n étapes de la chaîne de Markov est la matrice ligne
dont les coefficients sont les probabilités d'arrivée en chaque sommet après n étapes.

Exemple : Dans l'exemple des passeurs au football, la matrice ligne des états après la 3e
étape donnerait les probabilités que le ballon se trouve chez l'attaquant A, chez l'attaquant
B et chez l'attaquant C après 3 passes.

L'arbre de probabilité ci-contre permet de résumer les probabilités de transition de l'étape n


à l'étape n+1.
On note pn, q n et r n les probabilités que le ballon se
trouve respectivement chez l’attaquant A , chez le B et
chez le C après la n -ième passe.

A l'aide de la formule des probabilités totales, on a :

{
3
p n+1=0 ,5 q n + r n
4
2 1
q n+1= p n+ r n
3 4
1
r n +1= pn +0 , 5 q n
3

On note π n=( p n q n r n ) la matrice ligne des états de la


chaîne de Markov après n étapes.
On a alors : π n+1 =π n × P .

Propriété : On considère une chaîne de Markov de matrice de transition P et dont la matrice


ligne des états à l'étape n est π n.
Pour tout entier naturel n , on a : π n+1 =π n × P et π n=π 0 × Pn où π 0 est l'état initial.

Démonstration au programme :
 On note :
- π n=( p n q n r n ) la matrice ligne des états de la chaîne de Markov après n étapes.
- A , B et C les états de X n.

pn +1=P(X ¿¿ n+1= A)¿


¿ P X =A (X ¿¿ n+1= A)P (X ¿¿ n=A )+ P X = B ( X ¿¿ n+ 1= A)P( X ¿¿ n=B)+ P X =C (X ¿¿ n+1=A )¿ ¿ ¿ ¿ ¿
n n n

P( X ¿¿ n=C ), ¿
selon la formule des probabilités totales.
Soit : pn +1=P X = A (X ¿¿ n+1= A) p n+ P X =B ( X ¿¿ n+1=A )q n + P X =C ( X ¿¿ n+1= A)r n ¿ ¿ ¿.
n n n

On reconnait le premier coefficient du produit π n × P .


On prouve de même que q n+1 et r n +1 sont respectivement le deuxième et troisième
coefficient du produit π n × P .

Yvan Monka – Académie de Strasbourg – www.maths-et-tiques.fr


5

n
 La démonstration de l’expression explicite π n=π 0 × P est semblable à celle faites dans le
cadre des suites numériques.
Exemple :
Vidéo https://youtu.be/gxrgpotHfnE

Dans l'exemple précédent, on suppose l'attaquant A possède le ballon à l'étape 0.


La matrice ligne des états après la 3e étape est égale à : π 3=π 0 × P3.
On a : π 0=( 1 0 0 ) car le ballon part de A .
Avec la calculatrice, on obtient :

( )( )
3 7 17 17
2 1
0 24 36 72
3 3
17 7 17
P 3= 0 , 5 0 0,5 =
48 24 48
3 1
0 17 17 7
4 4
32 96 24
Donc :

( )
7 17 17
24 36 72
3
π 3=π 0 × P = (1 0 0 )
17
48
7
24
17
48
=
7
24( 17
36
17
72 )
17 17 7
32 96 24

Ainsi par exemple, la probabilité que l'attaquant C possède le ballon après la 3e passe est
17
égale à ≈ 0 , 24 .
72

Partie 3 : Distribution invariante d'une chaîne de Markov


1) Chaîne de Markov convergente

Définition : On dit qu'une chaîne de Markov de matrice de transition P est convergente si la


suite des matrices lignes ( π n ) des états de la chaîne de Markov converge.

Définition : Si la suite ( π n ) des états d'une chaîne de Markov convergente vérifie π n+1 =π n × P
alors la limite π de cette suite définit un état stable solution de l'équation π=πP .

Méthode : Étudier une distribution invariante d'une


chaîne de Markov à l'aide de la calculatrice ou d'un logiciel

On considère la chaîne de Markov sur le graphe ci-


contre où l'on part de A .

Yvan Monka – Académie de Strasbourg – www.maths-et-tiques.fr


6

A l'aide de la calculatrice, déterminer l'état stable de


cette chaîne de Markov. On admet que la chaîne de
Markov est convergente (distribution invariante).

Correction

( )
0 0 1
La matrice de transition est P= 0 , 5 0 0 , 5 .
0 0 ,5 0 , 5
Pour tout entier naturel n , on a : π n+1 =π n × P , où ( π n ) est la suite des matrices lignes des
états de la chaîne de Markov.
On a donc : π n=π 0 × Pn avec π 0=( 1 0 0 ) car on part de A.
A l'aide de la calculatrice, calculons par exemple π 10 :

On peut effectuer les calculs pour des puissances de P de plus en plus grandes. On constate
que l'état stable semble être la matrice ligne :
π= (
1 2 4
7 7 7 )
L'état stable P vérifie l'équation π=πP , en effet :

Remarque :
Cette méthode ne prouve pas que la chaîne de Markov est convergente.
En supposant qu'elle l'est, elle permet seulement de déterminer l'état stable.

2) Cas d'un graphe à deux sommets

Propriété : On considère une chaîne de Markov de matrice de transition P sur un graphe à


deux sommets où 0< p< 1 et 0< q<1. :

Yvan Monka – Académie de Strasbourg – www.maths-et-tiques.fr


7

Alors on a : P= (1−q p p
1−q )
. Et la suite des matrices lignes ( π n ) des états de la chaîne de

Markov converge vers un état stable π tel que π=πP .


π ne dépend pas de l'état initial π 0.
Démonstration :
Pour tout entier naturel n, on note π n=( p n q n ) avec pn +q n=1.
Comme π n+1 =π n × P , on a :
pn +1=p n (1− p ) +q n × q=p n ( 1−p ) + ( 1− pn ) × q= p n ( 1− p−q )+ q
q
Pour tout entier naturel n , on pose : un =p n−¿ et on a :
p+ q
q
un +1= pn+ 1−¿
p+ q
q
¿ pn ( 1− p−q ) +q −¿
p+ q
q ( 1− p−q )
¿ pn ( 1− p−q ) −¿
p +q

(
¿ ( 1− p−q ) p n−
q
p +q )
¿ ( 1− p−q ) un

( u n) est donc une suite géométrique de raison 1− p−q.


Comme 0< p+ q<2 , on a |1−p−q|<1 et donc ( u n) converge vers 0.
q
D'où ( pn ) converge vers .
p+ q
p
Comme q n=1− p n, ( q n ) converge vers .
p+ q
Les limites de ( pn ) et ( q n ) ne dépendent donc pas de l'état initial.

Méthode : Étudier une distribution invariante d'une chaîne de Markov sur un graphe à deux
sommets
Vidéo https://youtu.be/PS756B-M0Dw

On considère la chaîne de Markov sur le graphe ci-dessous :

Yvan Monka – Académie de Strasbourg – www.maths-et-tiques.fr


8

Étudier la convergence de la chaîne de Markov.

Correction
La matrice de transition est P= (00,,34
0 ,6
0 ,7
. )
Pour tout entier naturel n , on a : π n+1 =π n × P où ( π n ) est la suite des matrices lignes des états
de la chaîne de Markov.
L'état stable π=( p q ) vérifie l'équation π=πP , soit :
( p q )= ( p q ) × 0 , 4 0 , 6
0 , 3 0 ,7 ( )
Ainsi, on a le système : {p=0 , 4 p+ 0 ,3 q
q=0 , 6 p+ 0 ,7 q

{
⟺ 0 , 6 p=0 , 3 q
0 ,3 q=0 ,6 p
⟺ q=2 p

1 2
Comme p+q=1, on a 1− p=2 p et donc p=¿ et donc q=¿ .
3 3
L'état stable du graphe est donc :
π= ( 13 23 )
Cela signifie que, quel que soit l'état initial (départ de A ou de B), les probabilités d'être en
1 2
A et en B tendent respectivement vers et .
3 3

Hors du cadre de la classe, aucune reproduction, même partielle, autres que celles prévues à l'article L 122-5 du
code de la propriété intellectuelle, ne peut être faite de ce site sans l'autorisation expresse de l'auteur.
Yvan Monka www.maths-et-tiques.fr/index.php/mentions-legales
– Académie de Strasbourg – www.maths-et-tiques.fr

Vous aimerez peut-être aussi