Vous êtes sur la page 1sur 51

Télétrafic

YASSINE MALEH, PhD


Professeur de Cybersécurité
ENSA, Khouribga
yassine.maleh@ieee.org
Objectifs du Cours
 Caractériser une file d'attente, sur la base d'hypothèses probabilistes
concernant les arrivées et les temps de service, le nombre de serveurs,
la taille de la mémoire tampon et la discipline de service;

 Décrire les bases des chaînes de Markov à temps discret et à temps


continu

 Modéliser des systèmes de files d'attente simples, par exemple les files
M/M/1 ou M/M/C/C, comme des chaînes de Markov à temps
continu;

 Calculer les indicateurs clés de performance, tels qu'un délai moyen,


un taux d'utilisation des ressources ou une probabilité de perte, dans
des systèmes simples à un ou plusieurs serveurs;

 Concevoir des simulations de files d'attente avec le langage Python


pour analyser comment des systèmes aux ressources limitées les
distribuent entre les clients.
Télétrafic
Introduction
Introduction

Télétrafic: Notions
 Partage des ressources : lignes de communication,
mémoires, ...

 Attribution temporaire : besoins momentanés des usagers


pour une durée limitée
Introduction

Télétrafic: Notions
 Partage des ressources : lignes de communication,
mémoires, ...
 Attribution temporaire : besoins momentanés des
usagers pour une durée limitée
 Spéculation statistique : risque d’encombrement lorsque
toutes les ressources disponibles sont occupées
simultanément

Impossibilité de satisfaire les demandes !


Introduction

Télétrafic: Notions
 Partage des ressources : lignes de communication,
mémoires, ...
 Attribution temporaire : besoins momentanés des
usagers pour une durée limitée
 Spéculation statistique : risque d’encombrement lorsque
toutes les ressources disponibles sont occupées
simultanément

Impossibilité de satisfaire les demandes !


 TELETRAFIC : évaluation de ce risque,
dimensionnement correct du réseau (compromis entre le
coût et la qualité) !
Introduction

Télétrafic: Notions
Méthodes :
 Observation : statistique du trafic existant et du
comportement des utilisateurs
 Elaboration de modèles : description des caractéristiques des
sources de trafic et des systèmes
 Etude mathématique des modèles : probabilités,
statistiques, files d’attente
 Simulations : modèles compliqués inaccessibles aux calculs
analytiques
Introduction

Télétrafic: Notions
Méthodes :
 Observation : statistique du trafic existant et du comportement des
utilisateurs
 Elaboration de modèles : description des caractéristiques des
sources de trafic et des systèmes
 Etude mathématique des modèles : probabilités, statistiques,
files d’attente
 Simulations : modèles compliqués inaccessibles aux calculs
analytiques
Origines du télétrafic (“traffic engineering”)
 Téléphone : commutation téléphonique au début du 20ème siècle
 Trafic téléphonique : caractéristiques bien connues (débit fixe,
signalisation, réservation de ressources)
Introduction

Télétrafic: Notions
 Réseaux IP, réseau universel
 Navigation Web
 Transfert de fichiers
 Messagerie
 Visioconférences, Skype,...
 Jeux
 Vidéos Internet
 Trafic Internet : caractéristiques très différentes du trafic
téléphonique (normalement : pas de réservation de ressources, pas
de signalisation), beaucoup moins prévisible, complexe.
Nécessité de faire des mesures.
Introduction

Télétrafic: Définitions
Intensité du trafic

Y = c.h

 Y : intensité du trafic écoulé, sans dimension. Exprimé en erlang (E)


(en hommage au mathématicien danois Agner Krarup Erlang, inventeur
du télétrafic).
 c : fréquence moyenne des occupations (en nombre
d’occupation(s)/unité(s) de temps (secondes, heures,...))
 h : durée moyenne des occupations (en unité(s) de temps :
secondes, heures,...)
Introduction

Télétrafic: Définitions
 Remarques
 S’il n’y a qu’une ligne de communication, le taux
d’occupation est au maximum 1 (1 erlang), autrement dit,
Y = c.h ≤ 1 E. Y exprime la probabilité de trouver la ligne
occupée à un instant quelconque.
 S’il y a n lignes de communication, l’intensité du trafic
n
Yn = ∑ i=1 Y i ≤ n E ne peut pas dépasser n erlangs.

 L’intensité du trafic n’indique que le degré d’occupation d’une


ou plusieurs lignes sans s’intéresser à la nature des
occupations (régulier ou pas).
 Le volume de trafic s’exprime en [erlang.heures] et est égal à
Y.∆t en moyenne.
Introduction

Télétrafic: Définitions
 Traffic offert

A = co.h
 A : intensité du trafic offert. Ensemble des sollicitations
(acceptées ou refusées par le système).
 co : fréquence moyenne des occupations
 h : durée moyenne des occupations
 Remarques
 Le trafic offert est un trafic fictif.
Introduction

Télétrafic: Définitions
 Traffic offert

Y = ce.h
 Y : intensité du trafic écoulé. Ensemble des occupations
réelles.
 ce : fréquence moyenne des occupations
 h : durée moyenne des occupations
 Remarques
 Le trafic offert est un trafic réel.
 Comme des sollicitations peuvent être refusées, Y ≤ A.
Introduction

Variations du trafic

 Trafic téléphonique (traditionnel)


 Le trafic varie en fonction du lieu, du moment, des politiques
tarifaires des opérateurs, de circonstances diverses
(catastrophes naturelles, incidents, ...)
 Les variations dans le temps résultent de plusieurs effets :
croissance annuelle, fluctuations saisonnières, cycles
journaliers et hebdomadaires,...
Introduction

Variations du trafic

 Trafic téléphonique (traditionnel)


 Le trafic varie en fonction du lieu, du moment, des politiques
tarifaires des opérateurs, de circonstances diverses (catastrophes
naturelles, incidents, ...)
 Les variations dans le temps résultent de plusieurs effets :
croissance annuelle, fluctuations saisonnières, cycles journaliers
et hebdomadaires, ...
 Base de calcul pour ce trafic : heure chargée (8 à 10 fois plus
important que la moyenne du trafic journalier).
Introduction

Variations du trafic
 Trafic téléphonique (traditionnel)
 Le trafic varie en fonction du lieu, du moment, des politiques tarifaires
des opérateurs, de circonstances diverses (catastrophes naturelles,
incidents, ...)
 Les variations dans le temps résultent de plusieurs effets : croissance
annuelle, fluctuations saisonnières, cycles journaliers et
hebdomadaires, ...
 Base de calcul pour ce trafic : heure chargée (8 à 10 fois plus
important que la moyenne du trafic journalier).
 Intensité du trafic pour un abonné pendant l’heure chargée : on
l’évalue à environ 0.05 E/abonné, soit en moyenne 3 minutes
pendant l’heure chargée
Introduction

Variations du trafic

 Trafic internet (selon


Cisco)

 Estimation 2012 :
 Le trafic IP annuel va dépasser le zettabyte d’ici 2017 (ou 120 exabytes/mois)
 Estimation 2018 :
 Le trafic IP annuel va dépasser 3.3 zettabyte d’ici 2021
 (ou 278 exabytes/mois).
 Estimation 2019 :
 Le trafic IP annuel va dépasser 4.8 zettabyte d’ici 2022
 (ou 396 exabytes/mois).
 1 ZettaByte=1000 EB= 1021 Bytes, 1 ExaByte=1000 PB, 1
 PetaByte=1000 TeraByte
Introduction

Variations du trafic
 L’heure chargée du trafic Internet croit plus vite que le trafic moyen sur
Internet. En 2016 le trafic de l’heure chargée a augmenté de 51% alors que le
trafic Internet moyen a cru de 32%. D’ici 2021 le trafic de l’heure chargée
va être 4.6 fois plus important.
 La moitié du trafic IP Internet a été généré par des appareils qui ne
sont pas des ordinateurs en 2016. En 2012, seulement le 25% du trafic
IP était généré par des appareils autres que des ordinateurs. D’ici 2021,
seulement 25% du trafic sera généré par des ordinateurs.
 Prédictions supplémentaires :
https://www.cisco.com/c/en/us/solutions/collateral/service-provider/ visual-
networking-index-vni/vni-hyperconnectivity-wp.html
Ce chapitre sera consacrée à un
cours de base sur les chaînes
Objectifs du de Markov à temps discret.
Chapitre 1 Nous apprendrons comment
les caractériser et comment
calculer leur distribution en
état stationnaire.
Qu'est-ce qu'une chaîne de Markov à temps discret ?

Processus aléatoire en temps discret


Vocabulaire:
 process: évolue dans le temps
 aléatoire: not perfectly predictable
 Temps-discret: changements possibles par périodes
Process X = (X0, X1, X2, ...)
 état : une valeur possible pour Xn (ex: 1, 2, 3)
Qu'est-ce qu'une chaîne de Markov à temps discret ?
Propriété de Markov
Définition (chaîne de Markov)

Le futur est indépendant du passé, compte tenu du présent. Mathématiquement,

Exemple : tirage au sort


“Têtes” = +1
“Queues” = -1
X0 = 10
Qu'est-ce qu'une chaîne de Markov à temps discret ?
Représenter une chaîne de Markov à temps discret

Représentation graphique : le diagramme de transition d'état


Ingrédients d'une chaîne de Markov à temps discret : situation initiale
États ⇒ tracer un cercle par État
les probabilités de transition ⇒ étiquette flèche de i à j avec Pij
Qu'est-ce qu'une chaîne de Markov à temps discret ?
Représenter une chaîne de Markov à temps discret

Diagramme de transition des États : un exemple


Supposons un modèle météorologique simple (une période = une heure) :
 si le temps est actuellement clair : l'heure suivante est claire (prob. 0,7) ou nuageuse (prob.
0,3) ;si le temps est actuellement nuageux : l'heure suivante est nuageuse (prob. 0.5), claire
(prob. 0.3) ou pluvieuse (prob. 0.2) ;
 si le temps est actuellement pluvieux : l'heure suivante est pluvieuse (prob. 0.5), nuageuse
(prob. 0.4) ou claire (prob. 0.1) ;
Qu'est-ce qu'une chaîne de Markov à temps discret ?
Représenter une chaîne de Markov à temps discret

Représentation graphique : le diagramme de transition d'état


Ingrédients d'une chaîne de Markov à temps discret : situation initiale
États ⇒ les ordonner
les probabilités de transition ⇒ écrire Pij on ième ligne, jième colonne
Qu'est-ce qu'une chaîne de Markov à temps discret ?
Comportement transitoire
Evolution du vecteur de probabilité
Qu'est-ce qu'une chaîne de Markov à temps discret ?
Comportement transitoire

Evolution du vecteur de probabilité


Qu'est-ce qu'une chaîne de Markov à temps discret ?
Comportement transitoire
Évolution du vecteur de probabilité : forme matricielle
Qu'est-ce qu'une chaîne de Markov à temps discret ?
Comportement transitoire

Évolution du vecteur de probabilité : exemple


Qu'est-ce qu'une chaîne de Markov à temps discret ?
Distribution à l'état stationnaire
Convergence
Qu'est-ce qu'une chaîne de Markov à temps discret ?
Distribution à l'état stationnaire
Convergence
Commence par un temps clair (État 1) : Commence par un temps de pluie (État 3) :

Condition nécessaire à la convergence :


De chaque État, nous pouvons atteindre n'importe quel autre État
Qu'est-ce qu'une chaîne de Markov à temps discret ?
Steady-state probabilities
Probabilités d'état stationnaire

Probabilités
convergent vers
Probabilités d'état stationnaire
Qu'est-ce qu'une chaîne de Markov à temps discret ?
Probabilités d'état stationnaire

Interprétation des probabilités de régime


permanent
Une trajectoire (obtenue par simulation)

Probabilité de l’état i ?
Qu'est-ce qu'une chaîne de Markov à temps discret ?
Probabilités d'état stationnaire
Interprétation des probabilités de régime permanent
Une trajectoire (obtenue par simulation)
Chaîne de Markov à temps discret
Calcul de la distribution de l'état stationnaire

Calcul de la distribution de l'état stationnaire


Étant donné une chaîne de Markov avec une matrice de transition P,
comment calculer sa distribution en état stationnaire π ?

Une solution numérique simple : il suffit d'appliquer

Mais... quand exactement s'arrêter ?


Chaîne de Markov à temps discret
Calcul de la distribution de l'état stationnaire

Une solution exact

Rappeler la relation récursive pour les vecteurs de probabilité


Chaîne de Markov à temps discret
Calcul de la distribution de l'état stationnaire
Équations d'équilibre
Décomposez la relation π = πP : pour chaque État i

Ce qui donne
Chaîne de Markov à temps discret
Calcul de la distribution de l'état stationnaire
Interprétation de l’équations d'équilibre
Chaîne de Markov à temps discret
Calcul de la distribution de l'état stationnaire

Équations d'équilibre pour les groupes d'États


Un autre exemple:
Chaîne de Markov à temps discret
Calcul de la distribution de l'état stationnaire

Pour résumer : calculer la distribution de l'état stationnaire π


Chaîne de Markov à temps discret
Plus de détails sur les conditions d'ergodicité

Conditions pour avoir une distribution positive unique de


l'état stationnaire

Conditions nécessaires et suffisantes


Chaîne de Markov à temps discret
Plus de détails sur les conditions d'ergodicité

Récurrence
Irréductibilité Apériodicité
positive

Qu'est-ce que cela signifie ? De n'importe quel État, il


est possible de se rendre dans n'importe quel État
Comment le vérifier ?
Chaîne de Markov à temps discret
Plus de détails sur les conditions d'ergodicité

Récurrence
Irréductibilité Apériodicité
positive

Qu'est-ce que cela signifie ? De n'importe quel État, il est possible


de se rendre dans n'importe quel État
Comment le vérifier ?
Chaîne de Markov à temps discret
Plus de détails sur les conditions d'ergodicité
Irréductibilité Récurrence
Apériodicité
positive

Qu'est-ce que cela signifie ? De n'importe quel État, il est possible


de se rendre dans n'importe quel État
Comment le vérifier ?
Chaîne de Markov à temps discret
Plus de détails sur les conditions d'ergodicité
Irréductibilité Récurrence
Apériodicité
positive

Qu'est-ce que cela signifie ? De n'importe quel État, il est possible


de se rendre dans n'importe quel État
Comment le vérifier ?

Et si elle n'est pas vérifiée ?


Nous perdons la positivité, et peut-être l'unicité, de la
distribution de l'état stationnaire.
Chaîne de Markov à temps discret
Plus de détails sur les conditions d'ergodicité
Irréductibilité Récurrence
Apériodicité
positive

Qu'est-ce que cela signifie ? Il n'existe pas de T ≥ 2 tel que les chemins d'un état à lui-
même ne peuvent prendre que des multiples de T étapes
Comment le vérifier ?
 Sur le diagramme de transition : trouvez une boucle en k étapes et une en k + 1
étapes pour un k
Conseil pratique 1 : si la chaîne est irréductible, il suffit de le faire pour un
seul État !
 En utilisant la matrice de transition P (en supposant l'irréductibilité) : trouvez k et i
Conseil pratique 2 : si Pii > 0 pour un État, c'est suffisant
Chaîne de Markov à temps discret
Plus de détails sur les conditions d'ergodicité
Irréductibilité Récurrence
Apériodicité
positive

Qu'est-ce que cela signifie ? Il n'existe pas de T ≥ 2 tel que les chemins d'un état à lui-
même ne peuvent prendre que des multiples de T étapes
Comment le vérifier ?
 Sur le diagramme de transition : trouvez une boucle en k étapes et une en
k + 1 étapes pour un k
Conseil pratique 1 : si la chaîne est irréductible, il suffit de le faire pour un
seul État !
 En utilisant la matrice de transition P (en supposant l'irréductibilité) :
trouvez k et i

Conseil pratique 2 : si Pii > 0 pour un État, c'est suffisant


Chaîne de Markov à temps discret
Plus de détails sur les conditions d'ergodicité
Irréductibilité Récurrence
Apériodicité
positive

Qu'est-ce que cela signifie ? Il n'existe pas de T ≥ 2 tel que les chemins d'un état à lui-
même ne peuvent prendre que des multiples de T étapes
Comment le vérifier ?
 Sur le diagramme de transition : trouvez une boucle en k étapes et une en
k + 1 étapes pour un k
Conseil pratique 1 : si la chaîne est irréductible, il suffit de le faire pour un
seul État !
 En utilisant la matrice de transition P (en supposant l'irréductibilité) :
trouvez k et i

Conseil pratique 2 : si Pii > 0 pour un État, c'est suffisant


Chaîne de Markov à temps discret
Plus de détails sur les conditions d'ergodicité
Irréductibilité Récurrence
Apériodicité
positive

Qu'est-ce que cela signifie ? Il n'existe pas de T ≥ 2 tel que les chemins d'un état à lui-
même ne peuvent prendre que des multiples de T étapes
Comment le vérifier ?
 Sur le diagramme de transition : trouvez une boucle en k étapes et une en k + 1
étapes pour un k
Conseil pratique 1 : si la chaîne est irréductible, il suffit de le faire pour un seul État !

 En utilisant la matrice de transition P (en supposant l'irréductibilité) : trouvez k et i

Conseil pratique 2 : si Pii > 0 pour un État, c'est suffisant

Et si elle n'est pas vérifiée ?


L'état dans lequel nous en sommes,
dépendra de notre point de départ
Chaîne de Markov à temps discret
Plus de détails sur les conditions d'ergodicité

Irréductibilité Récurrence
Apériodicité
positive

Qu'est-ce que cela signifie ? Le temps de retour prévu dans un État est limité
Comment le vérifier ?
 Si la chaîne est irréductible avec un nombre fini d'États : elle vient directement
 Si la chaîne est irréductible et apériodique : essayez de calculer la distribution en
régime permanent et vérifiez qu'elle est positive
Chaîne de Markov à temps discret
Plus de détails sur les conditions d'ergodicité

Irréductibilité Récurrence
Apériodicité
positive

Qu'est-ce que cela signifie ? Le temps de retour prévu dans un État est limité
Comment le vérifier ?
 Si la chaîne est irréductible avec un nombre fini d'États : elle vient directement
 Si la chaîne est irréductible et apériodique : essayez de calculer la distribution en
régime permanent et vérifiez qu'elle est positive
Chaîne de Markov à temps discret
Plus de détails sur les conditions d'ergodicité

Irréductibilité Récurrence
Apériodicité
positive

Qu'est-ce que cela signifie ? Le temps de retour prévu dans un État est limité
Comment le vérifier ?
 Si la chaîne est irréductible avec un nombre fini d'États : elle vient directement
 Si la chaîne est irréductible et apériodique : essayez de calculer la distribution en
régime permanent et vérifiez qu'elle est positive

Et si elle n'est pas vérifiée ? (en supposant qu'il soit irréductible)


Certains États sont visités un nombre limité de fois
La chaîne est dite instable

Vous aimerez peut-être aussi