Vous êtes sur la page 1sur 104

N° d’ordre : 09 / RS / TCO Année Universitaire : 2012 / 2013

UNIVERSITE D’ANTANANARIVO
----------------------
ECOLE SUPERIEURE POLYTECHNIQUE
-----------------------
DEPARTEMENT TELECOMMUNICATION

MEMOIRE DE FIN D’ETUDES

en vue de l’obtention

du DIPLOME d’INGENIEUR
Spécialité : Télécommunication
Option : Réseaux et Systèmes (RS)

par : MAMPISAINA Sarobidisoa Ravoson

OPTIMISATION DE LA PERFORMANCE
D’UN RESEAU AVEC MPLS

Soutenu le 07 Août 2014 devant la Commission d’Examen composée de :

Président :
M. RAKOTOMALALA Mamy Alain

Examinateurs :
M. RATSIHOARANA Constant
M. ANDRIANANDRASANA Boto
M. ANDRIAMANALINA Ando

Directeur de mémoire :
M. RATSIMBAZAFY Andriamanga
REMERCIEMENTS

Je remercie Dieu Tout Puissant pour la santé et le courage qu’Il m’a octroyé durant mes
années d’études surtout pendant la réalisation de ce mémoire.
J’adresse aussi ma reconnaissance à :
- Monsieur ANDRIANARY Philippe, Professeur Titulaire, Directeur de l’Ecole
Supérieure Polytechnique d’Antananarivo, qui m’a permis d’effectuer mes études à
l’Ecole Supérieure Polytechnique d’Antananarivo,
- Monsieur RAKOTOMALALA Mamy Alain, Maître de Conférences, Chef de
Département Télécommunication, qui nous a fait l’honneur de présider ce membre
de jury,
- Monsieur RATSIMBAZAFY Andriamanga, Maître de Conférences, pour sa
patience, ses directives et ses conseils qui m’ont été précieux afin de mener ce
travail à bon port.

Mes vifs remerciements vont également aux membres du jury :


- Monsieur RATSIHOARANA Constant, Maître de Conférences,
- Monsieur ANDRIANANDRASANA Boto, Enseignant Chercheur,
- Monsieur ANDRIAMANALINA Ando, Assistant Enseignant Chercheur,
Doctorant

pour l’intérêt qu’ils ont porté à ce travail en acceptant de l’examiner.

- A tous les enseignants et personnel de l’Ecole Supérieure Polytechnique


d’Antananarivo, en particulier ceux du département Télécommunications, pour
leurs efforts afin d’assurer notre formation.

Sans oublier ma famille, mes amis et tous ceux qui ont de près ou de loin contribué à la
réalisation de ce mémoire.

Merci à vous tous !

i
TABLE DES MATIERES

REMERCIEMENTS ............................................................................................................ i
TABLE DES MATIERES .................................................................................................. ii
ABREVIATIONS ............................................................................................................... vi
INTRODUCTION GENERALE ........................................................................................ 1
: LE CONCEPT RESEAU .............................................................................. 3
1.1 Introduction ........................................................................................................... 3
1.2 Type de commutation ........................................................................................... 3
1.2.1 Commutation de circuit .................................................................................. 3
1.2.2 Commutation de messages ............................................................................. 4
1.2.3 Commutation de paquets ................................................................................ 4
1.2.4 Commutation de cellules ................................................................................ 4
1.3 Modes de connexion ............................................................................................. 5
1.3.1 Mode connecté ................................................................................................ 5
1.3.2 Mode non connecté ......................................................................................... 5
1.4 Modèle OSI ............................................................................................................ 6
1.4.1 Principe ........................................................................................................... 6
1.4.2 La couche application .................................................................................... 7
1.4.3 La couche présentation .................................................................................. 7
1.4.4 La couche session ........................................................................................... 7
1.4.5 La couche transport ........................................................................................ 8
1.4.6 La couche réseau ............................................................................................ 8
1.4.7 La couche liaison de données ........................................................................ 9
1.4.8 La couche physique ........................................................................................ 9
1.5 Réseaux de la couche 2 ....................................................................................... 10
1.5.1 Ethernet ......................................................................................................... 10
1.5.2 Frame Relay (FR) ou Relais de trame ......................................................... 11
1.5.3 ATM .............................................................................................................. 13
1.6 Réseau de la couche 3 ......................................................................................... 16
1.6.1 Origine de l’IP .............................................................................................. 16
1.6.2 Fonctionnement de IP .................................................................................. 16
1.6.3 Avantages d’IP .............................................................................................. 17
1.6.4 Inconvénients de IP ...................................................................................... 17
1.7 Conclusion ........................................................................................................... 18

ii
: LA TECHNOLOGIE MPLS ...................................................................... 19
2.1 Introduction ......................................................................................................... 19
2.2 Concept du MPLS ............................................................................................... 19
2.2.1 Historique...................................................................................................... 19
2.2.2 Définition ...................................................................................................... 20
2.2.3 Architecture .................................................................................................. 20
2.2.4 Structure fonctionnelle de MPLS ................................................................ 21
2.3 Label ..................................................................................................................... 24
2.3.1 Définition ...................................................................................................... 24
2.3.2 Entête MPLS ................................................................................................. 24
2.3.3 Encapsulation entête MPLS ......................................................................... 24
2.4 Principe de fonctionnement ............................................................................... 25
2.4.1 Principe général ............................................................................................ 25
2.4.2 Protocoles de routage interne IGP ............................................................... 26
2.4.3 Mécanismes de commutation ....................................................................... 27
2.5 QoS ....................................................................................................................... 30
2.5.1 Définition ...................................................................................................... 30
2.5.2 Paramètres de QoS ....................................................................................... 31
2.5.3 Classes de services ........................................................................................ 32
2.6 Implémentation de la QoS .................................................................................. 32
2.6.1 Surdimensionnement des réseaux ................................................................ 32
2.6.2 Modèle IntServ (Integrated Service) ............................................................ 33
2.6.3 Modèle DiffServ (Differentiated Service) .................................................... 34
2.7 Conclusion ........................................................................................................... 35
: LES ATOUTS DE MPLS ............................................................................ 36
3.1 Introduction ......................................................................................................... 36
3.2 Traffic Engineering (TE).................................................................................... 36
3.2.1 Problèmes des protocoles de routages internes ........................................... 36
3.2.2 IP-TE ............................................................................................................. 37
3.2.3 MPLS-TE ...................................................................................................... 38
3.3 VPN ...................................................................................................................... 42
3.3.1 Définition ...................................................................................................... 43
3.3.2 VPN MPLS ................................................................................................... 43
3.3.3 Intérêts d’un VPN ......................................................................................... 44
3.4 Utilisations de MPLS .......................................................................................... 45
3.4.1 NGN .............................................................................................................. 45

iii
3.4.2 GMPLS.......................................................................................................... 47
3.4.3 Implémentation de IPv6 ............................................................................... 49
3.5 Conclusion ........................................................................................................... 50
: SIMULATION ............................................................................................. 51
4.1 Introduction ......................................................................................................... 51
4.2 Outils de Simulation ........................................................................................... 51
4.2.1 Présentation de GNS3 .................................................................................. 51
4.2.2 Présentation de Dynamips et Dynagen ........................................................ 52
4.3 Présentation de l’architecture ............................................................................ 52
4.3.1 Routeur utilisé............................................................................................... 52
4.3.2 Adressage du réseau ..................................................................................... 52
4.3.3 Architecture .................................................................................................. 53
4.4 Simulation d’un réseau classique IP ................................................................. 53
4.4.1 Configuration du réseau .............................................................................. 53
4.4.2 Test et Résultats ............................................................................................ 54
4.5 Simulation d’un MPLS-DiffServ-TE ................................................................ 56
4.5.1 MPLS-DiffServ ............................................................................................. 57
4.5.2 MPLS-TE ...................................................................................................... 62
4.5.3 Résultats et vérification ................................................................................ 63
4.6 Simulation d’un VPN MPLS ............................................................................. 66
4.6.1 Architecture de la simulation ....................................................................... 66
4.6.2 Protocoles utilisés ......................................................................................... 67
4.6.3 Méthodologie ................................................................................................ 67
4.6.4 Résultat et vérification .................................................................................. 70
4.7 Conclusion ........................................................................................................... 72
CONCLUSION GENERALE........................................................................................... 73
ANNEXE ............................................................................................................................ 74
ANNEXE 1 : ROUTAGE IP ............................................................................................. 74
ANNEXE 2 : ALGORITHME DE DIJKSTRA .............................................................. 77
ANNEXE 3 : EXTRAIT DE CONFIGURATION D’UN RESEAU IP ........................ 81
ANNEXE 4 : CONFIGURATION D’UN RESEAU MPLS ........................................... 83
ANNEXE 5 : EXTRAIT DE CONFIGURATION DE VPN MPLS ............................. 85
ANNEXE 6: PRESENTATION DE IPERF .................................................................... 88
BIBLIOGRAPHIE ............................................................................................................ 89
PAGE DE RENSEIGNEMENTS ..................................................................................... 92
RESUME ............................................................................................................................ 93

iv
ABSTRACT ....................................................................................................................... 93

v
ABREVIATIONS

ATM Asynchronous Transfer Mode


BGP Border Gateway Protocol
CE Customer Edge router
CEF Cisco Express Forwarding
CoS Class of Service
CR-LDP Constraint-Based Routing – Label Distribution Protocol
CSMA/CD Carrier Sense Multiple Acces with Collision Detect
DCE Data Communicating Equipement
DiffServ Differenciated Service
DTE Data Terminal Equipement
DWDM Dense Wavelength Division Multiplexing
E-LER Egress Label Edge Router
EGP Exterior Gateway Protocol
EIGRP Enhanced Interior Gateway Routing Protocol
ETCD Equipement de Terminaison de Circuit de Données
ETTD Equipement Terminal de Traitement de données
EXP Experimental
FEC Forwarding Equivalence Class
FIB Forwarding Information Base
FR Frame Relay
FTP File Transfer Protocol
GMPLS Generalized MultiProtocol Label Switching
GNS3 Graphical Network Simulator 3rd version
GPRS General Packet Radio Service
GSM Global System for Mobile communication
HLR Home Location Register
IEEE Institute of Electrical and Electronics Engineers

vi
IETF Internet Engineering Task Force
I-LER Ingress Label Edge Router
IGP Interior Gateway Protocol
IGP-TE Interior Gateway Protocol – Traffic Engineering
IntServ Integrated Service
IP Internet Protocol
IPSec Internet Protocol Security
IP-TE Internet Protocol – Traffic Engineering
IPX Internet Packet eXchange
ISO International Standards Organisation
LAN Local Area Network
LDP Label Distribution Protocol
LER Label Edge Router
LFIB Label Forwarding Information Base
LIB Label Information Base
LSA Link-State Advertisements
LSDB Link-State DataBase
LSP Label Switched Path
LSR Label Switch Router
MAC Medium Access Control
MGW Media Gateway
MP-BGP MultiProtocol Border Gateway Protocol
MP𝜆S MultiProtocol Lambda Switching
MPLS MultiProtocol Label Switching
MTU Maximum Transfer Unit
NGN Next Generation Network
OSI Open System Interconnection
OSPF Open Shortest Path First

vii
P Provider device
PCI Protocol Control Information
PDU Protocol Data Unit
PE Provider Edge router
PHB Per Hop Behaviour
PLMN Public Land Mobile Network
PPP Point to Point Protocol
PSTN Public Switched Telephone Network
QoS Quality of Service
RIP Routing Information Protocol
RNIS Réseau Numérique à Intégration de Service
RSVP Resources ReSerVation Protocol
RSVP-TE Resources ReSerVation Protocol – Traffic Engineering
RTC Réseau Téléphonique Commuté
S Stack
SDH Synchronous Digital Hierarchy
SGW Signaling Gateway
SMTP Simple Mail Transfer Protocol
SONET Synchronous Optical NETwork
TCP Transmission Control Protocol
TE Traffic Engineering
TED Traffic Engineering Database
TTL Time To Live
UDP User Datagram Protocol
UIT Union International des Télécommunications
UIT-T Union International des Télécommunications – Télécommunications
VCI Virtual Channel Indicator
VLSM Variable-Length Subnet Mask

viii
VPI Virtual Path Indicator
VPN Virtual Private Network
VRF VPN Routing and Forwarding
WAN Wide Area Network

ix
INTRODUCTION GENERALE

Les réseaux de télécommunications jouent un rôle de plus en plus important dans nos activités
quotidiennes. Les services utilisés sont de plus en plus gourmands en ressource. Cela entraine une
augmentation considérable de l’utilisation de la bande passante engendrant ainsi des congestions
au niveau des routeurs. Le débit devient de plus en plus médiocre. Or, l’interruption des services
qu’ils fournissent ou même une dégradation significative de leur qualité deviennent de moins en
moins acceptables. De plus, les fournisseurs d’accès veulent ajouter de nouveaux services tout en
conservant leurs infrastructures existantes. Ces nouvelles applications exigent la prise en compte
des spécifications propres à chacune d’elles pour qu’elles puissent fonctionner correctement.
Aussi, on doit aux utilisateurs un réseau avec le maximum de performance possible.
La question qui se pose est alors : comment améliorer la performance d’un réseau ?
Pour répondre à cette question, nous nous focaliserons dans cet ouvrage sur les atouts que la
technologie MPLS peut apporter. D’où le thème de ce travail : « Optimisation de la performance
d’un réseau avec MPLS ».
MPLS est le sigle de MultiProtocol Label Switching. De ce fait, c’est un protocole de routage à
commutation d’étiquette. MPLS combine le routage des paquets de la couche 3 de OSI et le
mécanisme de commutation de la couche 2. C’est pourquoi on l’appelle un protocole de niveau
2.5.
Son mécanisme de transfert simple offre les possibilités de nouveaux contrôles et des nouvelles
applications. Avec MPLS, le traitement des informations est plus rapide, les ressources des
routeurs et des commutateurs sont moins sollicitées. Ainsi, les paquets circulent plus vites, nous
donnant un débit favorable. L’un des points forts de ce mécanisme est qu’il peut transporter
n’importe quel type de trafic sans se soucier du protocole réseau que celui-ci utilise.
On ne peut parler de performance d’un réseau sans mentionner la qualité de service (QoS). La QoS
consiste à assurer les performances désirées pour un trafic donné dans un réseau. Dans notre
travail, nous présenterons le modèle DiffServ pour solution. Ce modèle consiste à regrouper les
flux par classe de façon à les associer à des QoS prédéfinies. De plus, il est adapté aux réseaux de
grande taille.
En outre, MPLS offre de multiples services pouvant améliorer le fonctionnement d’un réseau
comme l’ingénierie de trafic et la création d’un réseau privé virtuel (VPN). On peut aussi parler

1
de son intervention dans quelques réseaux comme le NGN où MPLS est un candidat potentiel pour
la couche transport et le réseau optique avec GMPLS.
Dans cette étude, on parlera du concept réseau, de la technologie MPLS, des nouveaux services
que MPLS peut apporter et surtout de la simulation qu’on a faite.

2
: LE CONCEPT RESEAU

1.1 Introduction

Un réseau est un ensemble de matériels et de logiciels permettant à des équipements de


communiquer entre eux. Il permet de transporter des informations d’un usager à un autre. Un
réseau peut être de LAN à WAN selon son échelle. Les technologies modernes en matière de
communication et d’information sont largement basées sur les réseaux, qui sont de nos jours de
plus en plus utilisés aussi bien en entreprise que dans la vie quotidienne.
Ces réseaux sont régis par des normes, on peut citer le modèle OSI (Open System Interconnection)
qui est le plus utilisé. Ce modèle a été créé afin de remédier aux incompatibilités entre les réseaux
de différents constructeurs.
Dans ce chapitre, nous parlerons des terminologies utilisées dans le réseau, du modèle OSI puis
de quelques réseaux.

1.2 Type de commutation [1] [2] [3] [4] [5]


La commutation est la manière de faire passer l’information de l’émetteur au récepteur. Il existe
différentes types de commutation :

 Commutation de circuits
 Commutation de paquets
 Commutation de message
 Commutation de cellules

1.2.1 Commutation de circuit


C’est la commutation la plus ancienne. Elle est utilisée par le RTC (Réseau Téléphonique
Commuté) et le RNIS (Réseau Numérique à Intégration de Service).
Son principe est de créer un circuit physique reliant les deux extrémités lors de l’établissement de
la connexion. Le transfert de données ne peut être effectué qu’après l’établissement de la totalité
de la ligne entre l’émetteur et le récepteur. Ce mode se caractérise essentiellement par la
réservation des ressources de communication : on parle de réservation de bande passante.

3
Le service offert est en mode connecté où on distingue trois étapes :
- Etablissement de la connexion
- Transfert de l’information
- Libération de la connexion
Elle est plutôt adaptée au transport de la voix. Son principal inconvénient réside dans le fait que le
circuit est occupé pendant la communication, qu’il soit utilisé ou non.

1.2.2 Commutation de messages


Dans la commutation de message, il n’y a pas de réservation de ressource. Ainsi, les messages qui
arrivent dans le nœud de commutation sont traités selon leur ordre d’arrivée. S’il y a trop de trafic,
il y a attente dans la file. Donc le temps de traversée du réseau n’est pas constant et dépend des
temps d’attente qui est fonction du trafic.
L’avantage de cette technique est une meilleure utilisation des ressources puisqu’il n’y a pas de
réservation.

1.2.3 Commutation de paquets


Dans la commutation de paquet, l’information à transmettre est découpée en paquets. Ce sont ces
paquets qui sont transportés de point en point à l’autre extrémité du réseau. Le récepteur doit donc
être capable de réassembler tous ces paquets dans l’ordre.
Avec la commutation de paquet, on peut commencer à transmettre un paquet pendant qu’on reçoit
un autre paquet du même message, le temps d’émission est réduit du fait de la limitation de la taille
du paquet. Ainsi, il y a une meilleure gestion de la file d’attente et un meilleur multiplexage des
données.
Elle est généralement utilisée sur les réseaux locaux, internet, Frame Relay et GPRS (General
Packet Radio Service). La commutation de paquets est adaptée au transport des données.

1.2.4 Commutation de cellules


C’est la commutation utilisée par ATM (Asynchronous Transfer Mode). La commutation de
cellules est un mélange de la commutation de circuits et de la commutation de paquets. Le temps
de commutation est très faible par rapport au temps de propagation du signal. Elle permet
d’introduire des notions de qualité de service. La commutation de cellules est utilisée
principalement sur les liens d’interconnexion ou dans des applications multimédia.

4
1.3 Modes de connexion [5] [6]
Il existe deux types de mode de connexion : mode avec connexion et mode sans connexion.

1.3.1 Mode connecté


Toute la transmission doit être précédée d’une demande de connexion réussie. Cela permet de
contrôler la transmission comme l’authentification des intervenants et le contrôle de flux.
Le mode connecté passe par trois phases :

 Etablissement de la connexion au cours de laquelle on choisit le chemin


 Transfert des données sur la route choisie
 Coupure de la connexion
Il est utilisé dans les réseaux de type X.25, Frame Relay, ATM ou encore RTC. Un des avantages
du mode connecté est qu’il permet la définition de QoS. En effet, à l’établissement de la connexion,
on passe des paramètres de QoS qui sont pris en compte dans le choix de la route. Il assure aussi
l’arrivée des paquets dans le bon ordre.
On peut souvent dire mais pas toujours que la transmission par mode connecté est fiable.

1.3.2 Mode non connecté


Ce principe est similaire à celui du courrier postal. Contrairement au mode connecté, il n’y a pas
de négociation entre les intervenants (ni contrôle de flux ou d’erreur). Les paquets envoyés par le
mode non connecté ne suivent pas une route préétablie. Tous les paquets sont routés
indépendamment les uns des autres et ne prennent pas forcement la même route.
Les paquets à envoyer sont préfixés par un entête contenant une adresse de destination, suffisante
pour permettre la livraison autonome du paquet sans recours à d’autres instructions.
Un paquet transmis en mode non-connecté est fréquemment appelé un datagramme.
Malheureusement, dans une transmission en mode non connecté d’un paquet, le fournisseur du
service de transmission ne peut garantir qu’il n’y aura pas de perte, d’insertion d’erreur, de
mauvaise liaison, de duplication, ou de dé-séquencement de la livraison de paquets.

5
1.4 Modèle OSI [7] [8] [9]
Le modèle OSI (Open System Interconnection) a été développé en 1978 par l’ISO (International
Standards Organization) afin que soit défini un standard utilisé dans le développement de système
ouvert. Les réseaux s’appuyant sur les spécifications de l’OSI « parlent le même langage », c’est-
à-dire qu’ils utilisent des méthodes de communication semblables pour échanger les données. [6]
Ainsi, OSI est la solution proposée pour remédier à l’incompatibilité des différents réseaux. Il
assure donc la compatibilité et interopérabilité entre diverses technologies réseau.

1.4.1 Principe
1.4.1.1 Les différentes couches
Voici les différentes couches en partant du niveau le plus bas :
- Physique
- Liaison de données
- Réseau
- Transport
- Session
- Présentation
- Application
La figure 1.01 suivante montre ces différentes couches.

Figure 1.01 : Modèle OSI

6
Le but de l’OSI est de créer un modèle idéal où chaque couche effectue une tâche définie et dépend
des services de la couche inférieure. Chaque couche fournit donc ses propres services à la couche
directement supérieure à elle.

1.4.1.2 Avantages

Le modèle OSI offre quelques avantages :


- Il permet une compréhension facile de l’acheminement des données,
- Il permet la compatibilité des interfaces réseaux,
- Il permet aussi l’évolution des réseaux,
- Il facilite le dépannage du réseau
- etc

1.4.2 La couche application


La couche application est la couche la plus élevée du modèle OSI. Elle fait office d’interface pour
donner aux utilisateurs un accès aux services. C’est cette couche qui permet le transfert des
fichiers, la rédaction d’un email, l’établissement d’une session à distance ou la visualisation d’une
page, etc.
Plusieurs protocoles assurent ces services, dont FTP (File Transfer Protocol) pour le transfert des
fichiers, Telnet pour l’établissement des sessions à distance, SMTP (Simple Mail Transfer
Protocol) pour l’envoi d’un mail, etc.
Les données à traiter dans cette couche sont appelées messages.

1.4.3 La couche présentation


La couche présentation est la couche qui permet une bonne présentation des données. Elle s’occupe
de la sémantique, de la syntaxe, du cryptage/décryptage, bref de tout aspect visuel de l’information.
Ainsi, la couche présentation présente les données de façon compréhensible.
Les PDU (Protocol Data Unit) ou unité de données de protocole à traiter dans cette couche sont
des messages.

1.4.4 La couche session


Un réseau sert à se communiquer. Il faut établir une session entre les applications qui doivent se
communiquer. La couche session permet d’ouvrir une session, la gérer et de la clore.
Les PDU à traiter son encore des messages.

7
1.4.5 La couche transport
Une fois la session établie, les données doivent être envoyées. La couche transport se charge de
préparer les données à l’envoi. Elle n’est pas responsable du transport des données proprement dit,
mais elle y contribue. En fait, ce sont les quatre dernières couches (transport, réseau, liaison de
données et physique) qui toutes ensemble réalisent le transport des données.
Cependant, chaque couche se spécialise, la couche transport divise les données en plusieurs
segments (ou séquence) et les réunit dans la couche transport de l’hôte récepteur. Cette couche
permet de choisir, en fonction des contraintes de communication, la meilleure façon d’envoyer une
information.
La couche transport modifie également l’entête des données en y ajoutant plusieurs informations,
parmi lesquelles les numéros de ports de la source et de la destination. Elle assure alors la
connexion de bout en bout, la fiabilité et le contrôle des transmissions.
Les PDU traitées dans cette couche sont appelées segment.
TCP (Transmission Control Protocol) et UDP (User Datagram Protocol) sont les protocoles les
plus utilisés dans cette couche.

1.4.6 La couche réseau


La couche réseau se charge du routage des données d’un point à un autre et de l’adressage. Elle
construit une voie de communication de bout en bout à partir de voie de communication avec ses
voisins directs. L’entête du paquet est ajouté d’une adresse IP (Internet Protocol) source et de
destination.
Le choix du mode de transport se fait également dans cette couche (mode connecté ou non
connecté).
Ses apports fonctionnels principaux sont :
- Le routage : détermination d’un chemin permettant de relier les 2 machines.
- Le relayage (acheminement) : retransmission d’une PDU dont la destination n’est pas
locale pour la rapprocher de sa destination finale.
- Le contrôle de flux : contrôle de congestion.
La couche réseau a alors pour rôles principaux l’adressage réseau et la détermination du meilleur
chemin.
Les PDU traitées dans cette couches sont appelées paquets.

8
1.4.7 La couche liaison de données
La couche liaison établit une liaison « physique » entre deux hôtes. Là où la couche réseau effectue
une liaison logique, la couche liaison effectue une liaison physique. En fait, elle transforme la
couche physique en une liaison, en assurant dans certains cas la correction d’erreurs qui peuvent
survenir dans la couche physique.
La couche liaison de données fragmente les données en plusieurs trames, qui sont envoyées une
par une dans le réseau. Par conséquent, elle doit gérer l’acquittement des trames.
Ainsi, la couche de liaison contrôle la liaison et la connectivité.
Les PDU traitées dans cette couche sont appelées trames.

1.4.8 La couche physique


La couche physique reçoit les trames de la couche liaison de données et les convertit en une
succession de bits qui sont ensuite mis sur le média d’envoi. Cette couche se charge donc de la
transmission des signaux électriques ou optiques entre les hôtes en communication.
On y trouve des services comme la détection de collision, le multiplexing, la modulation, le circuit
switching, …
Les données traitées dans cette couche sont des bits.

Nous venons de voir les différentes couches du modèle OSI. Chaque couche a ses rôles bien
définis. Les couches liaison et réseau sont les couches les plus caractéristiques. C’est pourquoi
l’architecture prend souvent le nom du protocole principal utilisé dans ces niveaux. Si le protocole
utilisé dans la couche liaison est par exemple ATM alors le réseau sera appelé réseau ATM. De
même pour la couche réseau, l’utilisation d’un protocole IP permet de nommer le réseau : réseau
IP. Dans ce qui suit, nous allons voir ces réseaux, leurs avantages et leurs inconvénients.

9
1.5 Réseaux de la couche 2

1.5.1 Ethernet
Ethernet, aussi connu sous le nom de norme IEEE 802.3, est un standard de transmission de
données pour réseau local basé sur le principe suivant : « Toutes les machines du réseau Ethernet
sont connectées à une même ligne de communication, constituée de câbles cylindriques. » [10]
Le tableau 1.01 suivant nous montre les différentes variantes de technologie Ethernet suivant le
type et le diamètre des câbles utilisés :

Sigle Dénomination Câble Débit Portée

10Base2 Ethernet fin (thin Câble coaxial (50 Ohms) 10Mbps 185m
Ethernet) de faible diamètre

10Base5 Ethernet épais Câble coaxial de gros 10Mps 500m


(thick Ethernet) diamètre

10Base-T Ethernet standard Paire torsadée 10Mbps 100m

10Base-Tx Ethernet rapide Double paire torsadée 100Mbps 100m


(Fast Ethernet)

100Base-Fx Ethernet rapide Fibre optique multimode 100Mbps 2km


(Fast Ethernet)

1000Base-T Ethernet Gigabit Double paire torsadée 1000Mbps 100m

1000Base-Sx Ethernet Gigabit Fibre optique multimode 1000Mbps 550m

10GBase-SR Ethernet 10Gigabit Fibre optique multimode 10Gbps 500m

10GBase-LX4 Ethernet 10Gigabit Fibre optique multimode 10Gbps 500m

Tableau 1.01 : Variantes d’Ethernet

10
1.5.1.1 Principe de transmission [10]
Tous les ordinateurs d’un réseau Ethernet sont reliés à une même ligne de transmission, et la
communication se fait à l’aide d’un protocole appelé CSMA/CD (Carrier Sense Multiple Access
with Collision Detect). CSMA/CD est un protocole d’accès multiple avec surveillance de porteuse
et détection de collision.
Avec ce protocole, toute machine est autorisée à émettre sur la ligne à n’importe quel moment et
sans notion de priorité entre les machines. Cette communication se fait de façon simple :
- Chaque machine vérifie qu’il n’y a aucune communication sur la ligne avant d’émettre
- Si deux machines émettent simultanément, alors il y a collision.
- Les deux machines interrompent leur communication et attendent un délai aléatoire, puis
la première ayant passé ce délai peut alors réémettre.

1.5.1.2 Intérêts
La plupart des réseaux d’aujourd’hui se développent à travers Ethernet.
Sa simplicité de mise en œuvre est une clé du succès de cette technologie. Mais surtout, Ethernet
est inévitablement associé au transport de flux IP.

1.5.2 Frame Relay (FR) ou Relais de trame [6] [11] [12]


1.5.2.1 Définition
La technologie de réseau de relais de trame a été conçue par l’UIT-T (Union International des
Télécommunications – Télécommunication) pour prendre en charge des utilisateurs qui ont besoin
d’une bande passante plus importante. Cette technologie porte le nom de relais de trame parce que
la plupart des opérations s’effectuent au niveau de la couche de trame (couche 2) du modèle OSI.

FRAD : Frame Relay Access Device

Figure 1.02: Réseau Frame Relay

11
Le protocole de relais de trame est un exemple de protocole orienté connexion. Sur le plan
technique, il peut être vu :
- Comme un successeur de X.25 : il a en effet remplacé ce protocole pour le raccordement
des sites des entreprises aux infrastructures des opérateurs,
- Comme une étape vers l’ATM,
- Comme faisant partie du RNIS.
FR ne fournit pas de correction d’erreur, lorsqu’il détecte des erreurs, le nœud FR abandonne tout
simplement les paquets sans notification. Toute correction d’erreur, telle que la retransmission des
données, est à la charge des composants d’extrémité. La propagation des données d’un point à un
autre est donc rapide.

1.5.2.2 Equipements nécessaires


Deux types d’équipements sont nécessaires dans la mise en œuvre d’un réseau FR :
- DTE (Data Terminal Equipement) ou ETTD (Equipement Terminal de Traitement de
Données): c’est un équipement de terminaison de réseau placé chez le client par le
fournisseur FR, généralement des routeurs.
- DCE (Data Communicating Equipement) ou ETCD (Equipement de Terminaison de
Circuit de données) : c’est un équipement fournissant des services d’horloge et de
commutation placé chez le fournisseur d’accès.

Figure 1.03 : Architecture Frame Relay

12
1.5.2.3 Intérêts et Inconvénients du Frame Relay
Frame Relay ne réalise pas de détection d’erreurs, ce qui procure bien plus de bande passante pour
les données et une vitesse de traitement supérieure à X.25. Il est aussi indépendant des protocoles :
il accepte les données des protocoles différents. De plus, Frame Relay s’appuie sur des circuits
entièrement numériques, ce qui réduit le risque d’erreurs et offre d’excellents débits de
transmission. Un autre avantage du Relais de Trames est l’introduction d’une signalisation séparée
du transport de données.
Frame Relay permet de résoudre des problèmes de communications que d’autres protocoles ne
pouvaient pas traiter :
- le besoin accru de vitesses plus élevées,
- la nécessité de bénéficier d’une bande passante plus efficace,
- en particulier pour fluidifier le trafic, la prolifération d’équipements de réseau
« intelligents » qui réduisent le traitement des protocoles de bas niveau, et le besoin
d’interconnecter des réseaux locaux (LAN) et réseaux étendus (WAN).
Le FR est une technologie qui permet de remplacer les liaisons louées par un « nuage » FR
mutualisé entre de nombreux clients.

1.5.3 ATM
1.5.3.1 Définition
La technologie ATM (Asynchronous Transfer Mode) a été adoptée par l’UIT (Union
Internationale des Télécommunications) à la fin des anné es 80 pour répondre à la demande des
opérateurs de télécommunication d’un « Réseau Numérique à Intégration de Service Large
Bande » unifiant dans un même protocole leurs mécanismes de transport des données, d’images et
surtout de la voix, et garantissant la qualité de service. [11]

1.5.3.2 Principe [12]


L’ATM est une technique de commutation, multiplexage, voire de transmission, qui est une
variante de la commutation par paquets en ce qu’elle fait appel à des paquets courts et de taille fixe
appelés cellules. La différence entre une cellule et une trame est que la longueur d’une cellule est
toujours 53 octets, alors que celle d’une trame est variable.

13
La figure 1.04 représente une cellule ATM avec 5 octets d’entête et 48 octets de données.

Figure 1.04 : Cellule ATM

Dans les commutateurs, le traitement de ces cellules est limité à l’analyse de l’entête pour
permettre leur acheminement vers les files d’attente appropriées. Les fonctions de contrôle de flux
ou de traitement d’erreurs ne sont pas effectuées dans le réseau ATM, mais laissées à la charge
des applications utilisatrices ou des équipements d’accès.
Ces caractéristiques permettent à l’ATM de répondre raisonnablement aux contraintes de trafics
aussi différents que la voix, les images animées ou les données. Ce mode de transfert universel
rend possible l’intégration de tous types de services sur un accès unique au réseau.
La commutation de cellules s’insère entre les fonctions de transmission et celles qui concernent
l’adaptation aux caractéristiques des flux d’information transportés par ces cellules.

1.5.3.3 Fonctionnement [13]


Les réseaux ATM sont globalement orientés connexion. Des circuits virtuels doivent être établis
avant tout transfert de données. Il existe deux types de circuits virtuels : les trajets virtuels identifiés
par des identificateurs de trajet virtuel (VPI : Virtual Path Indicator) et des canaux virtuels
identifiés par des combinaisons d’identificateurs de trajet virtuel et d’identificateurs de canal
virtuel (VCI : Virtual Channel Indicator).

Figure 1.05 : VPI et VCI

14
Les trajets virtuels représentent des groupes de canaux virtuels et sont tous commutés de manière
transparente sur le réseau ATM en fonction de leur VPI commun.
Le fonctionnement de base d’un commutateur ATM est assez simple : il reçoit des cellules par une
liaison grâce à un VCI ou un VPI connu, il vérifie la valeur de la connexion dans un tableau de
conversion local pour déterminer les points sortants de connexion et la nouvelle valeur VPI/VCI
de la connexion sur cette liaison et, enfin, il retransmet la cellule sur cette liaison sortante.

1.5.3.4 Avantages et Inconvénients


L’ATM permet de transférer des données à une vitesse allant de 25Mbps à plus de 622 Mbps [14].
La technologie ATM offre une solution souple pour répondre à la croissance des besoins en matière
de qualité de service dans les réseaux qui prennent en charge plusieurs types d’informations
(données, voix, vidéo,…). Grâce à la technologie ATM, ces types d’information peuvent être
transportés par une même connexion réseau.
La technologie ATM peut offrir les avantages suivants :
- Communication à grande vitesse,
- Service orienté connexion,
- Connexion réseau unique capable de véhiculer de manière fiable la voix, les images et les
données
Par contre ATM est plus approprié au trafic de type voix. Il est donc inadapté pour les trafics de
type données qui sont devenus de plus en plus usuels avec l’explosion d’internet. Il présente aussi
la nécessité de gérer l’explosion du nombre de connexions de circuit virtuel nécessaires pour
assurer un maillage complet des liaisons virtuelles entre les paires de routeurs. Or, ce nombre
augmente avec le nombre de routeurs connectés au réseau. Ainsi, ATM n’est pas approprié pour
un réseau de grande envergure. Puis, la complexité de l’intégration avec IP ont limité son essor.
De plus, les équipements nécessaires pour des réseaux ATM sont chers. ATM n’est pas alors à la
portée de tout le monde.

Le but de la commutation au niveau de la liaison, est d’améliorer en performance la commutation


de paquets en simplifiant le nombre de niveaux de l’architecture à prendre en compte. En reportant
la commutation au niveau 2 de l’architecture, on simplifie considérablement le travail des nœuds.

15
1.6 Réseau de la couche 3 [6]
Le protocole le plus courant travaillant au niveau 3 du modèle OSI est le protocole IP (Internet
Protocol). Dans cette partie, nous allons parler du réseau IP.

1.6.1 Origine de l’IP


L’internet Protocol est issu des recherches menées par le département de Défense américain
pendant la guerre froide, dans les années 1960, mais il n’a été standardisé qu’en 1982 [12]. Le
principal intérêt du protocole IP est son adoption quasi universelle. Les différents réseaux sont
interconnectés par des passerelles (les routeurs), ce qui permet à un paquet d’emprunter plusieurs
chemins différents pour atteindre sa destination. Aujourd’hui, c’est fort heureusement pour des
motifs bien plus agréables qu’on utilise IP : en effet, le réseau des réseaux, Internet, repose sur lui.

1.6.2 Fonctionnement de IP
Les paquets véhiculés sur le réseau IP sont appelés datagrammes. Ces datagrammes vont passer
un certain nombre de routeurs pour atteindre la destination.
IP est un protocole de réseau fonctionnant en mode non connecté. Ainsi, tous les paquets d’un
même message sont indépendants les uns des autres et peuvent emprunter des itinéraires différents
pour parvenir au destinataire.
Les protocoles IP assurent l’acheminement aux mieux (best-effort) des paquets. Ils ne se
préoccupent pas du contenu des paquets, mais fournissent une méthode pour les mener à
destination.
Des protocoles de routage interviennent pour acheminer les paquets sur le réseau et entre les
routeurs. La communication entre ces routeurs s’effectue par le biais de protocoles de type :
- IGP (Interior Gateway protocol) comme RIP (Routing Information Protocol) et OSPF
(Open Shortest Path First).
- EGP (Exterior Gateway Protocol) comme BGP (Border Gateway Protocol)
Tous ces protocoles de routage ont pour fonction de diriger les paquets dans le réseau. Chaque
routeur IP maintient une table de routage dans laquelle chaque ligne contient un réseau de
destination, un port de sortie et le prochain routeur relai vers ce réseau de destination.
Les protocoles de routage utilisés sont assez robustes mais ils sont focalisés sur la livraison de
datagramme en « Best-Effort », et ainsi poser un certains nombres de limites pour les nouvelles
générations des services Internet nécessitant une meilleure qualité de service. En particulier, ils

16
utilisent « le plus court chemin » pour router les datagrammes. Aussi, avec des chemins alternatifs
qui ont des coûts acceptables, mais non optimale ne peut pas être utilisé pour acheminer le trafic.
Il en résulte qu’un chemin d’accès à une destination serait fortement perturbé alors que d’autres
sous-utilisés.

1.6.3 Avantages d’IP


En plus du routage entre réseaux et sous-réseaux, le protocole IP offres quelques fonctions
supplémentaires, en particulier :
- Un contrôle d’erreur, mis en œuvre dans l’entête de chaque paquet par une somme de
contrôle calculée en fonction du contenu de l’entête.
- La capacité d’éviter les boucles infinies grâce à un nombre (8 bits) situé dans l’entête des
paquets : le TTL (Time To Live ou temps à vivre). Ce TTL est décrémenté à chaque fois
que le paquet passe par une passerelle. Lorsque le compteur arrive à zéro, le paquet est
éliminé.
- La fragmentation des paquets si leur taille dépasse la taille maximale autorisée pour ce
réseau : MTU (Maximum Transfer Unit). Le MTU dépend du type de réseau sous-jacent.
Pour le réseau de type Ethernet, le MTU est par défaut de 1500octets. La couche IP
s’occupe de rassembler les paquets fragmentés à l’arrivée pour obtenir le paquet IP initial.

1.6.4 Inconvénients de IP
Les protocoles IP sont considérés comme « non fiables ». Cela ne signifie pas qu’ils n’envoient
pas correctement les données sur le réseau, mais qu’ils n’offrent aucune garantie pour les paquets
envoyés sur les points suivants :
- Corruption de données,
- Ordre d’arrivée des paquets
- Perte ou destruction de paquet
- Duplication des paquets
En termes de fiabilité, le seul service offert par un protocole IP est de s’assurer que les entêtes de
paquets transmis ne comportent pas d’erreurs grâce à l’utilisation de Checksum. La raison
principale de cette absence de gestion de la fiabilité est la volonté de réduire le niveau de
complexité des routeurs et ainsi de leur permettre de disposer d’une plus grande rapidité.

17
1.7 Conclusion

Un réseau permet l’interconnexion de plusieurs terminaux distants. On peut alors transmettre des
informations d’un endroit à un autre instantanément. Le modèle OSI est l’un des modèles qui ont
été créés pour l’interopérabilité des différents réseaux. Ce modèle est formé par sept couches qui
ont chacune son rôle à jouer dans la transmission de données. Dans ce chapitre, on a parlé de
quelques réseaux appartenant à la couche 2 et 3, ces réseaux ont des avantages mais aussi quelques
inconvénients. Ainsi, pour bénéficier des avantages donnés par les réseaux de ces deux couches à
la fois, il était intéressant d’empiler l’environnement IP (routage de niveau 3) caractérisé par son
évolutivité et sa flexibilité et la commutation de niveau 2 caractérisé par sa performance, sa QoS
(Qualité of Service) et sa gestion de trafic. Ce fusionnement a donné naissance à la technologie
dite MPLS.
Mais qu’est ce qui caractérise vraiment la technologie MPLS et comment elle fonctionne ? Dans
le chapitre suivant nous allons voir le fonctionnement de MPLS et expliquer pourquoi il contribue
à l’amélioration de la performance d’un réseau.

18
: LA TECHNOLOGIE MPLS

2.1 Introduction

Dans les réseaux IP, le routage des paquets s’effectue en fonction de l’adresse de destination
contenue dans l’en-tête de niveau 3. Pour déterminer le prochain saut, chaque routeur consulte sa
table de routage. Ce mécanisme est consommateur de temps. Vu l’augmentation de la taille des
réseaux, il est nécessaire de trouver une méthode efficace pour le routage des paquets.
La technologie MPLS est une nouvelle technologie qui apporte l’intelligence du routage avec les
performances de la commutation. Elle lève les limites des réseaux existants. C’est aussi une
solution efficace pour la gestion de la bande passante et la mise en place de la QoS.
Nous parlerons dans ce chapitre de la technologie MPLS et du modèle DiffServ qui est un modèle
permettant la QoS avec MPLS.

2.2 Concept du MPLS [15]


2.2.1 Historique [6]
L’idée MPLS est apparue en 1996 d’un groupe d’ingénieurs de Ipsilon Networks, une société
américain. A l’origine, la technologie n’était prévue pour fonctionner que sur ATM, ce qui limita
sa place sur le marché. Cisco Systems, Inc. proposa ensuite l’idée de ne pas limiter MPLS sur
ATM et créa le « Tag Switching », qui sera ensuite renommé en « Label Switching » pour la
standardisation par l’IETF en tant que MPLS.
MPLS fut alors créé au mois de mars 1997 par l’IETF qui a mis en place le groupe de travail MPLS
pour définir une approche normative de la commutation d’étiquettes.
L’IETF a défini le nouveau protocole MPLS avec deux objectifs principaux :

 Permettre un acheminement rapide des paquets IP en remplaçant la fonction de routage par


une fonction de commutation beaucoup plus rapide. Ceci est possible grâce à la substitution
des tables de routage classiques par des matrices de commutation beaucoup plus petites.
 Faciliter l’ingénierie réseau en fournissant aux opérateurs la maîtrise de l’acheminement
des données.

19
2.2.2 Définition [6] [16]
MPLS ou MultiProtocol Label Switching est une technique pour le routage dans un réseau. Elle
fonctionne en mode connecté.
Comme son sigle l’indique, ses caractéristiques sont :
- Multiprotocol (multi-protocoles) : capable de supporter différents protocoles de niveau
inférieur, au sens OSI (ATM, Frame Relay, …)
- Label Switching (commutation par étiquettes) : se base sur une étiquette ou label qui est
un identifiant pour la commutation des paquets.
Son rôle est de combiner les concepts du routage IP de niveau 3 (couche réseau) et les mécanismes
de la commutation de niveau 2 (couche liaison). Ainsi, MPLS associe la puissance de
commutation de niveau 2 et la flexibilité du routage de niveau 3. On dit que c’est un protocole de
niveau 2.5.

Figure 2.01 : Niveau de MPLS

2.2.3 Architecture [16]


Le réseau MPLS utilise la topologie maillée. Chaque entité n’a besoin que d’une connexion vers
le réseau MPLS. Seul le réseau MPLS est affecté par le protocole MPLS.

Figure 2.02 : Topologie d’un réseau MPLS

20
Les équipements nécessaires sont alors :
- Routeurs CE (customer Edge router)
- Routeurs PE (Provider Edge router) aussi appelés LER (Label Edge Router)
- Routeurs P (Provider device) appelés aussi LSR (Label Switch Router)

2.2.3.1 Les routeurs CE


Les routeurs CE sont les routeurs présents dans le réseau du client. Ils sont interconnectés avec un
ou plusieurs PE. Ces routeurs n’ont pas la connaissance de la technologie MPLS.

2.2.3.2 Les routeurs PE ou LER


PE sont des routeurs qui font interfaces entre le réseau MPLS et le monde extérieur. En général,
une partie de ces interfaces supportent le protocole MPLS et l’autre un protocole de type IP.
Ils sont alors chargés de mettre ou d’enlever le label sur les paquets de données provenant ou à
destination des routeurs CE pour qu’il puisse être acheminé correctement.
Les deux types de LER existants sont :
- Ingress LER (I-LER): c’est un routeur qui gère le trafic entrant dans un réseau MPLS. C’est
lui qui assigne le label à un paquet avant son entrée dans le réseau.
- Egress LER (E-LER): c’est un routeur qui gère le trafic sortant d’un réseau MPLS. C’est
lui qui enlève le label à un paquet avant sa sortie du réseau.
E-LSR (Edge LSR) aussi est une appellation des routeurs LER parce que ce sont des routeurs se
trouvant au bord des LSR.

2.2.3.3 Les routeurs P ou LSR


Les routeurs P ou LSR sont les routeurs composant le cœur du réseau MPLS. Ils sont chargés de
la distribution des trames MPLS. Ce sont alors eux qui acheminent les données grâce à la
commutation de labels.

2.2.4 Structure fonctionnelle de MPLS [11] [15]


Le protocole MPLS est fondé sur deux plans principaux :
- Le plan de contrôle
- Le plan de données

21
2.2.4.1 Le plan de contrôle
Ce plan contrôle les informations de routages de niveau 3 grâce à des protocoles tel que OSPF ou
BGP et les labels grâce à des protocoles comme LDP (Label Distribution Protocol) échangé entre
les équipements adjacents.

2.2.4.2 Le plan de données


Ce plan est indépendant des algorithmes de routages et d’échanges de label. Il utilise une base
appelée LFIB (Label Forwarding Information Base) pour commuter les paquets avec les bons
labels. Il contrôle ainsi la transmission des informations en se basant soit sur les adresses de
destination soit sur les labels.

2.2.4.3 LIB (Label Information Base)


C’est la première table construite par le routeur MPLS. Elle contient pour chaque sous-réseau IP
la liste des labels affectés par les LSR voisins. Elle contient tous les chemins possibles pour
atteindre une destination.

2.2.4.4 LFIB (Label Forwarding Information Base)


A partir de la LIB et la table de routage IP, le routeur construit une table LFIB qui contient les
labels du meilleur prochain saut et qui sera utilisée pour commuter les paquets labélisés.

2.2.4.5 FIB (Forwarding Information Base)


Cette base appartient au plan de données. Elle est utilisée pour acheminer les paquets non labélisés.
Ce sont les LER qui l’utilisent.

2.2.4.6 Fonctionnement d’un routeur


Le fonctionnement des routeurs est différent selon leur emplacement dans le réseau. Le
fonctionnement d’un LER est différent d’un LSR.

22
a. Fonctionnement d’un LSR
La figure 2.03 suivante nous montre le fonctionnement d’un LSR.

Figure 2.03 : Structure d’un LSR


Tout d’abord, le routeur LSR doit avoir les informations venant du protocole de routage utilisé
c’est-à-dire la table de routage. A partir de cette table de routage, le LDP (Label Distributed
Protocol) fournit le label adéquat. Puis, le LFIB enregistre cette information dans sa base et
échange le label entrant avec le label sortant.

b. Fonctionnement d’un LER


Comme celui de LSR le protocole de routage utilisé fournit une table de routage qui est utilisée
par le LDP. Le LDP permet de fournir la LFIB. Pour les E-LER, les paquets entrants sont labélisés
et délabélisés en sortant. Pour les I-LER, les paquets entrants sont non labélisés et labélisés en
sortant.

Figure 2.04 : Structure d'un LER

23
2.3 Label [6] [15] [17] [18]

2.3.1 Définition
Les labels sont des simples nombres entiers. Ils sont insérés entre les entêtes de niveau 2 et de
niveau 3. Ce sont ces labels que les routeurs permutent tout au long du réseau jusqu’à destination
sans avoir besoin de consulter l’entête IP et leur table de routage. On appelle cette technique Label
Swapping.

2.3.2 Entête MPLS


Un entête MPLS encapsulant un label est de la forme suivante :

Figure 2.05 : Entête MPLS

L’entête MPLS est de 32 bits :


- Label : valeur du label.
- CoS (Class of Service) : utilisé pour les répartitions des services. Il est utilisé pour
différencier la priorité parmi les différents types de trafics. On l’appelle aussi EXP
(experimental).
- S (Stack) : MPLS permet l’insertion de multiples labels. S détermine si ce label est le
dernier label du paquet. Si S=1, cela indique que ce label est le dernier. L’implémentation
des piles de labels permet une meilleure gestion de l’ingénierie de trafic et des VPN qui
offrent la possibilité de rediriger rapidement un paquet vers un autre chemin lorsqu’une
liaison est défaillante.
- TTL (Time To Live) : durée de vie des paquets. Il est identique au TTL de l’entête IP.

2.3.3 Encapsulation entête MPLS


Comme MPLS est un protocole 2.5, l’encapsulation de son entête se situe entre l’entête de la
couche 2 et celui de la couche 3.

24
Cette encapsulation est comme suit :

Figure 2.06 : Encapsulation entête MPLS

2.4 Principe de fonctionnement [6] [19] [20]


2.4.1 Principe général [15]
Le premier principe de la technologie MPLS est de remplacer les traitements longs et complexes
associés au relayage de paquets IP par un traitement plus simple.
Dès son entrée dans le réseau MPLS, un label est assigné au paquet par les routeurs d’extrémité.
Après, ils effectuent la commutation de label comme la figure 2.07 illustre.

Figure 2.07 : Fonctionnement de MPLS

On peut alors constater que la commutation de label se fait en plusieurs étapes :


Etape 1 : Push
- Entrée du paquet dans le réseau MPLS de droite à gauche sur la figure 2.07 (paquet à
destination 10.1.1.1)
- Le routeur LER lui affecte un label (PE1 ici)
Etape 2 à n-1 : Swap
- Echange du label suivant la table de commutation des routeurs P dans le nuage MPLS

25
Etape n : Pop
- Décapsulation du label à l’avant-dernier saut. C’est le rôle de PE2 sur la figure 2.07.
Ainsi, seuls les routeurs d’extrémité du réseau font une recherche dans leur table, les autres
utilisent uniquement les labels. Ce qui rend le transfert des paquets plus rapide.

2.4.2 Protocoles de routage interne IGP


Les protocoles IGP sont conçus pour gérer le routage interne d’un réseau. Parmi les protocoles
IGP les plus utilisés, citons principalement le protocole de routage OSPF.

2.4.2.1 OSPF [6] [21]


C’est un protocole de routage interne IP de type à état de liens c’est-à-dire qu’il surveille
activement l’état de toutes ses liaisons et diffuse cet état à tous les autres routeurs. Ce protocole
calcule le chemin le plus court à partir de l’algorithme de Dijkstra (voir Annexe 2).
Avec OSPF, le réseau est divisé en plusieurs zones qu’on appelle « area » ou aire. Une aire
regroupe les routeurs d’un groupe connexe. Les aires sont interconnectées entre-elles par une aire
spécifique appelée « backbone area» ou « aire dorsale », on la note par « area 0 ». Ceci permet
d’optimiser le routage en annonçant que des résumés de routes.
Dans OSPF, chaque routeur établit des relations d’adjacence avec ses voisins immédiats. Chaque
routeur communique ensuite la liste des réseaux auxquels il est connecté par des messages Link-
State advertisements (LSA) propagés de proche en proche à tous les routeurs du réseau.
L’ensemble des LSA forme une base de données de l’état des liens Link-State Database (LSDB)
pour chaque aire, qui est identique pour tous les routeurs participants dans cette aire.

2.4.2.2 Avantages de l’utilisation du protocole OSPF [22]


Le protocole OSPF offre plusieurs avantages. D’où le choix de son utilisation. Parmi ces
avantages, on peut citer quelques-uns :
- OSPF n’a pas de limite de nombre de sauts comme certains protocoles (ex : RIP). C’est un
protocole de routage à état de lien. Chaque routeur possède une connaissance complète des
réseaux au sein d’une aire.
Ainsi, le danger de boucle de routage n’étant à priori plus présent, la limite de nombre de
sauts n’est plus nécessaire.

26
- OSPF permet aussi l’utilisation du VLSM (Variable-Length Subnet Mask). Il supporte
l’agrégation des routes. L’utilisation intelligente de cette technologie améliore les plans
d’adressage.
- Il utilise IP multicast pour envoyer ses mises à jour d’état de liens. Cette méthode prend
moins de ressources aux routeurs. Ces mises à jour sont envoyées uniquement lors d’un
changement de topologie. Ainsi, on économise de manière évidente la bande passante.
- Il permet aussi une définition logique des réseaux où les routeurs sont répartis en area. Cela
évitera une explosion de mise à jour d’état de lien sur l’ensemble du réseau.

2.4.3 Mécanismes de commutation [18] [19]


Différents procédés interviennent dans la commutation d’un label.

2.4.3.1 Table de commutation


Comme la table de routage dans le routage IP, la table de commutation de MPLS contient les
chemins qu’un paquet doit suivre pour parvenir à sa destination.
Cette table comporte quatre entrées :
- Interface d’entrée du paquet (InPort)
- Etiquette MPLS en entrée (InLabel)
- Etiquette MPLS de sortie (OutLabel)
- Interface de sortie du paquet (OutPort)

InPort InLabel OutLabel OutPort

f0/0 L1 L3 f1/0

f0/0 L1 L2 f2/0

Tableau 2.01 : Exemple table de commutation MPLS

2.4.3.2 FEC (Forwarding Equivalence Class)


La FEC est une table de correspondance dont les clefs sont un élément du paquet (adresse MAC,
adresse IP, Class of Service, …). C’est cette table que les routeurs utilisent pour créer les labels.

27
Les FECs sont généralement basées à partir des différentes adresses IP de destination que les
routeurs connaissent. Mais d’autres critères sont aussi possibles comme l’adresse source et de
destination. Alors, pour chaque destination différente, le routeur doit créer une FEC.

2.4.3.3 LDP (Label Distribution Protocol)


Les routeurs P de l’architecture MPLS montrée par la figure 2.01 se basent sur l’information du
label pour commuter les paquets au travers du backbone MPLS. Chaque routeur, lorsqu’il reçoit
un paquet, utilise le label pour déterminer l’interface et le label de sortie. Il est donc nécessaire de
propager les informations sur ces labels à tous les routeurs P.
Les labels sont spécifiés selon le chemin « Hop by Hop » défini par l’IGP dans le réseau. Chaque
nœud doit donc mettre en œuvre un protocole de routage de niveau 3 et les décisions de routage
sont prises indépendamment les unes des autres.

forward à
LER E

Figure 2.08: LDP hop by hop

LDP est bi-directionnel et permet la découverte dynamique des nœuds adjacents grâce à des
messages Hello échangés par UDP. Une fois que les deux nœuds se sont découverts, ils établissent
une session TCP qui agit comme un mécanisme de transport fiable des messages d’établissement
de session TCP, des messages d’annonce de labels et des messages de notification. La figure 2.09
illustre ce principe.

Figure 2.09 : Etablissement d’une connexion LDP

28
2.4.3.4 LSP (Label Switched Path)
Dans un environnement MPLS, un LSP est un chemin à travers le réseau MPLS. Il est mis en place
par des protocoles comme LDP. Le chemin est basé sur une FEC. Les paquets qui ont alors la
même FEC auront alors le même label et suivent le même LSP. Cependant, un LSP peut être utilisé
par plusieurs FECs.
Les LER choisit le label adéquat en fonction de la FEC. Les routeurs font suivre aux paquets le
LSP.
Un LSP est unidirectionnel. Il en faut un autre pour permettre la communication bidirectionnelle.

2.4.3.5 Déroulement de la commutation de label [19]


Le déroulement de la commutation de label dans un réseau MPLS se fait comme suit :
- Lorsqu’un paquet arrive dans un réseau MPLS (1). En fonction de la FEC auquelle
appartient le paquet, l’ingress node ou I-LER consulte sa table de commutation (2) et
affecte un label au paquet (3), et le transmet au LSR suivant (4). Cette étape est montrée
par la figure 2.10 suivante.

Figure 2.10 : Ajout de label à un paquet entrant dans le nuage MPLS

- Lorsque le paquet MPLS arrive sur un LSR (1) interne du nuage MPLS comme la figure
2.11 le montre, le protocole de routage fonctionnant sur cet équipement détermine dans la
base de données des LIB, le prochain label à appliquer à ce paquet pour qu’il parvienne
jusqu’à sa destination (2). L’équipement procède ensuite à une mise à jour de l’entête
MPLS (swapping du label et mise à jour du champ TTL) (3), avant de l’envoyer au nœud
suivant (4). Il faut bien noter que sur un LSR interne, le protocole de routage de la couche
réseau n’est jamais sollicité.

29
Figure 2.11 : Commutation de label à l’intérieur du nuage

- Enfin, comme la figure 2.12 le montre, une fois que le paquet MPLS arrive à l’egress node
(E-LER) (1), l’équipement lui retire toute trace MPLS (2) et le transmet à la couche réseau.

Figure 2.12 : Retrait du label

2.5 QoS (Quality of Service) [23] [24]

2.5.1 Définition
La qualité de service (QoS) se réfère à « l’effet collectif de l’exécution de service qui détermine le
degré de satisfaction d’un utilisateur du service » [25]. Elle consiste alors à assurer les
performances désirées pour un trafic donné dans le réseau.
Son but est d’optimiser les ressources du réseau et de garantir de bonnes performances aux
applications critiques. La QoS est alors un facteur qui permet d’optimiser les performances d’un
réseau.

30
2.5.2 Paramètres de QoS [25]
La maitrise de la QoS est un enjeu essentiel. Elle doit être visualisée et mesurée de bout en bout.
Les flux de données sont principalement associés à des paramètres de QoS qui peuvent être de
différents types.

2.5.2.1 Le débit
C’est la quantité d’informations écoulée par unité de temps. Il est exprimé en bit/s.

2.5.2.2 Le taux de pertes


Ce paramètre désigne la probabilité maximale de perte de données ou de paquets c’est-à-dire le
pourcentage des unités de données qui ne peuvent pas atteindre leur destination dans un intervalle
de temps spécifique. Cette perte peut être le résultat d’un rejet de paquets lorsque les ressources
sont saturées ou d’un dépassement d’échéance.
Il est sans unité et doit être très inférieur à 1. Un taux de perte se rapprochant du 0 désigne une
excellente QoS.

2.5.2.3 Le délai de transmission


Le délai de transmission désigne le temps nécessaire pour acheminer un volume élémentaire de
données de la source jusqu’à la destination. Ce paramètre est mesuré de bout en bout ou entre deux
points de référence comme étant le temps nécessaire à l’acheminement d’une unité de volume, en
général paquet. Il est exprimé en ms.

2.5.2.4 La gigue
C’est la variation des délais d’acheminement (latence) des paquets sur le réseau. Ce paramètre est
particulièrement sensible pour les applications multimédias qui requièrent un délai inter paquet
relativement stable. En effet, le non considération de cette métrique implique une discontinuité au
niveau de la restitution des données à la destination.
Il y a aussi d’autres paramètres de la QoS comme la disponibilité du réseau et la durée
d’interruption de service. La disponibilité du réseau est la probabilité qu’un élément tombe en
panne et la durée d’interruption de service est la durée qu’un élément est indisponible.

31
2.5.3 Classes de services
Les paramètres cités précédemment sont regroupés entre eux en fonction des besoins des
applications et des services que le réseau fournit. Ces groupes forment ensuite des Classes de
Services (CoS : Classe of Service).
Une classification des principales applications peut être comme suit :
- Voix : regroupe toutes les applications de type conversationnel ayant pour contrainte forte
des objectifs sur le délai et la gigue. Elles sont également sensibles aux taux de perte bien
qu’il ne soit pas possible de retransmettre les données.
- Vidéo : regroupe toutes les applications multimédia qui sont sensibles aux taux de perte,
débit et gigue.
- Données : regroupent toutes les applications de transfert de données ayant pour seule
contrainte un taux de perte nul.
- Défaut : désigne toutes les applications n’exigeant aucune garantie de QoS. Il est connu
sous le nom de « Best-Effort », c’est le mode de transport du protocole IP.
La QoS fournit une grande flexibilité en matière de gestion et en optimisation de services des
réseaux. C’est pourquoi, cette technologie est un outil incontournable dans l’administration
moderne. Son utilisation devient de plus en plus facile.
Ainsi, la QoS deviendra la partie inséparable du routage de demain.

2.6 Implémentation de la QoS [27]

2.6.1 Surdimensionnement des réseaux


En premier lieu, la technique simple pour garantir la QoS est de surdimensionner son réseau. Dans
ce cas, la bande passante peut être considérée comme quasiment illimitée. Dans la réalité, un réseau
dit surdimensionné offre environ une capacité 10 fois supérieure au trafic qu’il doit écouler. Cette
surcapacité permet également de garantir un taux de perte quasi nul puisque le réseau est à même
d’acheminer tout type de trafic. Par contre, seule la classe de service « Best-Effort » est supportée
par ce mécanisme.
Tout de même, il existe deux grands modèles pour implémenter la QoS dans un réseau :
- Le modèle IntServ (Integrated Service)
- Le modèle DiffServ (Differenciated Service)

32
Parlons un à un de ces modèles.

2.6.2 Modèle IntServ (Integrated Service) [23]


2.6.2.1 Description
Le modèle IntServ utilise le protocole RSVP (Resources ReSerVation Protocol). RSVP est un
protocole de signalisation qui permet de réserver dynamiquement une QoS de bout en bout d’un
réseau. Le RSVP réserve des ressources dans un seul sens. Ainsi, les flux allant des récepteurs à
l’émetteur ne profiteront pas de la QoS de l’autre sens. Ce type de réservation permet d’avoir une
QoS uniforme tout au long du trajet du flux.
RSVP fonctionne avec les protocoles de routage, mais il n’en est pas un : il récupère les tables de
routage, détermine les équipements d’interconnexion qui seront traversés par le flux et demande
une réservation des ressources sur ceux-ci. Les équipements d’interconnexion inspectent la
demande si les ressources matérielles sont suffisantes et que l’utilisateur a le droit de réserver cette
QoS. Enfin, les routeurs répondent à la demande de réservation et établiront la session si la
demande est acceptée.
La QoS dans le cadre de RSVP doit être demandée par le récepteur. En effet, si cette réservation
était réalisée par l’émetteur alors tous les récepteurs auraient la même QoS.

2.6.2.2 Limitation
Une des faiblesses du modèle IntServ est sa non-résistance au facteur d’échelle.
RSVP oblige à maintenir des sessions sur tous les équipements qui sont traversés par les flux. Or,
ces sessions nuisent aux performances des équipements et génèrent du trafic sur le réseau. De plus,
il suffit qu’un nœud dans la route n’implémente pas les fonctionnalités IntServ pour que la QoS
ne puisse plus être strictement garantie.
Quand le nombre d’utilisateurs augmente, le nombre de sessions augmente aussi. Cette
augmentation entrainera la diminution des performances de l’architecture. Ce modèle n’est donc
pas adapté aux réseaux de grande taille.
De plus, RSVP est compliqué à mettre en place. Cette complexité augmentera de façon
exponentielle avec la taille du réseau.
Pour ces diverses raisons, RSVP n’est pas beaucoup utilisé dans les réseaux MPLS puisque les
réseaux MPLS sont souvent des réseaux très étendus.
On a alors ainsi opté pour l’autre modèle, le modèle DiffServ.

33
2.6.3 Modèle DiffServ (Differentiated Service) [23] [26] [28]
2.6.3.1 Présentation
La différenciation de services consiste à différencier les flux de services c’est-à-dire diviser le
réseau en domaines. Lors d’une congestion par exemple, on reporte les pertes de paquets sur
certaines classes de trafic pour en protéger d’autres.
Dans l’architecture DiffServ, le traitement différencié des paquets s’appuie sur 3 opérations
fondamentales :
- La classification des flux en classes de services,
- L’introduction de priorités au sein des classes,
- La gestion du trafic dans une classe donnée.
Le modèle DiffServ est basé sur une architecture qui permet des prises de décision complexe aux
bords et donc moins de charge sur les routeurs du cœur. En effet, les routeurs d’extrémités sont
chargés de conditionner le trafic entrant en indiquant explicitement sur le paquet le service qu’il
doit subir.
Ainsi, la complexité des routeurs ne dépend plus du nombre de flux qui passent mais du nombre
de CoS. Ces dernières sont identifiées par une valeur codée dans l’entête. Les principes de DiffServ
exigent que tous les paquets d’un même flux appartiennent à une même CoS afin d’éviter le
déséquencement.

2.6.3.2 Implémentation de DiffServ MPLS [24]


Dans l’entête MPLS (figure 2.05), le champ dédié pour les CoS dans les labels est le champ CoS
ou EXP. Ce champ est de 3 bits. C’est le champ EXP qui détermine la file d’attente,
l’ordonnancement et donne la priorité à une classe. La priorité et la bande passante réservée à un
type de flux varient selon la valeur insérée dans ce champ.
Par exemple, on donne la valeur EXP=5 pour un flux de type vidéo et 0 pour les autres. Chaque
LSR donnera alors la priorité absolue aux flux vidéo.
La combinaison de DiffServ et MPLS est une stratégie très avantageuse pour un réseau backbone
d’un fournisseur de service. Cette avantage est due au fait que la technologie de commutation de
paquets avec MPLS est rapide.

34
2.6.3.3 Avantages et inconvénients
Comme toute technologie, DiffServ apporte son lot de nouveautés tout en ajoutant un certain
nombre de contraintes et de limitations.
On trouve d’abord la philosophie de limiter les temps de traitement des routeurs intermédiaires
apportant une réponse aux opérateurs de réseaux qui pouvaient difficilement mettre en
application l’ensemble de leurs infrastructures à cause de la complexité induite par IntServ. La
normalisation des PHB (Per Hop Behavior) constitue un deuxième point fort de DiffServ
simplifiant l’interconnexion entre les différents domaines DiffServ.
Cependant, DiffServ nécessite la connaissance approfondie des applications transitant sur le
réseau et cela peut se révéler parfois difficile.
Des contraintes telles que la réduction du délai d’acheminement ou le contrôle dans la
distribution de ressources peuvent être satisfaites grâce aux mécanismes proposés par ce modèle.
La notion de priorité peut réduire considérablement l’effet de pertes sur la transmission des flux
surtout pour les flux multimédias.

2.7 Conclusion

Ainsi, MPLS apporte de grandes innovations par rapport au routage IP classique. Sa table de
routage ainsi que les labels sont de plus petite taille. Par conséquent, les temps de commutation
sont extrêmement rapides. MPLS améliore la performance d’un réseau et propose de la QoS avec
DiffServ. De plus, il peut fonctionner avec n’importe quel protocole de la couche 2.
DiffServ est la qualité évolutive de service qui est fournie par de nombreux fournisseurs de
services internet sur les réseaux IP actuel. Dès lors, MPLS et DiffServ sont très utiles et
stratégiques pour le trafic d’aujourd’hui.
MPLS n’en reste pas là. Il offre en plus de multiples services servant encore dans l’amélioration
des activités d’un réseau. MPLS permet l’ingénierie de trafic, la création de VPN, …
Dans le chapitre suivant, nous parlerons de ces services offerts par MPLS.

35
: LES ATOUTS DE MPLS

3.1 Introduction

MPLS est une nouvelle technologie qui apporte l’intelligence de routage et la performance de la
commutation. Avec l’implémentation de DiffServ, elle apporte de la QoS au réseau, réduit le
temps de traitement des paquets en utilisant la commutation de label et permet ainsi l’amélioration
de la performance des réseaux.
En outre, elle permet l’implémentation de divers services comme l’ingénierie de trafic, le VPN ou
le reroutage rapide lors d’une défaillance d’un lien.
Dans ce chapitre, nous parlerons surtout de l’ingénierie de trafic et du VPN sur MPLS mais aussi
de l’intervention de MPLS dans différents réseaux comme NGN et les réseaux optiques.

3.2 Traffic Engineering (TE) [19] [29] [30]


De nos jours, il y a une croissance considérable des débits d’accès et une convergence des services
dits « triple play » (Internet, voix/visioconférence, télévision/vidéo). Ces évolutions entraînent une
augmentation considérable des volumes de trafic et de nouvelles contraintes en termes de QoS et
de disponibilité du réseau. Des mécanismes supplémentaires sont alors nécessaires. L’ingénierie
de trafic est une solution possible.
L’ingénierie de trafic regroupe l’ensemble des méthodes et mécanismes de contrôle permettant
d’optimiser l’utilisation des ressources, tout en garantissant la QoS (bande passante, délais, …)
L’objectif de ce mécanisme est de maximiser la quantité de trafic pouvant transiter dans un réseau
afin de retarder l’investissement dans de nouvelles infrastructures.

3.2.1 Problèmes des protocoles de routages internes


Les protocoles de routage interne utilisent toujours le plus court chemin pour expédier le trafic.
Malgré le fait que l’approche du plus court chemin conserve les ressources du réseau et bien qu’elle
soit très simple à appliquer aux grands réseaux, elle ne fait pas toujours la meilleure utilisation de
ces ressources et peut également introduire les problèmes suivants :
- Les plus courts chemins des différentes sources peuvent se superposer sur certains liens
provoquant ainsi la congestion de ces liens,
- Le trafic d’une source à un destinataire peut dépasser la capacité d’un lien alors qu’un autre
chemin légèrement plus long reste sous-utilisé.

36
A part cela, il existe d’autres limitations. L’utilisation de MPLS, de sa capacité d’acheminer le
trafic à travers des chemins explicites et de la flexibilité de gestion du trafic qu’il apporte permet
d’éviter ces limitations.

3.2.2 IP-TE
L’ingénierie de trafic en IP consiste à manipuler les métriques des protocoles de routage IP. En
effet, le routage classique IP repose sur le plus court chemin vers une destination donnée. Elle
calcule un ensemble de chemins pour répondre aux demandes de trafic sans saturer les liens et
calcule un ensemble de métriques pour satisfaire ces chemins. Ensuite, un partage de charge offert
par le protocole de routage peut être utilisé pour permettre de partager équitablement la charge
entre tous les chemins de coût égal.
Le réseau sur la figure 3.01 suivante est composé de 9 nœuds et 9 liens bidirectionnels. Les liens
sont caractérisés par leurs métriques IP qui sont égales à 1 et leurs capacités d’environ 100Mbps.
Les trafics de 70Mbps provenant de A et de B soient de 140Mbps arrivants en C allant en G
empruntent tous le même chemin qui est le plus court (C-D-G) avec un coût de 2. Or, ce chemin
est de 100Mbps, il y aura alors une congestion qui entraînera une perte de paquets et ainsi une
dégradation de la qualité de service.

Figure 3.01 : Congestion avec le routage IP

La solution est alors d’utiliser le routage IP-TE avec un partage de charge donné par le protocole
de routage IGP. Lorsqu’il y a plusieurs choix de courts chemins de même coût pour aller à une
destination donnée, un routeur peut partager équitablement la charge sur ces chemins.

37
En changeant alors la métrique des liens C-D, D-G et C-E en 2, les coûts des routes entre C-G
deviennent 4 (figure 3.02). Le routeur C effectuera alors un partage de charge entre les deux
chemins. Ainsi, la congestion est évitée.

Figure 3.02 : Routage IP-TE avec partage de charge

Or, cette solution basée sur l’optimisation des métriques IP peut bien fonctionner seulement sur
des réseaux à faible dimension c’est-à-dire de faible nombre de routeurs d’accès. Il serait très
difficile de changer les coûts des liens sur tous les chemins pour une grande topologie. Les
contraintes sur le trafic ne peuvent pas être gérées (par exemple, éviter certains liens pour un trafic
particulier d’une source à une destination.). Les modifications des métriques de liens pour
permettre l’association explicite du trafic à un chemin, tendent à avoir des effets difficilement
contrôlables sur le reste du réseau. Le partage de charge ne peut pas être fait entre les chemins de
coûts différents.

3.2.3 MPLS-TE
L’architecture MPLS est l’une des solutions adaptées aux besoins actuels puisqu’elle s’avère
adaptée aux objectifs d’ingénierie de trafic. En effet, MPLS offre le routage explicite, permettant
la création de chemins routés de façon explicite, indépendamment de la route IP. On appelle ces
chemins tunnels MPLS ou LSP.

38
3.2.3.1 Principe
Ce principe est illustré sur la figure 3.03. MPLS-TE est basé sur le concept de routage de tunnels
(Tunnel 1 et Tunnel 2). Le tunnel est unidirectionnel et est défini par deux LER (Ingress (PE1) et
Egress (PE2)). Plusieurs LSP peuvent exister entre deux LER. Cela permet d’une part d’offrir des
routes différentes correspondant à la QoS requise pour les flux transportés et d’autre part de créer
des LSP de secours en cas de panne ou de surcharge sur le LSP initial.

Figure 3.03 : MPLS-TE

3.2.3.2 Fonctionnement
MPLS-TE combine le routage explicite offert par MPLS et le routage par contrainte. Le routage
par contrainte repose sur une fonction de découverte dynamique de la bande passante réservable
sur un lien, une fonction de calcul de chemin explicite contraint, et d’une fonction d’établissement
de LSP explicites avec réservation de ressources et distribution de labels le long du chemin
explicite.
Les objectifs du routage explicite qui est la solution pour faire de l’ingénierie de trafic sont les
suivants :
- Utiliser efficacement les ressources du réseau
- Eviter les points de forte congestion en répartissant le trafic sur l’ensemble du réseau.
Dans le cas d’un routage explicite, le LSP n’est plus déterminé à chaque bond mais choisit par
l’ingress node. C’est l’I-LER qui détermine le chemin de bout en bout.

39
Ce mécanisme repose sur trois fonctions principales :
- La fonction de découverte de la topologie
- La fonction de calcul de chemins
- La fonction de signalisation des LSP

a. Fonction de découverte de la topologie


Cette fonction permet à tous les routeurs d’avoir une vision actualisée de la topologie TE et en
particulier de la bande passante réservable sur les liens. Cette fonction est assurée par un protocole
IGP-TE. La topologie TE est enregistrée par chaque routeur du réseau dans une base de données
TE appelée TED (TE Database), qui enregistre pour chaque lien du réseau les paramètres TE
comme : la bande passante maximale, la bande passante maximale réservable et d’autres
métriques.

b. Fonction de calcul de chemins


La fonction de calcul de chemins permet de calculer les chemins pour les LSP en utilisant un
algorithme de routage par contrainte. Elle prend en entrée les contraintes des LSP (bande passante,
groupes à inclure/exclure, etc.) et la topologie TE alimentée par le protocole IGP-TE.

c. Fonction de signalisation des LSP


Une fois la route explicite pour un LSP calculée, la fonction de signalisation intervient pour établir
le LSP. Cet établissement comprend le routage explicite du LSP le long de la route explicite, la
réservation de ressource sur les liens traversés ainsi que la distribution des labels sur le chemin.
Elle est réalisée par des protocoles de signalisation comme RSVP-TE ou CR-LDP (Constraint-
Based Routing LDP)

3.2.3.3 RSVP-TE [30]


Nous parlerons de RSVP-TE ici car c’est la seule méthode de signalisation actuellement disponible
pour MPLS-TE, CR-LDP étant devenue obsolète.
RSVP est un protocole de signalisation destiné à l’origine pour IntServ, un modèle QoS. Il a par
la suite été adapté pour devenir un protocole de signalisation qui supporte les extensions
nécessaires à MPLS-TE. Le protocole RSVP-TE tourne entre routeurs adjacents.

40
Le protocole RSVP-TE effectue trois fonctions principales dans le but de signaler le LSP-TE le
long du chemin préalablement défini :
- Il effectue un contrôle d’admission local, pour s’assurer que les contraintes sont bien
respectées (bande passante, groupes administratifs). Ce contrôle d’admission local est
nécessaire pour prendre en compte les cas d’erreur de calcul de route.
- Il réserve la bande passante. Cette réservation de ressources est purement logique et ne se
traduit pas par une réservation physique de bande passante.
- Il distribue les labels et entraîne une mise à jour des tables MPLS en transit.
RSVP-TE permet aux instances de tunnel TE de supporter divers évènements. Par exemple, un
changement de route suite à une réoptimisation, un reroutage sur panne, etc. ce changement de
LSP-TE s’effectue sans perte de paquets, grâce à la procédure de création de nouveau LSP-TE :
bascule du trafic puis suppression de l’ancien LSP-TE. Aussi, les ressources nécessaires ne sont
pas réservées plusieurs fois dans les TED des routeurs traversés.
Pour établir un LSP-TE, les routeurs s’envoient des messages pour réserver des ressources et
confirmer la réservation de lien. Ces messages sont de type :
- Path : établit et maintient le LSP-TE dans le sens descendant,
- Resv : établit et maintient le LSP-TE dans le sens montant.
- PathErr : Indique une erreur.
L’établissement d’un LSP-TE avec RSVP-TE se fait comme suit : [30]

Figure 3.04 : Etablissement LSP-TE avec RSVP-TE

41
(1) R1 est tête de tunnel TE, il envoie un message Path à R2 demandant une réservation de
lien. Celui-ci vérifie le format du message et la disponibilité des ressources TE demandées.
Si les ressources ne sont pas disponibles, R2 renvoie un message PathErr à R1, la séquence
d’établissement est alors annulée.
(2) R2 envoie un message Path à R3. R3 fait les mêmes vérifications qu’en (1)
(3) Ainsi de suite jusqu’à (5)
(6) R7 est la queue du tunnel TE. Il envoie un message Resv à R6. Ce message contient le label
de commutation MPLS à employer pour le tunnel TE par R6.
(7) R6 envoie un message Resv à R5 et indique un label L=42
Il en est de même pour (8), (9) et (10) sur la figure 3.04

Ainsi, MPLS-TE est un ensemble d’outils et de mécanismes, qui vient étendre MPLS. Il fonctionne
sans perturber le fonctionnement normal du réseau. MPLS-TE est l’un des avantages apportés par
MPLS en optimisant l’utilisation des ressources et assurant un bon partage de charge. Mais en plus
des avantages apportés par l’ingénierie de trafic, MPLS-TE permet la création et le maintien de
routes de secours.

3.3 VPN (Virtual Private Network) [28] [31] [32] [33]


Lorsque nous échangeons des informations que ce soit des appels téléphoniques ou des courriers
à partir d’un réseau, le transfert de ces informations n’est pas fiable surtout s’il passe par internet.
Les informations peuvent être interceptées à un moment ou à un autre par des personnes non
connues, malveillantes ou non.
La première solution pour répondre à ce besoin de communication sécurisée consiste à relier les
réseaux distants à l’aide de liaison spécialisée. Toutefois, la plupart des entreprises ne peuvent pas
se permettre de relier deux réseaux locaux distants par une ligne spécialisée, il est parfois
nécessaire d’utiliser Internet comme support de transmission. Un bon compromis consiste à utiliser
Internet à partir d’un protocole d’encapsulation ou tunneling, c’est-à-dire encapsulant les données
à transmettre de façon chiffrée. On parle alors de réseau privé virtuel ou VPN.

42
3.3.1 Définition
Le VPN ou Réseau Privé Virtuel est un réseau comme son nom l’indique :
- Virtual (Virtuel) : il n’y a pas de liaison physique dédiée,
- Private (Privé) : les échanges sont sécurisés et cryptés,
- Network (Réseau) : servant d’accès à un site ou un hôte distant.

Figure 3.05 : VPN entre deux LAN

3.3.2 VPN MPLS


3.3.2.1 Utilisation de MPLS pour les VPN
MPLS est un protocole utilisé pour créer un VPN. Des tunnels sont créés entre des routeurs MPLS
de périphérie appartenant à l’opérateur et dédiés à des groupes fermés d’usager particuliers, qui
constituent des VPN.
Dans l’optique MPLS VPN, un VPN est un ensemble de sites placés sous la même autorité
administrative, ou groupés suivant un intérêt particulier.
Le MPLS VPN utilise le champ Stack S de l’entête MPLS (voir figure 2.05 du paragraphe 2.3.2)
car il emploie deux labels comme le montre la figure 3.06 (LSP label et VRF label), l’un pour le
LSP et l’autre pour le VRF (VPN Routing and Forwarding).

Figure 3.06 : VPN MPLS

43
3.3.2.2 Routeurs virtuels
La notion de VPN implique l’isolation du trafic entre sites clients n’appartenant pas aux mêmes
VPN. Pour réaliser cette opération, les routeurs PE ont la capacité de gérer plusieurs tables de
routage grâce à la notion de VRF.
Un VRF est constitué d’une table de routage, d’une FIB (Forwarding Information Base) et d’une
table CEF spécifique, indépendante des autres VRF et de la table de routage globale. Chaque VRF
est désigné par un nom (par ex. RED, GREEN, etc.) sur les routeurs PE. Les noms sont affectés
localement et n’ont aucune signification vis-à-vis des autres routeurs.
Chaque interface de PE, reliée à un site client, est rattachée à un VRF particulier. Lors de la
réception de paquets IP sur une interface client, le routeur PE procède à un examen de la table de
routage du VRF auquel est rattachée l’interface et donc ne consulte pas sa table de routage globale.
Cette possibilité d’utiliser plusieurs tables de routage indépendantes permet de gérer un plan
d’adressage par sites, même si deux sites VPN utilisent des adressages IP identiques.

3.3.2.3 Sécurité
La séparation des flux entre clients sur des routeurs mutualisés supportant MPLS est assurée par
le fait que seul la découverte du réseau se fait au niveau de la couche 3 et qu’ensuite le routage des
paquets est effectué en s’appuyant uniquement sur le mécanisme des labels. Les paquets seront
alors routés jusqu’au destinataire au travers du réseau MPLS en s’appuyant sur les LSP.
Si la garantie de sécurité offerte par MPLS VPN n’est pas suffisante, il existe des solutions qui
permettent d’utiliser en même temps MPLS et IPSec (IP security) et ainsi construire des VPN
disposant des avantages des deux approches en même temps : la souplesse de MPLS et la
sécurisation de IPSec.

3.3.3 Intérêts d’un VPN


VPN/MPLS offre :
- La confidentialité et l’intégrité des échanges
- Un service de réseau IP privé sur une infrastructure de réseau IP public,
- Une possibilité d’utilisation d’un adressage privé sur un réseau public.

44
3.4 Utilisations de MPLS [28]
L’évolution progressive du monde des télécommunications vers des réseaux et des services de
nouvelle génération est aujourd’hui une tendance forte. MPLS aura alors beaucoup de rôle à jouer
dans le monde de la télécommunication.

3.4.1 NGN (Next Generation Network) [34]


3.4.1.1 Définition
Le NGN est un terme générique qui englobe différentes technologies visant à mettre en place un
concept d’un réseau convergeant multiservice. En particulier, il n’existe pas d’une définition
normalisée d’un NGN, de même qu’il n’y a pas de standard internationalement reconnu et accepté
dans ce domaine.
Les NGN sont basés sur une évolution progressive vers le « tout IP » et sont modélisés en couches
indépendantes.
3.4.1.2 Architecture
L’architecture d’un réseau NGN est comme suit :

Figure 3.07 : Architecture d'un réseau NGN


- Réseaux d’accès : la couche « Accès » regroupe les fonctions et les équipements permettant
de gérer l’accès des regroupements utilisateurs au réseau. Elle permet à l’utilisateur l’accès
aux services via divers supports (fibre optique, xDSL, …)

45
- Couche Transport : cette couche gère l’acheminement du trafic vers sa destination. Les
équipements à cette couche sont les « Média Gateways » qui gèrent la conversion des flux
- Couche Contrôle : elle se compose de serveurs dits « Softswitch » qui gère les mécanismes
de contrôle d’appel et l’accès aux services.
- Couche Service : elle regroupe les plateformes applicatives et de diffusion de contenu.

3.4.1.3 Intervention de MPLS [17]


Pour le bon fonctionnement d’un réseau NGN, il est communément admis qu’il serait nécessaire
d’associer à IP des protocoles garantissant la QoS. C’est là qu’intervient MPLS, il vise à corriger
la lacune du protocole IP comme on l’a étalé dans les chapitres précédents. MPLS intervient ainsi
dans la couche Transport du réseau NGN.
Cette intervention de MPLS dans la couche Transport de NGN est illustrée par la figure 3.08
suivante :

Figure 3.08 : MPLS dans l'architecture de NGN


- SGW: Signaling Gateway
- MGW: Media Gateway
- PLMN: Public Land Mobile Network
- PSTN: Public Switched Telephone Network
- HLR: Home Location Register

46
3.4.1.4 Services offerts par NGN
Les NGN offrent de nouveaux services multimédia sur des réseaux en mode paquet. La grande
diversité des services est due aux multiples possibilités offertes par les réseaux NGN en termes
de :
- Support multimédia (données, texte, audio, visuel).
- Mode de communication, unicast (communication point à point), multicast.
- Mobilité (services disponibles partout et tout le temps)
Parmi ces services offerts, nous citons :
- La voix sur IP
- La diffusion de contenus multimédia
- Le stockage de données
On a vu dans ce paragraphe l’intérêt des mises en œuvre de NGN ainsi que le rôle de MPLS dans
cette technologie.

3.4.2 GMPLS (Generalized MPLS) [35]


Aujourd’hui, le réseau optique est devenu le meilleur transport de données dans le monde de la
télécommunication. Elle permet d’envoyer des données à la vitesse de la lumière. La liaison d’un
réseau IP à un réseau optique nécessite l’empilement de plusieurs couches. Pour réduire ces
couches, on a conçu une nouvelle technologie : le GMPLS. En réduisant le nombre d’interfaces
entre les couches, on réduira les coûts opérationnels et le traitement de paquet sera optimisé.

3.4.2.1 Apparition de GMPLS


Les recherches effectuées sur le MPLS ont prouvé qu’un label pouvait être mappé à une couleur
dans le spectre donc que les paquets MPLS pouvaient être transportés directement sur le réseau
optique. Ce processus appelé MP𝜆S (MPLambdaS).

47
Figure 3.09 : MPLabelS à MPLambdaS

GMPLS peut être considéré comme la généralisation des deux principes MPLS et MPLambdaS.
GMPLS répond aux nouvelles exigences des réseaux IP et de leur interconnexion sur les réseaux
de transport optique. Grâce à GMPLS, le trafic IP est directement acheminé sur la couche optique
en assurant une remise fiable.
3.4.2.2 Empilement des couches
La figure 3.10 suivante montre l’évolution de l’empilement de couche entre le réseau IP et le
réseau optique.

Figure 3.10 : Evolution de l’empilement de couche IP/DWDM

Suivant l’évolution de l’architecture des réseaux, certaines couches de l’empilement ont tendance
à disparaître. Tout d’abord, l’élimination de la couche ATM, puis le remplacement de la couche
SONET (Synchronous Optical NETworking) par une fine couche SONET (Thin SONET)
fonctionnant avec GMPLS et enfin en supprimant cette dernière, on aboutit à un modèle supportant

48
le GMPLS directement sur la couche DWDM (Dense Wavelength Division Multiplexing) qui est
la couche optique.
Ainsi, GMPLS consiste à faire converger le monde de l’optique et celui des données.

3.4.3 Implémentation de IPv6 [36]


MPLS peut être un outil pour l’implémentation et la cohabitation de IPv4 et IPv6. Cisco systems
a spécialement développé cisco 6PE (IPv6 Provider Edge Router) sur MPLS.

3.4.3.1 Intérêts de 6PE


Les fournisseurs de services qui déploient déjà MPLS, ou envisagent de le faire, peuvent recueillir
les avantages suivants de Cisco 6PE :
- Services MPLS
- Coût d’exploitation minimal : mise à jour des routeurs PE uniquement
- Adoption d’IPv6 sans interruption dans un service MPLS existant
- Possibilité d’ajout de routeurs 6PE à tout moment

3.4.3.2 Déploiement IPv6 sur MPLS backbone


Le backbone Cisco 6PE (IPv6 sur MPLS) permet la communication des domaines IPv6 sur un
réseau central MPLS IPv4. Cette mise en œuvre ne nécessite pas de mise à niveau de
l’infrastructure de backbone et aucune reconfiguration des routeurs cœurs, car le transfert est basé
sur les étiquettes plutôt que sur l’entête IP. Ceci permet d’obtenir une stratégie très rentable pour
le déploiement IPv6.
En outre, le réseau VPN et l’ingénierie de trafic (TE) disponibles dans un environnement MPLS
permettent aux réseaux IPv6 d’être combinés avec VPN sur une infrastructure prenant en charge
IPv4 VPN et MPLS-TE.

3.4.3.3 Mise en œuvre


La mise en œuvre de Cisco IPv6 sur MPLS repose sur la configuration des routeurs PE sur réseau
IPv4 avec BGP (Border Gateway Protocol). C’est ce routeur qui permet l’échange des
informations entre IPv6 et IPv4.
Une hiérarchie des étiquettes est imposée sur le routeur d’entrée 6PE pour garder le trafic IPv6
transparent à tous les routeurs de cœur. Le plus haut label fournit une connectivité à l’intérieur du
cœur de réseau MPLS IPv4 et l’autre pour la distribution de label (LDP).

49
Figure 3.11 : Mise en œuvre IPv6 sur MPLS

Dans la figure 3.11, les routeurs 6PE sont configurés comme des routeurs à double pile capable de
router le trafic IPv4 et IPv6. Chaque routeur 6PE est configuré pour exécuter LDP pour lier les
labels IPV4, en vue d’échanger des informations d’accessibilité avec les autres dispositifs 6PE
dans le domaine MPLS et à distribuer les labels IPv6 entre eux. Le protocole MP-iBGP (Multi
Protocol – internal Border Gateway Protocol) est une évolution de BGP (Border Gateway
Protocol) mais à la différence de BGP, il est utilisé à l’intérieur d’un réseau.

3.5 Conclusion

Ainsi, MPLS offre plusieurs services pouvant améliorer le fonctionnement d’un réseau. Le traffic
Engineering offre une meilleure utilisation des ressources et un bon partage de charge. En
conséquence, il n’y aura pas de routes surchargées ou sous utilisées. Cela évite alors la congestion
au niveau d’un lien. Avec le MPLS VPN, on peut créer des tunnels virtuels à travers internet. On
a alors la possibilité d’utiliser n’importe quelle adresse qu’elle soit privée ou non. De plus, MPLS
aura des rôles prépondérants dans les réseaux comme NGN et GMPLS et il peut être aussi un outil
de transition de IPv4 vers IPv6.
Dans le chapitre suivant, nous aborderons la simulation d’un réseau MPLS avec ses services

50
: SIMULATION

4.1 Introduction

La simulation est une technique utilisée pour évaluer le fonctionnement d’un système. Elle
constitue un moyen utile pour prédire les performances d’un système et d’appuyer ou de prouver
une théorie.
Dans les chapitres précédents, nous avons parlé du fonctionnement de la technologie MPLS.
MPLS est une technologie pouvant améliorer le fonctionnement d’un réseau. De plus, il permet
l’implémentation de divers services qui aide à optimiser la performance d’un réseau. Nous verrons
alors ces fonctionnalités dans le présent chapitre.
Dans notre simulation, nous allons configurer un réseau avec une topologie très simple. Le but
serait de configurer les routeurs afin d’en créer un réseau MPLS avec ses services comme MPLS-
DiffServ, MPLS-TE et MPLS VPN. Nous présenterons les étapes de notre configuration et les
résultats obtenus.

4.2 Outils de Simulation

4.2.1 Présentation de GNS3


GNS3 ou Graphical Network Simulator 3rd version est un émulateur réseau libre avec une
interface graphique à l’image de Packet Tracer, Network Visualizer, … Sa différence avec ces
derniers c’est sa capacité de reproduction du comportement des IOS et des machines. Il suit le
même principe de fonctionnement que les machines virtuelles (VMWare, VirtualBox, …) qui
émule un OS (Windows 7, linux, …) dans un environnement virtuel.
Ainsi, GNS3 utilise des véritables IOS de Cisco dans un environnement virtuel à travers un
ordinateur.
GNS3 est particulièrement intéressant pour :
- L’entrainement, la pédagogie et la familiarisation avec les produits et les technologies de
Cisco System,
- Tester les fonctionnalités d’un IOS,
- La vérification rapide de configuration à déployer plus tard dans un environnement de
production.

51
On peut émuler avec GNS3 les gammes de routeurs suivantes à condition que nous disposions de
l’image de son IOS :
- Cisco 1700
- Cisco 2600
- Cisco 3600
- Cisco 3700
- Cisco 7200
Ce logiciel fonctionne avec Dynamips et Dynagen

4.2.2 Présentation de Dynamips et Dynagen


Dynamips est un émulateur de routeurs Cisco capable de faire fonctionner des images IOS de
Cisco non modifiées. Ces images d’IOS fonctionnent comme si elles s’exécutaient sur de
véritables routeurs. Le rôle de Dynamips n’est pas de remplacer de véritables routeurs mais de
permettre la réalisation des architectures avec de vraies versions d’IOS
Dynagen est un module s’interfaçant avec Dynamips grâce au mode hyperviseur. Dynagen facilite
la création et la gestion des architectures grâce à un fichier de configuration simple décrivant la
topologie du réseau à simuler.

4.3 Présentation de l’architecture

4.3.1 Routeur utilisé


La gamme de routeur utilisé pour cette simulation est la gamme 7200. L’image de son IOS est
« c700-adventerprisek9-mz.150-1M.image ». Ce type de routeur supporte la technologie MPLS,
d’où notre intérêt pour son utilisation.

4.3.2 Adressage du réseau


La convention utilisée pour les adresses IP est la suivante :
- Interface Loopback0 : 192.168.x.x pour routeur Rx,
- Subnet entre deux routeurs Rx et Ry (x<y) : 192.168.xy.0/24,
- Adresse IP pour Rx : 192.168.xy.x et pour Ry : 192.168.xy.y.

52
4.3.3 Architecture
Pour comprendre l’architecture à simuler, il faut se référer à la figure 2.02 du paragraphe 2.2.3
quant aux termes utilisés : CE, PE, P.
Le réseau à simuler est composé des équipements suivants :
- Deux machines représentant les hôtes du réseau
- Deux routeurs CE (CE1 et CE2) qui sont les routeurs des clients attachant son réseau au
réseau MPLS
- Deux routeurs PE (PE1 et PE2 ou R3 et R7) qui sont les routeurs de bord du réseau MPLS
- Trois routeurs P (P1, P2 et P3 ou R4, R5 et R6) pour les routeurs de commutation du réseau
MPLS
- Les liaisons utilisées sont des liaisons séries sauf celle reliant les machines des clients aux
routeurs CE qui sont des liaisons FastEthernet.
La figure 4.01 suivante nous montre l’architecture de notre réseau de simulation

Figure 4.01 : Architecture du réseau à simuler

4.4 Simulation d’un réseau classique IP

4.4.1 Configuration du réseau


Nous allons tout d’abord simuler un réseau fonctionnant uniquement avec le protocole de routage
IP c’est-à-dire avec les protocoles de routage interne. Pour le nôtre, nous utiliserons le protocole
OSPF pour les raisons déjà mentionnées dans le paragraphe 2.4.2.

53
L’architecture de ce réseau est présentée sur la figure 4.01.
Dans cette architecture, on remarque qu’il y a un serveur. Ce serveur est à la fois un serveur de
fichier et un serveur vidéo. Ainsi, on pourra faire des transferts de fichiers et de streaming vidéo à
travers notre réseau.
Après configuration des interfaces et du protocole OSPF (voir Annexe 3), on procèdera à un test
en faisant des transferts de fichier et un streaming vidéo.

4.4.2 Test et Résultats


Pour notre serveur ftp, on a utilisé FileZilla, un serveur ftp fonctionnant sur le système
d’exploitation Windows. On remarque sur la figure 4.02 que le transfert est OK c’est-à-dire réussi.

Figure 4.02 : Transfert de fichier réussi entre le serveur et le client


Nous avons utilisé le logiciel Iperf (voir Annexe 6) pour mesurer la performance de notre réseau.
C’est un logiciel fonctionnant sur deux machines, l’un comme serveur et l’autre comme client.
La commande Iperf sur la machine serveur :
>iperf –s –u –i 1

 -s : option serveur
 -u : option en mode udp
 -i 1: option intervalle de temps 1s
La commande Iperf sur la machine client :
>iperf –c <adresse ip serveur> -u –b 1m

 -c : option client
 -u : option en mode udp
 -b 1m: option bande passante 1Mbps

54
Interval [s] Transfer Bandwidth Jitter [ms] Lost/Total
[kBytes] [kbps] Datagrams

0-1 142 1160 8.040 0/99 (0%)

1-2 87.6 717 10.584 0/61 (0%)

2-3 0 0 10.584 0/0 (nan/%)

3-4 0 0 10.584 0/0 (nan%)

4-5 141 1150 10.972 231/329 (79%)

5-6 0 0 10.972 0/0 (nan%)

6-7 0 0 10.972 0/0 (nan%)

7-8 0 0 10.972 0/0 (nan%)

Tableau 4.01 : Détails de la performance du réseau


On voit ici que le taux de paquet perdu est vraiment très élevé allant jusqu’à 79% des paquets
transmis et quelquefois le transfert entre les hôtes est interrompu (exemple : [2-4]).
Quand on a fait une capture de paquet, tous les paquets transférés passent par le plus court
chemin qui est le lien R4-R6 comme la figure 4.03 suivante le montre.

Figure 4.03 : Capture de paquet avec Wireshark


Cette figure montre que les paquets vidéos à travers le protocole udp et fichiers ftp à travers le
protocole fpt suivent le même chemin. Il pourrait alors avoir une congestion, ce qui sera la cause

55
de la dégradation de la qualité de la vidéo. La valeur de la gigue présentée par la figure 4.03 qui
est un peu élevée comparée à la valeur donnée par le tableau 4.04 est aussi un autre facteur.

4.5 Simulation d’un MPLS-DiffServ-TE

Figure 4.04 : Architecture réseau MPLS

L’architecture de la simulation est identique à l’architecture montrée par la figure 4.01, à la


différence près que le réseau est maintenant un réseau MPLS c’est-à-dire que les interfaces des
routeurs sont configurées en MPLS (cf configuration Annexe 4 et Tableau 4.02).
Cette figure 4.04 est utilisé pour la simulation de MPLS-DiffServ et MPLS-TE.

56
Voici les configurations des interfaces :

Routeur Interface Configuration

CE1 F0/0 IP

S1/0 IP

PE1 (Ingress LER) S1/0 IP

S1/1 MPLS

P1 (LSR) S1/0 MPLS

S1/1 MPLS

S1/2 MPLS

P2 (LSR) S1/0 MPLS

S1/1 MPLS

P3 (LSR) S1/0 MPLS

S1/1 MPLS

S1/2 MPLS

PE2 (Egress LER) S1/0 MPLS

S1/1 IP

CE2 S1/0 IP

F0/0 IP

Tableau 4.02 : Protocole sur les interfaces


Dans cette simulation, on verra la configuration de MPLS-DiffServ, de MPLS-TE puis les
résultats et vérification.

4.5.1 MPLS-DiffServ
MPLS-DiffServ est une technologie permettant de séparer les flux d’un réseau en plusieurs classes
et de donner à chaque classe les traitements adéquats. Ainsi, une classe sera prioritaire que
d’autres. Chaque paquet appartenant à une classe est identifié par une valeur codée dans le champ
EXP ou CoS de l’entête MPLS (cf. figure 2.05).

57
4.5.1.1 Méthodologie
Dans cette simulation, on va classer les flux en 3 classes :
- Traffic vidéo,
- Trafic de données ftp,
- Et défaut pour les autres.
Pour cela, on va d’abord configurer notre réseau MPLS en activant les interfaces par la commande
« mpls ip ». Puis, y intégrer le protocole de routage OSPF (Configuration en Annexe 4). Après, on
procèdera à la configuration de DiffServ.
La configuration de DiffServ se fait en plusieurs étapes.

a. Création des Access Control Lists


Tout d’abord, il faut différencier les trafics en leur soumettant un contrôle d’accès. Au moment de
configurer les listes de contrôle d’accès, il faut identifier chaque liste de protocole en lui attribuant
un numéro unique.
Le numéro choisi pour identifier une liste de contrôle d’accès doit se trouver à l’intérieur de la
plage sur le tableau 4.03 suivant :

Plage Protocole
1 – 99 IP standard

100 – 199 IP étendue (UDP, TCP, …)

600 – 699 Apple Talk

800 – 899 IPX Standard

900 – 999 IPX Etendue

100 – 1099 IPX Service Advertising Protocol

Tableau 4.03 : Valeur ACL par protocoles

58
Le paramètrage d’une ACL est comme suit :
- Access-list numéro {permit ou deny} protocole source destination opérateur (numéro de
port)
o Le numéro est donné dans Tableau 4.03,
o Le protocole : IP, TCP, UDP, …
o Source : adresse source
o Destination : adresse destinataire
o Opérateur : lt (less than), gt (greater than), eq (equal), neq (not equal)
o Le numéro de port est celui de l’application
Dans notre cas, le filtrage se fait au niveau de l’application et par conséquent au niveau du numéro
de port. C’est pourquoi nous utiliserons des ACLs de type étendu
- PE1(config)#access-list 101 permit udp any any range 5004 5010
o Access-list: commande pour la création d’un filtre
o 101 : numéro choisit correspondant à une ACL de type étendu
o Permit : on permet le passage de ce type de trafic
o udp : pour indiquer que le protocole de niveau 4 est udp
o Any : source = tout le monde
o Any : destinataire = tout le monde
o Range 5004 5010: port = 5004 à 5010
Maintenant pour capturer les flux ftp, on utilise les commandes :
- PE1(config)#access-list 102 permit tcp any any eq ftp
- PE1(config)#access-list 102 permit tcp any any eq ftp-data
La première ligne correspond à un filtrage des paquets correspondant au contrôle de transfert de
données FTP (port 20)
La deuxième correspond aux flux de données FTP (port 21)
Les autres flux sont traités comme défaut.

59
b. Création des classes
Après avoir établi le filtrage, il faut maintenant classifier les différents flux et les mettre dans des
groupes différents.
Une classe de trafic contient trois éléments essentiels :
- Le nom de la classe,
- Une série de commandes « match »,
- Et comment évaluer ces commandes « match ».
Les commandes « match » sont utilisées pour spécifier divers critères de classification des paquets.
Les paquets sont vérifiés pour déterminer s’ils appartiennent ou non à ces critères spécifiés par la
commande « match ». Si un paquet appartient à un ou à tous ces critères, il sera alors considéré
comme membre de cette classe et sera transféré suivant les spécifications de QoS.
En utilisant la classification des paquets, on peut par la suite partitionner notre réseau en plusieurs
niveaux de priorités ou classes de services.
Les paramètres :
- PE1(config)#class-map match-all video_in
- PE1(config-cmap)#match access-group 101
- PE1(config-cmap)#exit
- PE1(config)#class-map match-all ftp_in
- PE1(config-cmap)#match access-group 102
- PE1(config-cmap)#exit
- PE1(config)#class-map match-all video_out
- PE1(config-cmap)#match mpls experimental topmost 5
- PE1(config-cmap)#exit
- PE1(config)#class-map match-all ftp_out
- PE1(config-cmap)#match mpls experimental topmost 2
- PE1(config-cmap)#exit

60
c. Création d’une politique de service
Maintenant qu’on a différencié le trafic, on doit partager la bande passante de notre routeur et
positionner le champ EXP. C’est pourquoi, on doit utiliser des cartes de priorités (policy-map).
Une policy-map contient trois éléments :
- Le nom de la police,
- Les classes associées,
- Les commandes de la qualité de service.
Paramètres :
- PE1(config)#policy-map input_policy
- PE1(config-pmap)#class video_in
- PE1(config-pmap-c)#set mpls experimental 5
- PE1(config-pmap)#class ftp_in
- PE1(config-pmap-c)#set mpls experimental 2
- PE1(config)#policy-map output_policy
- PE1(config-pmap)#class video_out
- PE1(config-pmap-c)#priority percent 60
- PE1(config-pmap-c)#random-detect
- PE1(config-pmap)#class ftp_out
- PE1(config-pmap-c)#bandwidth percent 10
- PE1(config-pmap-c)#random-detect
Ainsi, on a donné une bande passante minimum de 60% pour le flux vidéo. Ces flux sont
prioritaires puisqu’on leur a accordé EXP=5 et les autres sont en dessous de cette valeur. Pour le
flux ftp, on lui a réservé 10% de la bande passante.
Après avoir créé une politique de service, il faut l’appliquer sur une ou plusieurs interfaces du
routeur. Suivant le flux du trafic, il est possible de l’attacher soit à l’interface entrante soit à
l’interface sortante.
- PE1(config)#int s1/0
- PE1(config-if)#service-policy input input_policy
- PE1(config-if)#service-policy output output_policy
Ainsi, on a différencié les flux en trois classes et c’est la classe video dédiée pour les flux vidéo
qui est la prioritaire avec une bande passante plus grande.

61
4.5.2 MPLS-TE
Dans ce paragraphe, on présentera en premier lieu les étapes de la configuration de l’ingénierie de
trafic sur un réseau MPLS. On utilise toujours l’architecture de la figure 4.03

4.5.2.1 Méthodologie
Dans cette simulation, on va activer l’ingénierie de trafic en établissant deux tunnels allants de
PE1 à PE2. Le protocole qu’on utilisera pour le routage interne est OSPF.

a. Activation globale de Traffic Engineering


Pour qu’un routeur puisse gérer le TE, la commande « mpls traffic-eng tunnels » doit être saisie
en mode de configuration globale.
- PE1(config)#mpls traffic-eng tunnels

b. Configuration de l’IGP
Pour la configuration de l’OSPF, on y ajoute quelques lignes de commandes.
- PE1(config)#router ospf 1
- PE1(config-router)#network 192.168.0.0 0.0.255.255 area 0
- PE1(config-router)#mpls traffic-eng router-id lo0
- PE1(config-router)#mpls traffic-eng area 0

c. Configuration des interfaces


Chaque interface par laquelle le TE sera active doit être configurée comme suit :
- PE1(config)#int s1/1
- PE1(config-if)#ip add 192.168.34.4 255.255.255.0
- PE1(config-if)#bandwidth 10240
- PE1(config-if)#mpls ip
- PE1(config-if)#mpls traffic-eng tunnels
- PE1(config-if )#ip rsvp bandwidth 10240 10240
La commande “mpls traffic-eng tunnels” permet d’autoriser le passage de tunnel LSP à travers
cette interface.
La commande « ip rsvp bandwidth » indique quel débit en kbps peut être utilisé pour les tunnels.

62
d. Création d’un tunnel explicite
La configuration d’un tunnel explicite est comme suit :
- PE1(config)#int Tunnel1
- PE1(config-if)#ip unnumbered lo0
- PE1(config-if)#tunnel destination 192.168.7.7
- PE1(config-if)#tunnel mode mpls traffic-eng
- PE1(config-if)#tunnel mpls traffic-eng autoroute announce
- PE1(config-if)#tunnel mpls traffic-eng priority 2 2
- PE1(config-if)#tunnel mpls traffic-eng bandwidth 10000
- PE1(config-if)#tunnel mpls traffic-eng path-option 1 explicit name LSP1
- PE1(config-if)#exit
- PE1(config)#ip explicit-path name LSP1 enable
- PE1(cfg-ip-exp1-path)#next-add 192.168.34.4
- PE1(cfg-ip-exp1-path)#next-add 192.168.45.5
- PE1(cfg-ip-exp1-path)#next-add 192.168.56.6
- PE1(cfg-ip-exp1-path)#next-add 192.168.67.7

La liste des sauts définie par le chemin explicite LSP1 sera alors :
- P1 -> P2 -> P3 -> PE2.

4.5.3 Résultats et vérification


La figure 4.05 suivante nous montre l’image des tunnels qu’on a créés.

Figure 4.05 : Tunnels MPLS-TE

63
Ainsi, on a créé deux routes allant de notre serveur (C1) à notre client (C2) avec un partage de
charge au niveau de ces tunnels. Les paquets auront alors différentes routes pour transférer les
données. Cela évite déjà la congestion qui pourra y avoir au niveau du plus court chemin.
La commande utilisée pour visualiser les tunnels est « show mpls traffic-eng tunnels brief ».

Figure 4.06 : Information sur les tunnels TE


Sur cette figure 4.06, on voit les deux tunnels qu’on a créés : PE1_t1 et PE1_t2. Ces deux tunnels
sont tous deux actifs. Ainsi, les paquets ne suivront plus un seul chemin : le plus court chemin.
Maintenant, vérifions les configurations de DiffServ qu’on a faites au pargraphe 4.5.1. Pour cela,
faisons une capture de paquet vidéo avec Wireshark :

Figure 4.07 : Capture de paquet vidéo


Sur la ligne colorée en bleu montrée par la figure 4.07, on peut voir le protocole MPLS avec ses
détails. Le champ EXP est égal à 5 comme on l’a préconfiguré.

64
En faisant aussi le transfert de fichier et le streaming vidéo. On a constaté que le transfert de fichier
est toujours réussi comme la figure 4.08 le montre.

Figure 4.08 : Transfert de fichier réussi


Les valeurs à respecter pour considérer un réseau de qualité sont [37]:

Réseau Perte Délais Gigue

Local < 0.5% < 10 ms < 5ms

WAN < 1% < 40 ms < 10 ms

Internet < 2% < 100 ms < 30 ms

Tableau 4.04 : Valeurs pour la mesure de qualité


Le détail de la connexion entre les deux ordinateurs donné par Iperf est comme suit :

Interval [s] Transfer [ko] Bandwidth [kbps] Jitter [ms] Lost/Total Datagrams

0-1 121 988 1,700 0/84 (0%)

1-2 125 1002 0,846 0/87 (0%)

2-3 119 976 1,533 0/83 (0%)

3-4 125 1002 1,477 0/87 (0%)

4-5 122 1000 1,024 0/85 (0%)

5-6 122 1000 0,121 0/85 (0%)

6-7 122 1000 1,808 0/85 (0%)

7-8 123 1001 0,628 0/86 (0%)

8-9 122 1000 0,138 0/85 (0%)

Tableau 4.05 : Détail de la connexion entre le réseau MPLS

65
Le tableau 4.05 nous montre la bande passante, la gigue et les paquets perdus de notre transfert.
On peut y constater la qualité du réseau avec 0% de paquet perdu. La variation de la gigue est à
peu près constante car il varie de [0,138 – 1,808]. Il n’y a pas trop écart.
En faisant la comparaison des valeurs données par le tableau 4.04 à celles de 4.05, on peut alors
dire que la qualité de notre réseau est excellente. De plus, les paquets vidéos et ftp ont chacun leur
chemin, ce qui réduit considérablement les pertes et la congestion. D’où l’excellente qualité du
réseau.
Par rapport au résultat donné par la simulation du réseau traditionnel IP, on peut dire que
l’intervention de MPLS et ses services ont largement amélioré la qualité du réseau.

4.6 Simulation d’un VPN MPLS

Pour cette simulation, on ne va pas utiliser l’architecture qu’on a présentée dans le paragraphe
4.3.4. On va créer un réseau avec deux clients A et B qui ont chacun deux sites distants l’un de
l’autre. Pour le client A, les deux sites sont représentés par CE1_A et CE2_A ; CE1_B et CE2_B
pour le Client B.

4.6.1 Architecture de la simulation


On a utilisé ici des adresses différentes au niveau des liaisons PE-CE pour spécifier les adresses
utilisées par les VPN. Dans cette simulation, on établira deux VPN, l’un pour le client A et l’autre
pour le client B. ainsi, on va créer deux VRF au niveau des PE.

Figure 4.09 : Architecture de la simulation VPN MPLS

66
4.6.2 Protocoles utilisés
Pour la configuration de VPN MPLS, on a utilisé les protocoles suivants :
- MPLS sur les routeurs appartenant au réseau MPLS
- OSPF pour la communication intra-nuage (délimité par l’ellipse en pointillé)
- EIGRP (Enhanced Interior Gateway Routing Protocol) entre CE-PE
- MP-BGP pour le VPN

4.6.3 Méthodologie
Afin de créer un VPN MPLS, nous allons suivre les étapes suivantes :
- Mise en place des VRF sur les PE
- Configuration des interfaces sur chaque routeur
- Mise en place du protocole intra-nuage
- Mise en place du protocole EIGRP
- Mise en place de MP-BGP

4.6.3.1 Mise en place des VRF sur les PE


Tout d’abord, nous allons créer les VRF sur les PE (PE1, PE2) avec les commandes suivantes :
- Router(config)#ip vrf Client_A
- Router(config-vrf)#rd 1:1
- Router(config-vrf)#route-target import 1:1
- Router(config-vrf)#route-target export 1:1
- Router(config)#ip vrf Client_B
- Router(config-vrf)#rd 1:2
- Router(config-vrf)#route-target import 1:2
- Router(config-vrf)#route-target export 1:2
« rd » signifie Route Distinguisher. Cette commande permet l’utilisation des plans d’adresse
identiques entre des sites appartenant à des VPN différents. Elle garantit l’unicité des routes
échangées entre PE. C’est la commande route-target (RT) qui définit la manière dont les routes
vont être insérées dans les VRF des routeurs PE.

67
Donc, un VRF doit toujours comporté les paramètres suivants :
- Nom de VRF : sensible à la casse,
- RD
- RT export
- RT import

4.6.3.2 Configuration des interfaces


Pour chaque interface, on configurera :
- Les adresses IP
- Pour ceux des PE : une VRF pour l’interface s’interconnectant avec CE et l’autre le
protocole MPLS
- Pour tous les interfaces des routeurs se trouvant dans le réseau MPLS, le protocole MPLS
- Pour les routeurs CE, leur adresse IP seulement car ces routeurs n’ont pas de
connaissance de MPLS.

Pour l’assignation de VRF des interfaces de PE s’interconnectant avec CE, la procédure est
comme suit :
- PE1(config)#int s1/0
- PE1(config-if)#ip vrf forwarding Client_A
- PE1(config-if)#ip add 100.10.23.3 255.255.255.0
- PE1(config-if)#no sh

L’activation de MPLS sur les interfaces appartenant dans le réseau MPLS se fait par la
commande « mpls ip ».

4.6.3.3 Mise en place du protocole intra-nuage


Après la configuration des interfaces, on active le routage intra-nuage OSPF.
- PE1(config)#router ospf 1
- PE1(config-router)#network 192.168.0.0 0.0.255.255 area 0

4.6.3.4 Mise en place du protocole EIGRP


En plus des adresses IP des interfaces de CE, on y configurera un protocole EIGRP afin qu’il
puisse établir une adjacence et partager ses routes avec PE.
- PE1(config)#router eigrp 1

68
- PE1(config-router)#network 100.0.0.0
On doit configurer sur PE une instance par VRF de ce protocole EIGRP.
- PE1(config)#router eigrp 1
- PE1(config-router)#address-family ipv4 vrf Client_A
- PE1(config-router-af)#network 100.0.0.0
- PE1(config-router-af)#autonomous-system 1
- PE1(config-router-af)#exit
Ainsi, des adjacences se sont formées entre CE-PE comme la figure 4.10 nous montre.

Figure 4.10: Adjacence entre CE-PE

4.6.3.5 Mise en place du protocole MP-BGP


On configure sur PE un protocole BGP pour configurer la liaison vpn entre les deux PE
- PE1(config)#router bgp 1
- PE1(config-router)#neighbor 192.168.7.7 remote-as 1
- PE1(config-router)#neighbor 192.168.7.7 update-source lo0
- PE1(config-router-af)#address-family vpnv4
- PE1(config-router-af)#neighbor 192.168.7.7 activate
- PE1(config-router-af)#neighbor 192.168.7.7 send-community extended
Des adjacences se sont alors formés.

Figure 4.11 : Adjacence formée par les deux PE

4.6.3.6 Gestion de la redistribution des préfixes


Il faut configurer PE pour que la redistribution des routes soit mutuelle dans les deux sens BGP
et EIGRP.

69
a. Redistribution EIGRP=>BGP
La configuration est comme suit :
- PE1(config)#router bgp 1
- PE1(config-router)#address-family ipv4 vrf Client_A
- PE1(config-router-af)#redistribute eigrp 1 metric 1

b. Redistribution BGP => EIGRP


La configuration est comme suit :
- PE1(config)#router eigrp 1
- PE1(config-router)#address-family ipv4 vrf Client_A
- PE1(config-router-af)#redistribute bgp 1 metric 1024 1 255 1 1500

4.6.4 Résultat et vérification


4.6.4.1 Table de routage des VPN
En tapant la commande « sh ip route vrf <nom vrf>, on obtient la table de routage du VPN. La
figure 4.12 suivante montre la table de routage du VPN Client_A.

Figure 4.12 : Table de routage du VPN Client_A

4.6.4.2 Table de routage globale du routeur


Examinons maintenant la table de routage globale de PE avec la commande « sh ip route ». Cette
table est montrée par la figure 4.13.

70
Figure 4.13 : Table de routage globale du routeur PE1
Si on compare les tables de routage données par la figure 4.11 et 4.12, on constate qu’il s’agit de
deux tables complètement différentes et indépendantes.
4.6.4.3 VPN MPLS
Si on trace la route de la VPN Client_A PE1 allant au routeur CE2_A, on obtient le résultat sur la
figure 4.14 suivante :

Figure 4.14 : Route du vrf Client_A vers CE2_A

On voit bien que le routeur utilise MPLS avec deux labels pour router le paquet. C’est la propriété
d’un VPN MPLS comme on l’a énoncé dans le paragraphe 3.3.2.1. Ici, c’est le label L=24 qui
indique le VPN et les autres L=18 et 16 sont les labels établissant le LSP.

71
4.6.4.4 Capture de trafic

Figure 4.15 : Capture du trafic


On a fait une capture de trafic entre les routeurs PE1 et P1 de l’architecture de la figure 4.09 avec
le logiciel Wireshark. Le résultat est illustré sur la figure 4.15. Cette capture montre les différents
protocoles qu’on a utilisés. On y voit le protocole OSPF, MPLS à travers LDP et aussi le protocole
BGP.

4.7 Conclusion

On a vu à travers cette simulation les services que MPLS peut offrir. Avec MPLS-DiffServ, on a
classé les flux en trois classes, l’une pour les trafics vidéo qu’on a donné une bande passante très
grande avec une priorité absolue. Puis, on a simulé MPLS-TE. Par le biais de MPLS-TE, on a créé
deux tunnels allant de PE1 à PE2 avec la partage de charge. Il n’y aura plus alors de route
surchargée ou sous-utilisée. Et finalement, on a fait la simulation d’un VPN MPLS avec laquelle
on a créé deux VPN. Les trafics dans ces VPN sont sécurisés car ce sont des routes virtuelles. Ils
permettent aussi l’utilisation de n’importe quelle adresse IP au sein de ces VPN car il n’y a pas de
risque de conflit d’adresse.
Ainsi, à travers cette simulation, on a pu constater les avantages et les intérêts de MPLS.

72
CONCLUSION GENERALE

En tenant compte de l’évolution de la technologie de l’informatique et de la télécommunication


ainsi que la croissance considérable des utilisateurs. La recherche d’une solution pour remédier à
la congestion des routeurs et donner une qualité de service au réseau s’est alors avérée utile.
Dans ce mémoire, nous avons étalé les avantages et les problèmes des réseaux existants. On a alors
pu constater que ces réseaux, fonctionnant seuls, ne peuvent plus répondre aux besoins actuels.
Pour bénéficier alors de leurs avantages et remédier à leurs obstacles, MPLS a été conçu. MPLS
est un protocole à commutation de label. Il combine les avantages des réseaux des couches 2 et 3
du modèle OSI. Il réduit le traitement et le routage des paquets par son mécanisme c’est-à-dire
l’utilisation des labels. Avec MPLS, seuls les routeurs de bord consultent les tables de routage, les
routeurs du cœur du réseau ne fait que commuter les paquets avec les labels. Ainsi, le débit de
transmission peut augmenter.
En outre, MPLS permet la gestion des QoS avec le modèle DiffServ. Il offre la possibilité de
spécifier les trafics entrant dans le réseau par l’utilisation du champ CoS dans son entête. De ce
fait, les données sont différenciées selon différentes classes. Chaque classe aura un traitement
adéquat au besoin de la qualité de service voulue. Il permet alors d’avoir une QoS adapté et
convenable.
De plus, la technologie MPLS enrichit la capacité de la technologie IP par ses divers services. Tout
d’abord, il permet le routage explicite qui est utile dans l’ingénierie de trafic. L’ingénierie de trafic
vise à faciliter les opérations d’un réseau tout en optimisant en même temps l’utilisation des
ressources du réseau et la performance du trafic. D’autre part, MPLS permet la création de réseaux
privés virtuels (VPN) qui a la capacité d’isoler les trafics. Cette technique permet la sécurisation
des transferts de données tout en utilisant les réseaux publics pour réseau de transmission.
Lors de ce travail, on a fait des simulations concernant ces services que MPLS peut offrir. On a
créé un réseau MPLS avec le modèle DiffServ et classifier les flux en trois classes : trafic vidéo,
trafic ftp et les autres. On a donné à chacun le traitement adéquat. Puis on a fait la simulation d’un
MPLS-TE en créant deux tunnels. Et en dernier, on a fait la simulation d’un VPN MPLS.
Cette étude nous a permis de constater que MPLS permet vraiment d’améliorer la performance
d’un réseau. Ainsi, MPLS est très utile et stratégique pour le trafic d’aujourd’hui.
Le long de ce mémoire, on n’a parlé que du mode de transmission unicast. On a observé que c’est
déjà très attrayant. Qu’en est-il alors du Multicast MPLS ?

73
ANNEXE

ANNEXE 1 : ROUTAGE IP

A1.1 Adressage IP
Chaque station possède une adresse IP, composée de 4 octets (notés au format décimal et séparés
par des points, comme par exemple 192.168.12.34), unique sur l’ensemble des réseaux
interconnectés. Elle est composée de deux parties, plus ou moins longues : la première représente
le réseau auquel la station appartient, et la seconde représente l’identifiant de la station au sein de
ce réseau.
Ainsi, toutes les adresses IP des stations appartenant à un même réseau commencent par les mêmes
bits. Par exemple, les 16 premiers bits (2 octets) peuvent être identiques : 192.168.10.5,
192.168.20.7, 192.168.30.4, etc. Ce réseau est alors noté de la façon suivante : 192.168.0.0 / 16.
Une autre notation consiste à préciser le « masque réseau », c’est-à-dire les 4 octets dont les bits
correspondant à l’adresse du réseau sont égaux à 1 et les autres à 0. Dans notre exemple, les16
premiers bits sont égaux à 1 et les autres à 0 : on obtient 255.255.0.0.
La première adresse IP d’un réseau est réservée pour représenter le réseau lui-même: il s’agit de
192.168.0.0 dans notre exemple. Cette adresse n’est en principe pas utilisée dans les paquets mais
plutôt pour la configuration des matériels. La dernière adresse IP d’un réseau est réservée pour
pouvoir envoyer un paquet à toutes les stations du réseau et de ses éventuels sous-réseaux : c’est
l’adresse de « broadcast direct ». Dans notre exemple, il s’agit de 192.168.255.255. Par exemple,
si le réseau est constitué de trois sous-réseaux, 192.168.10.0 / 24, 192.168.20.0 / 24 et 192.168.30.0
/ 24, alors un paquet envoyé à 192.168.255.255 atteindra toutes les stations de tous ces sous-
réseaux. On peut également envoyer un paquet en broadcast en l’adressant à 255.255.255.255 qui
est l’adresse de « broadcast limité ». Dans ce cas, le paquet ne sera envoyé qu’aux stations du
réseau local, et non aux stations des autres sous-réseaux voisins.

74
A1.2 Format général du paquet IP
Un paquet IP moyen a une taille de 128, 256 ou aux alentours de 1500 octets.

Figure A1.01 : Paquet IP


Le paquet IP est formé de deux grandes parties :
- L’entête du paquet, généralement d’une taille de 20 octets, constitue le PCI (Protocol-
Control Information) du protocole. C’est là que sont inscrites toutes les informations du
protocole (adresse, segmentation, …)
- La partie « data » ou champ de données, d’une taille maximum de 65536 – les octets
d’entête et d’options. Elle véhicule la PDU de couche supérieure (généralement un segment
TCP ou UDP)

A1.3 Format général de l’entête du paquet


L’entête IP est structuré en mots de 4 octets comme tout paquet IP c'est-à-dire qu’il est toujours
multiple de 4 octets

Figure A1.02 : Entête d’un datagramme

75
- Version : ce champ codé sur 4 bits nous renseigne sur la version du protocole. La version
actuelle est 4 (0100). Une version 6 est annoncée depuis 1999. Elle introduit un nouveau
format d’adressage IP avec une adresse de 128 bits.
- Internet Header Length (IHL) : cette longueur est codée sur 4 bits. Elle indique la taille
d’un entête IP.
- Type Of Service (ToS) : ce champ donne des indications aux équipements qu’il traverse
sur son niveau de priorité et sa classe de service. Il est définit sur 8 bits.
- Total Length : longueur totale du datagramme, entête et données comprises. Ce champ
est codé sur 2 octets.
- Identification, Flags et Fragment Offset : ces trois champs servent à gérer le mécanisme
de fragmentation ou segmentation du paquet IP.
- Time To Live (TTL) : du fait que IP est un protocole fonctionnant en mode non connecté
et implantant les techniques de routage dynamique, un paquet peut se perdre dans le réseau.
Pour éviter qu’il tourne indéfiniment, on lui affecte une durée de vie. Cette valeur est
décrémentée toutes les secondes. Si elle est égale à 0, le datagramme est mis au rebut.
- Protocol : ce champ codé sur un octet, identifie le protocole de niveau supérieur transporté
dans le champ de données du paquet IP (généralement TCP et UDP). Il permet au
destinataire, en analysant ce champ, de savoir à quel protocole de niveau supérieur il doit
transmettre le contenu du datagramme.
- Checksum : le checksum est le champ de contrôle d’erreur. Il est calculé uniquement sur
l’entête. Le principe consite à faire la somme des valeurs des octets de l’entête et à inscrire
le résultat dans l’octet de checksum. Le récepteur effectue la même opération, si la valeur
trouvée est identique, il n’y a pas d’erreur. Dans le cas contraire, le paquet est rejeté. IP
possède ainsi un mécanisme de détection d’erreur mais pas de correction.
- Adresses destination et source : les champs d’adresses sont chacun codés sur 4 octets. Le
champ adresse source indique l’adresse IP de la machine qui a émis les données, le champ
adresse Destination indique l’adresse IP de la machine destinataire.
- Options : ce champ est peu utilisé. Il permet de mettre en œuvre des mécanismes évolués
comme le routage explicite (l’émetteur indique par où le paquet doit passer) ou
l’enregistrement de routes (par où il a passé).

76
ANNEXE 2 : ALGORITHME DE DIJKSTRA

L’algorithme de Dijkstra est l’algorithme utilisé dans le protocole de routage interne à état de lien
principalement OSPF. C’est un algorithme qui détermine le plus court chemin. Son grand avantage
est la rapidité.

A2.1 Principe
L’algorithme de Dijkstra porte le nom de son inventeur, l’informaticien néerlandais Edsger
Dijkstra. Il a été publié en 1959.
Tout d’abord, on travail sur un graphe. Il s’agit de construire progressivement, à partir des données
initiales, un sous-graphe dans lequel sont classés les différents sommets par ordre croissant de leur
distance minimale au sommet de départ. La distance correspond à la somme des poids des arêtes
empruntées.
Au départ, on considère que les distances de chaque sommet de départ sont infinies. Au cours de
chaque itération, on va mettre à jour les distances des sommets reliés par un arc au dernier du sous-
graphe (en ajoutant le poids de l’arc à la distance séparant ce dernier sommet du sommet de départ ;
si la distance obtenue ainsi est supérieure à celle qui précédait, la distance n’est cependant pas
modifiée). Après cette mise à jour, on examine l’ensemble des sommets qui ne font pas partie du
sous-graphe, et on choisit celui dont la distance est minimale pour l’ajouter au sous-graphe.
La première étape consiste à mettre de côté le sommet de départ et à lui attribuer une distance de
0. Les sommets qui lui sont adjacents sont mis à jour avec une valeur égale au poids de l’arc qui
les relie au sommet de départ (ou à celui de poids le plus faible si plusieurs arcs les relient) et les
autres sommets conservent leur distance infinie.
Le plus proche des sommets adjacents est alors ajouté au sous-graphe.
La seconde étape consiste à mettre à jour les distances des sommets adjacents à ce dernier. Encore
une fois, on recherche alors le sommet doté de la distance la plus faible. Comme tous les sommets
n’avaient plus une valeur infinie, il est donc possible que le sommet choisi ne soit pas un des
derniers mis à jour.
On l’ajoute au sous-graphe, puis on continue ainsi à partir du dernier sommet ajouté, jusqu’à
épuisement des sommets ou jusqu’à sélection du sommet d’arrivée.

77
A2.2 Exemple
L’exemple suivant montre les étapes successives dans la résolution du chemin le plus court. Les
nœuds symbolisent des villes identifiées par une lettre et les arêtes indiquent la distance entre ces
villes. On cherche à déterminer le plus court trajet pour aller de la ville A à la ville J.

Figure A2.01 : Graphe des villes


Etape 1 : à partir de la ville A, 3 villes sont accessibles, B, C et E qui se voit donc affectées des
poids respectifs de 85, 217, 173, tandis que les autres villes sont affectées d’une distance infinie.
Etape 2 : la distance la plus courte est celle menant à la ville B. Le passage par la ville B ouvre la
voie à la ville F (85+80=165).
Etape 3 : la distance la plus courte suivante est celle menant à la ville F. Le passage par la ville F
ouvre une voie vers la ville I (165+250=415).
Etape 4 : la distance la plus courte suivante est alors celle menant à la ville E. Le passage par la
ville E ouvre une voie vers la ville J (415+84=675).
Etape 5 : la distance la plus courte suivante mène alors à la ville C. Le passage par la ville C ouvre
une voie vers la ville G (217+186=403) et la ville H (217+103=320).
Etape 6 : la distance la plus courte suivante mène à la ville H (320). Le passage par la ville H
ouvre une voie vers la ville D et un raccourci vers la ville J (320+167=487<675).
Etape 7 : la distance la plus courte suivante mène à la ville G et ne change aucune autre distance.
Etape 8 : la distance la plus courte suivante mène à la ville E. Le passage par la ville E ouvre un
chemin vers la ville J qui n’est pas intéressant (173+502=675>487).

78
Etape 9 : la distance la plus courte menant à la ville J est 487 : A-C-H-J.

A2.3 Présentation sous forme tableau


L’illustration par série de graphes peut se révéler un peu longue. Il est d’autre part un peu plus
difficile de repérer le chemin le plus court à l’issue du dessin. Ainsi, l’algorithme de Dijkstra est
souvent réalisé à l’aide d’un tableau dans lequel chaque étape corresponde à une ligne. A partir de
la matrice des arcs orientés reliant les diverses villes :

àA àB àC àD àE àF àG àH àI àJ

De A 0 85 217 ∞ 173 ∞ ∞ ∞ ∞ ∞

De B 85 0 ∞ ∞ ∞ 80 ∞ ∞ ∞ ∞

De C 217 ∞ 0 ∞ ∞ ∞ 186 103 ∞ ∞

De D ∞ ∞ ∞ 0 ∞ ∞ ∞ 183 ∞ ∞

De E 173 ∞ ∞ ∞ 0 ∞ ∞ ∞ ∞ 502

De F ∞ 80 ∞ ∞ ∞ 0 ∞ ∞ 250 ∞

De G ∞ ∞ 186 ∞ ∞ ∞ 0 ∞ ∞ ∞

De H ∞ ∞ 103 183 ∞ ∞ ∞ 0 ∞ 167

De I ∞ ∞ ∞ ∞ ∞ 250 ∞ ∞ 0 84

De J ∞ ∞ ∞ ∞ 502 ∞ ∞ 167 84 0

Tableau A2.01 : Matrices des arcs orientés

79
On construit un tableau dans lequel les distances d’un sommet au sommet de départ sont
regroupées dans une même colonne. Les sommets sélectionnés sont soulignés. Les distances des
voies ouvertes par la sélection d’un nouveau sommet sont barrées si elles sont supérieures à des
distances déjà calculées. Quand un sommet est sélectionné, c’est que l’on a découvert sa distance
minimale au sommet de départ, il est alors inutile de chercher d’autres distance de ce sommet.

àB àC àD àE àF àG àH àI àJ

A 85 217 ∞ 173 ∞ ∞ ∞ ∞ ∞

B (85A) - 217 ∞ 173 165 ∞ ∞ ∞ ∞

F(165B) - 217 ∞ 173 - ∞ ∞ 415 ∞

E(173A) - 217 ∞ - - ∞ ∞ 415 675

C(217A) - - ∞ - - 403 320 415 675

H(320C) - - 503 - - 403 - 415 487

G(403C) - - 503 - - - - 415 487

I(415F) - - 503 - - - - - 499


487

J(487H) - - 503 - - - - - -

D(503H) - - - - - - - - -

Tableau A2.02 : Algorithme de Dijkstra

La construction de ce tableau donne non seulement la distance minimale de la ville A à la ville J


mais aussi le chemin à suivre (J-H-C-A). Ainsi, les distances minimales de la ville A aux autres
villes sont rangées par ordre croissant.

80
ANNEXE 3 : EXTRAIT DE CONFIGURATION D’UN RESEAU IP

hostname CE1
!
boot-start-marker
boot-end-marker
!
ip source-route
no ip icmp rate-limit unreachable
ip cef
!
no ip domain lookup
no ipv6 cef
!
multilink bundle-name authenticated
!
redundancy
!
ip tcp synwait-time 5
!
interface Loopback0
ip address 192.168.2.2 255.255.255.255
!
!
interface FastEthernet0/0
ip address 192.168.12.2 255.255.255.0
duplex half
!
!

81
interface Serial1/0
bandwidth 10240
ip address 192.168.23.2 255.255.255.0
serial restart-delay 0
!
!
router ospf 10
log-adjacency-changes
network 192.168.0.0 0.0.255.255 area 0
!
end

82
ANNEXE 4 : CONFIGURATION D’UN RESEAU MPLS

hostname P1
!
boot-start-marker
boot-end-marker
!
ip source-route
no ip icmp rate-limit unreachable
ip cef
!
no ip domain lookup
no ipv6 cef
!
ip tcp synwait-time 5
!
interface Loopback0
ip address 192.168.4.4 255.255.255.255
!
!
interface Serial1/0
ip address 192.168.34.4 255.255.255.0
mpls ip
serial restart-delay 0
!
!
interface Serial1/1
ip address 192.168.45.4 255.255.255.0
mpls ip

83
serial restart-delay 0
!
!
interface Serial1/2
ip address 192.168.46.4 255.255.255.0
mpls ip
serial restart-delay 0
!
!
router ospf 10
log-adjacency-changes
network 192.168.0.0 0.0.255.255 area 0
!
end

84
ANNEXE 5 : EXTRAIT DE CONFIGURATION DE VPN MPLS

hostname PE1
!
ip source-route
no ip icmp rate-limit unreachable
ip cef
!
ip vrf Client_A
rd 1:1
route-target export 1:1
route-target import 1:1
!
ip vrf Client_B
rd 1:2
route-target export 1:2
route-target import 1:2
!
no ip domain lookup
no ipv6 cef
!
ip tcp synwait-time 5
!
interface Loopback0
ip address 192.168.3.3 255.255.255.255
!
!
interface Loopback1
ip vrf forwarding Client_A

85
ip address 100.10.3.3 255.255.255.255
!
!
interface Loopback2
ip vrf forwarding Client_B
ip address 100.10.3.3 255.255.255.255
!
!
interface Serial1/2
ip address 192.168.34.3 255.255.255.0
mpls ip
serial restart-delay 0
!
!
router eigrp 1
!
address-family ipv4 vrf Client_A
redistribute bgp 1 metric 1024 1 255 1 1500
network 100.0.0.0
autonomous-system 1
exit-address-family
!
address-family ipv4 vrf Client_B
redistribute bgp 1 metric 1024 1 255 1 1500
network 100.0.0.0
autonomous-system 1
exit-address-family
!

86
router ospf 1
log-adjacency-changes
network 192.168.0.0 0.0.255.255 area 0
!
router bgp 1
no synchronization
bgp log-neighbor-changes
neighbor 192.168.7.7 remote-as 1
neighbor 192.168.7.7 update-source Loopback0
no auto-summary
!
address-family vpnv4
neighbor 192.168.7.7 activate
neighbor 192.168.7.7 send-community extended
exit-address-family
!
address-family ipv4 vrf Client_A
no synchronization
redistribute eigrp 1 metric 1
exit-address-family
!
address-family ipv4 vrf Client_B
no synchronization
redistribute eigrp 1 metric 1
exit-address-family
!
End

87
ANNEXE 6: PRESENTATION DE IPERF

Iperf est un logiciel validé par PLUME (Promouvoir les Logiciels Utiles Maîtrisés et Economiques
dans l’enseignement supérieur et la recherche). C’est un logiciel informatique permettant la
mesure de différentes variables d’une connexion réseau IP.
Iperf est développé par le National Laboratory for Applied Network Research. Basé sur une
architecture client/serveur et disponible sur différents systèmes d’exploitation (Unix, Windows,
Mac OS)
A6.1 Fonctionnalités générales
Iperf est un logiciel de mesure de performance réseau, disponible sur de nombreuses plateformes
(Linux, Mac, Windows). Il se présente sous la forme d’une ligne de commande à exécuter sur deux
machines disposées aux extrémités du réseau à tester.
Il permet de mesurer la bande passante, la latence, la gigue et la perte de datagrammes.
Iperf doit être lancé sur deux machines se trouvant de part et d’autre du réseau à tester. La première
machine lance Iperf en « mode serveur » (avec l’option –s), la seconde en « mode client » (option
–c). Par défaut, le test réseau se fait en utilisant le protocole TCP (mais il est également possible
d’utiliser le mode UDP avec l’option –u)

A6.2 Autres fonctionnalités


- Supporte IPv6 (utiliser l’option –V pour spécifier une adresse IPv6) et le multicast,
- Permet de tester des réseaux Wifi,
- Permet de détecter des problèmes sur des câbles réseaux dans un LAN en mesurant des
performances asymétriques d’un poste de travail vers plusieurs autres machines du même
réseau.

88
BIBLIOGRAPHIE

[1] M.A. Rakotomalala, « Réseaux de télécommunications », cours 5ème année,


Dép. Tél. ESPA, A.U. :2012-2013
[2] E. Tittel, « Réseaux », traduit de l’américain par C. Moulin, Dunod, Paris, 2003
[3] Y. Duchemin, « Introduction à l’interconnexion de réseaux », Version 1.1 – mars
2001
[4] J.M Edouard, « Introduction à Internet et aux réseaux », mars 2008
[5] O. Tharan, « Architecture réseaux », cours IEB, 2004
[6] http://fr.wikipedia.org
[7] E. Randriarijaona, « TCP/IP », cours 4ème année, Dép. Tél. ESPA, A.U : 2011-
2012
[8] A. Dulaunoy, « Introduction à TCP/IP et aux routeurs de type IOS (Cisco) »,
Version 0.1b
[9] http://www.6ma.fr/tuto/modele+reseau+osi+les+couches-54, « Le modèle réseau
OSI et les couches »
[10] http://www.commentcamarche.net, « Ethernet », Janvier 2014
[11] A. Amine, « Mise en œuvre d’un cœur de réseau IP/MPLS », Université de Bechar,
2011
[12] S. Pascal, K. El Khazen, « Architecture ATM », RT ENSEA 1999
[13] UIT-T, Commission d’études 2, « Manuel sur les nouvelles technologies et les
nouveaux services », Fascicule 2 Réseaux et services numériques, 1998 – 2002
[14] http://www.commentcamarche.net, « ATM – Le monde de transfert asynchrone »,
Janvier 2014
[15] F. Nolot, « Introduction à MPLS », Université de Reims Champagne – Ardenne,
2009
[16] B. Davenel, « Les VPN MPLS », Université Paris-Est Marne la Vallée, Ingénieurs
2000
[17] M. Charpenne, S. Duchemin, J. Simbola, « La technologie MPLS et son
implantation chez les opérateurs », DESS IIR 2002-2003

89
[18] C. Fillot, « Implémentation Mpls avec Cisco », www.frameip.com/mpls-cisco/,
Fevrier 2014
[19] B. Benduduh J.M. Fourcade, « Mpls », www.frameip.com/mpls/,
[20] Réf. Internet 42289, Technique de l’ingénieur, « Réseau Internet : protocoles,
multicast, routage, MPLS et mobilité »
[21] http://eventus-networks.blogspot.com/2013/11/le-protocole-ospf.html?m=1, « Le
protocole OSPF”,
[22] http://cisco.goffinet.org/s3/ospf1-introduction, « introduction à l’OSPF »
[23] M. Guillaume, A. Geoffrey, « QoS dans MPLS », Université de technologie de
Troyes, Automne 2010
[24] http://www.guill.net/index.php?cat=3&pro=3&wan=6, « Etude du protocole
DiffServ », fevrier 2014
[25] UIT-T Recommendation E.800, « Terms and definitions related to quality of service
and network performance including dependability », August 1994
[26] O. Dugeon, « Architecture des réseaux pour le contrôle de la QoS », Mémoire
d’habilitation à Diriger des Recherches, 2008
[27] P.Q. Nguyen, « Gestion de l’Accès aux Réseaux MPLS-DiffServ par des Agents
Intelligents », Institut de la Francophonie pour l’Informatique, Janvier 2004
[28] G.M. El Amine, « Planification, ingénierie des réseaux de nouvelle génération –
NGN », Université Abou Bekr Belkaid, Ecole doctorale des Sciences et
Technologies de l’information et Télécommunication, Algérie, Décembre 2013
[29] K. Abboud, « Conception et évaluation d’un modèle adaptatif pour la qualité de
service dans les réseaux MPLS », Thèse, Ecole centrale de Lille, Décembre 2010
[30] N. Garnier, « Etude, conception et déploiment des technologies d’ingénierie de
trafic sur l’infrastructure de production MPLS de RENATER », Mémoire
d’ingénieur, Ecole d’ingénieurs Conservatoire National des Arts et Metiers Paris,
Fevrier 2013
[31] B. Davenel, « Les VPN MPLS », Université Paris-Est Marne la Vallée, Ingénieurs
2000

90
[32] W.L Sime, « Mise en place d’une architecture VPN MPLS avec gestion du temps
de connexion et de la bande passante utilisateur », Master Européen en
Informatique, 2009
[33] www.frameip.com/vpn/, X. Lasserre, T. Klein, « Réseaux Privés Virtuels – VPN»
[34] R. Rajaonarison, « NGN », Cours 5ème année, Dép. Tél. ESPA, A.U : 2012-2013
[35] M.E Voge, « Optimisation des réseaux de télécommunications : Réseaux
multiniveaux, Tolérance aux pannes et Surveillance du trafic », Thése, Université
de Nice-Sophia Antipolis – UFR Sciences », Novembre 2006
[36] www.cisco.com
[37] http://www.catapulse.org/articles/view/56

91
PAGE DE RENSEIGNEMENTS

Nom : MAMPISAINA
Prénoms : Sarobidisoa Ravoson
Adresse : Lot VT 85 HAB Andohanimandroseza
Tel : +261 33 76 629 12
+261 34 13 436 49
E-mail :misaravo@yahoo.fr

Titre du mémoire :
«OPTIMISATION DE LA PERFORMANCE D’UN RESEAU AVEC MPLS »

Nombre de pages : 93
Nombre de tableaux : 6
Nombre de figures : 47

Mots clés : MPLS, Label, QoS, VPN, Traffic Engineering

Directeur de mémoire : M. RATSIMBAZAFY Andriamanga


034 01 377 97

92
RESUME

Au cours de ces dernières années, Internet a évolué et a inspiré le développement de nouvelles


variétés d’applications. En plus des données traditionnelles, Internet doit maintenant transporter
voix et données multimédia. Ainsi, les réseaux actuels ne suffisent plus pour répondre aux besoins
des utilisateurs. La croissance exponentielle du nombre d’utilisateurs et le volume du trafic ajoute
une nouvelle dimension au problème. Les classes de services (CoS) et la qualité de service (QoS)
doivent être prises en compte pour répondre aux différents besoin de chaque utilisateur du réseau.
MPLS permet de solutionner à ces problèmes. Il offre la possibilité de donner aux réseaux de la
QoS avec le modèle DiffServ, de gérer le trafic avec l’ingénierie de trafic (MPLS-TE) et aussi de
créer des VPN. MPLS permet alors la rencontre entre les besoins de service et les utilisateurs du
réseau.

ABSTRACT

In recent years, the Internet has evolved and inspired the developpement of new varieties of
applications. In addition to traditional data, Internet must now carry voice and multimedia data.
Thus, today’s networks are no longer sufficient to meet the needs of users. The exponential growth
of the number of users and traffic volume adds a new dimension to the problem. The classes of
service (CoS) and quality of service (QoS) must be taken into account to meet the different needs
of each network’s user. MPLS allow to solve these problems. It offers the possibility of giving
network QoS with the DiffServ model, manage traffic with traffic engineering (MPLS-TE) and
also create VPN. MPLS allow the meeting between the needs of service and network users.

93

Vous aimerez peut-être aussi