Académique Documents
Professionnel Documents
Culture Documents
UNIVERSITE D’ANTANANARIVO
----------------------
ECOLE SUPERIEURE POLYTECHNIQUE
-----------------------
DEPARTEMENT TELECOMMUNICATION
en vue de l’obtention
du DIPLOME d’INGENIEUR
Spécialité : Télécommunication
Option : Réseaux et Systèmes (RS)
OPTIMISATION DE LA PERFORMANCE
D’UN RESEAU AVEC MPLS
Président :
M. RAKOTOMALALA Mamy Alain
Examinateurs :
M. RATSIHOARANA Constant
M. ANDRIANANDRASANA Boto
M. ANDRIAMANALINA Ando
Directeur de mémoire :
M. RATSIMBAZAFY Andriamanga
REMERCIEMENTS
Je remercie Dieu Tout Puissant pour la santé et le courage qu’Il m’a octroyé durant mes
années d’études surtout pendant la réalisation de ce mémoire.
J’adresse aussi ma reconnaissance à :
- Monsieur ANDRIANARY Philippe, Professeur Titulaire, Directeur de l’Ecole
Supérieure Polytechnique d’Antananarivo, qui m’a permis d’effectuer mes études à
l’Ecole Supérieure Polytechnique d’Antananarivo,
- Monsieur RAKOTOMALALA Mamy Alain, Maître de Conférences, Chef de
Département Télécommunication, qui nous a fait l’honneur de présider ce membre
de jury,
- Monsieur RATSIMBAZAFY Andriamanga, Maître de Conférences, pour sa
patience, ses directives et ses conseils qui m’ont été précieux afin de mener ce
travail à bon port.
Sans oublier ma famille, mes amis et tous ceux qui ont de près ou de loin contribué à la
réalisation de ce mémoire.
i
TABLE DES MATIERES
REMERCIEMENTS ............................................................................................................ i
TABLE DES MATIERES .................................................................................................. ii
ABREVIATIONS ............................................................................................................... vi
INTRODUCTION GENERALE ........................................................................................ 1
: LE CONCEPT RESEAU .............................................................................. 3
1.1 Introduction ........................................................................................................... 3
1.2 Type de commutation ........................................................................................... 3
1.2.1 Commutation de circuit .................................................................................. 3
1.2.2 Commutation de messages ............................................................................. 4
1.2.3 Commutation de paquets ................................................................................ 4
1.2.4 Commutation de cellules ................................................................................ 4
1.3 Modes de connexion ............................................................................................. 5
1.3.1 Mode connecté ................................................................................................ 5
1.3.2 Mode non connecté ......................................................................................... 5
1.4 Modèle OSI ............................................................................................................ 6
1.4.1 Principe ........................................................................................................... 6
1.4.2 La couche application .................................................................................... 7
1.4.3 La couche présentation .................................................................................. 7
1.4.4 La couche session ........................................................................................... 7
1.4.5 La couche transport ........................................................................................ 8
1.4.6 La couche réseau ............................................................................................ 8
1.4.7 La couche liaison de données ........................................................................ 9
1.4.8 La couche physique ........................................................................................ 9
1.5 Réseaux de la couche 2 ....................................................................................... 10
1.5.1 Ethernet ......................................................................................................... 10
1.5.2 Frame Relay (FR) ou Relais de trame ......................................................... 11
1.5.3 ATM .............................................................................................................. 13
1.6 Réseau de la couche 3 ......................................................................................... 16
1.6.1 Origine de l’IP .............................................................................................. 16
1.6.2 Fonctionnement de IP .................................................................................. 16
1.6.3 Avantages d’IP .............................................................................................. 17
1.6.4 Inconvénients de IP ...................................................................................... 17
1.7 Conclusion ........................................................................................................... 18
ii
: LA TECHNOLOGIE MPLS ...................................................................... 19
2.1 Introduction ......................................................................................................... 19
2.2 Concept du MPLS ............................................................................................... 19
2.2.1 Historique...................................................................................................... 19
2.2.2 Définition ...................................................................................................... 20
2.2.3 Architecture .................................................................................................. 20
2.2.4 Structure fonctionnelle de MPLS ................................................................ 21
2.3 Label ..................................................................................................................... 24
2.3.1 Définition ...................................................................................................... 24
2.3.2 Entête MPLS ................................................................................................. 24
2.3.3 Encapsulation entête MPLS ......................................................................... 24
2.4 Principe de fonctionnement ............................................................................... 25
2.4.1 Principe général ............................................................................................ 25
2.4.2 Protocoles de routage interne IGP ............................................................... 26
2.4.3 Mécanismes de commutation ....................................................................... 27
2.5 QoS ....................................................................................................................... 30
2.5.1 Définition ...................................................................................................... 30
2.5.2 Paramètres de QoS ....................................................................................... 31
2.5.3 Classes de services ........................................................................................ 32
2.6 Implémentation de la QoS .................................................................................. 32
2.6.1 Surdimensionnement des réseaux ................................................................ 32
2.6.2 Modèle IntServ (Integrated Service) ............................................................ 33
2.6.3 Modèle DiffServ (Differentiated Service) .................................................... 34
2.7 Conclusion ........................................................................................................... 35
: LES ATOUTS DE MPLS ............................................................................ 36
3.1 Introduction ......................................................................................................... 36
3.2 Traffic Engineering (TE).................................................................................... 36
3.2.1 Problèmes des protocoles de routages internes ........................................... 36
3.2.2 IP-TE ............................................................................................................. 37
3.2.3 MPLS-TE ...................................................................................................... 38
3.3 VPN ...................................................................................................................... 42
3.3.1 Définition ...................................................................................................... 43
3.3.2 VPN MPLS ................................................................................................... 43
3.3.3 Intérêts d’un VPN ......................................................................................... 44
3.4 Utilisations de MPLS .......................................................................................... 45
3.4.1 NGN .............................................................................................................. 45
iii
3.4.2 GMPLS.......................................................................................................... 47
3.4.3 Implémentation de IPv6 ............................................................................... 49
3.5 Conclusion ........................................................................................................... 50
: SIMULATION ............................................................................................. 51
4.1 Introduction ......................................................................................................... 51
4.2 Outils de Simulation ........................................................................................... 51
4.2.1 Présentation de GNS3 .................................................................................. 51
4.2.2 Présentation de Dynamips et Dynagen ........................................................ 52
4.3 Présentation de l’architecture ............................................................................ 52
4.3.1 Routeur utilisé............................................................................................... 52
4.3.2 Adressage du réseau ..................................................................................... 52
4.3.3 Architecture .................................................................................................. 53
4.4 Simulation d’un réseau classique IP ................................................................. 53
4.4.1 Configuration du réseau .............................................................................. 53
4.4.2 Test et Résultats ............................................................................................ 54
4.5 Simulation d’un MPLS-DiffServ-TE ................................................................ 56
4.5.1 MPLS-DiffServ ............................................................................................. 57
4.5.2 MPLS-TE ...................................................................................................... 62
4.5.3 Résultats et vérification ................................................................................ 63
4.6 Simulation d’un VPN MPLS ............................................................................. 66
4.6.1 Architecture de la simulation ....................................................................... 66
4.6.2 Protocoles utilisés ......................................................................................... 67
4.6.3 Méthodologie ................................................................................................ 67
4.6.4 Résultat et vérification .................................................................................. 70
4.7 Conclusion ........................................................................................................... 72
CONCLUSION GENERALE........................................................................................... 73
ANNEXE ............................................................................................................................ 74
ANNEXE 1 : ROUTAGE IP ............................................................................................. 74
ANNEXE 2 : ALGORITHME DE DIJKSTRA .............................................................. 77
ANNEXE 3 : EXTRAIT DE CONFIGURATION D’UN RESEAU IP ........................ 81
ANNEXE 4 : CONFIGURATION D’UN RESEAU MPLS ........................................... 83
ANNEXE 5 : EXTRAIT DE CONFIGURATION DE VPN MPLS ............................. 85
ANNEXE 6: PRESENTATION DE IPERF .................................................................... 88
BIBLIOGRAPHIE ............................................................................................................ 89
PAGE DE RENSEIGNEMENTS ..................................................................................... 92
RESUME ............................................................................................................................ 93
iv
ABSTRACT ....................................................................................................................... 93
v
ABREVIATIONS
vi
IETF Internet Engineering Task Force
I-LER Ingress Label Edge Router
IGP Interior Gateway Protocol
IGP-TE Interior Gateway Protocol – Traffic Engineering
IntServ Integrated Service
IP Internet Protocol
IPSec Internet Protocol Security
IP-TE Internet Protocol – Traffic Engineering
IPX Internet Packet eXchange
ISO International Standards Organisation
LAN Local Area Network
LDP Label Distribution Protocol
LER Label Edge Router
LFIB Label Forwarding Information Base
LIB Label Information Base
LSA Link-State Advertisements
LSDB Link-State DataBase
LSP Label Switched Path
LSR Label Switch Router
MAC Medium Access Control
MGW Media Gateway
MP-BGP MultiProtocol Border Gateway Protocol
MP𝜆S MultiProtocol Lambda Switching
MPLS MultiProtocol Label Switching
MTU Maximum Transfer Unit
NGN Next Generation Network
OSI Open System Interconnection
OSPF Open Shortest Path First
vii
P Provider device
PCI Protocol Control Information
PDU Protocol Data Unit
PE Provider Edge router
PHB Per Hop Behaviour
PLMN Public Land Mobile Network
PPP Point to Point Protocol
PSTN Public Switched Telephone Network
QoS Quality of Service
RIP Routing Information Protocol
RNIS Réseau Numérique à Intégration de Service
RSVP Resources ReSerVation Protocol
RSVP-TE Resources ReSerVation Protocol – Traffic Engineering
RTC Réseau Téléphonique Commuté
S Stack
SDH Synchronous Digital Hierarchy
SGW Signaling Gateway
SMTP Simple Mail Transfer Protocol
SONET Synchronous Optical NETwork
TCP Transmission Control Protocol
TE Traffic Engineering
TED Traffic Engineering Database
TTL Time To Live
UDP User Datagram Protocol
UIT Union International des Télécommunications
UIT-T Union International des Télécommunications – Télécommunications
VCI Virtual Channel Indicator
VLSM Variable-Length Subnet Mask
viii
VPI Virtual Path Indicator
VPN Virtual Private Network
VRF VPN Routing and Forwarding
WAN Wide Area Network
ix
INTRODUCTION GENERALE
Les réseaux de télécommunications jouent un rôle de plus en plus important dans nos activités
quotidiennes. Les services utilisés sont de plus en plus gourmands en ressource. Cela entraine une
augmentation considérable de l’utilisation de la bande passante engendrant ainsi des congestions
au niveau des routeurs. Le débit devient de plus en plus médiocre. Or, l’interruption des services
qu’ils fournissent ou même une dégradation significative de leur qualité deviennent de moins en
moins acceptables. De plus, les fournisseurs d’accès veulent ajouter de nouveaux services tout en
conservant leurs infrastructures existantes. Ces nouvelles applications exigent la prise en compte
des spécifications propres à chacune d’elles pour qu’elles puissent fonctionner correctement.
Aussi, on doit aux utilisateurs un réseau avec le maximum de performance possible.
La question qui se pose est alors : comment améliorer la performance d’un réseau ?
Pour répondre à cette question, nous nous focaliserons dans cet ouvrage sur les atouts que la
technologie MPLS peut apporter. D’où le thème de ce travail : « Optimisation de la performance
d’un réseau avec MPLS ».
MPLS est le sigle de MultiProtocol Label Switching. De ce fait, c’est un protocole de routage à
commutation d’étiquette. MPLS combine le routage des paquets de la couche 3 de OSI et le
mécanisme de commutation de la couche 2. C’est pourquoi on l’appelle un protocole de niveau
2.5.
Son mécanisme de transfert simple offre les possibilités de nouveaux contrôles et des nouvelles
applications. Avec MPLS, le traitement des informations est plus rapide, les ressources des
routeurs et des commutateurs sont moins sollicitées. Ainsi, les paquets circulent plus vites, nous
donnant un débit favorable. L’un des points forts de ce mécanisme est qu’il peut transporter
n’importe quel type de trafic sans se soucier du protocole réseau que celui-ci utilise.
On ne peut parler de performance d’un réseau sans mentionner la qualité de service (QoS). La QoS
consiste à assurer les performances désirées pour un trafic donné dans un réseau. Dans notre
travail, nous présenterons le modèle DiffServ pour solution. Ce modèle consiste à regrouper les
flux par classe de façon à les associer à des QoS prédéfinies. De plus, il est adapté aux réseaux de
grande taille.
En outre, MPLS offre de multiples services pouvant améliorer le fonctionnement d’un réseau
comme l’ingénierie de trafic et la création d’un réseau privé virtuel (VPN). On peut aussi parler
1
de son intervention dans quelques réseaux comme le NGN où MPLS est un candidat potentiel pour
la couche transport et le réseau optique avec GMPLS.
Dans cette étude, on parlera du concept réseau, de la technologie MPLS, des nouveaux services
que MPLS peut apporter et surtout de la simulation qu’on a faite.
2
: LE CONCEPT RESEAU
1.1 Introduction
Commutation de circuits
Commutation de paquets
Commutation de message
Commutation de cellules
3
Le service offert est en mode connecté où on distingue trois étapes :
- Etablissement de la connexion
- Transfert de l’information
- Libération de la connexion
Elle est plutôt adaptée au transport de la voix. Son principal inconvénient réside dans le fait que le
circuit est occupé pendant la communication, qu’il soit utilisé ou non.
4
1.3 Modes de connexion [5] [6]
Il existe deux types de mode de connexion : mode avec connexion et mode sans connexion.
5
1.4 Modèle OSI [7] [8] [9]
Le modèle OSI (Open System Interconnection) a été développé en 1978 par l’ISO (International
Standards Organization) afin que soit défini un standard utilisé dans le développement de système
ouvert. Les réseaux s’appuyant sur les spécifications de l’OSI « parlent le même langage », c’est-
à-dire qu’ils utilisent des méthodes de communication semblables pour échanger les données. [6]
Ainsi, OSI est la solution proposée pour remédier à l’incompatibilité des différents réseaux. Il
assure donc la compatibilité et interopérabilité entre diverses technologies réseau.
1.4.1 Principe
1.4.1.1 Les différentes couches
Voici les différentes couches en partant du niveau le plus bas :
- Physique
- Liaison de données
- Réseau
- Transport
- Session
- Présentation
- Application
La figure 1.01 suivante montre ces différentes couches.
6
Le but de l’OSI est de créer un modèle idéal où chaque couche effectue une tâche définie et dépend
des services de la couche inférieure. Chaque couche fournit donc ses propres services à la couche
directement supérieure à elle.
1.4.1.2 Avantages
7
1.4.5 La couche transport
Une fois la session établie, les données doivent être envoyées. La couche transport se charge de
préparer les données à l’envoi. Elle n’est pas responsable du transport des données proprement dit,
mais elle y contribue. En fait, ce sont les quatre dernières couches (transport, réseau, liaison de
données et physique) qui toutes ensemble réalisent le transport des données.
Cependant, chaque couche se spécialise, la couche transport divise les données en plusieurs
segments (ou séquence) et les réunit dans la couche transport de l’hôte récepteur. Cette couche
permet de choisir, en fonction des contraintes de communication, la meilleure façon d’envoyer une
information.
La couche transport modifie également l’entête des données en y ajoutant plusieurs informations,
parmi lesquelles les numéros de ports de la source et de la destination. Elle assure alors la
connexion de bout en bout, la fiabilité et le contrôle des transmissions.
Les PDU traitées dans cette couche sont appelées segment.
TCP (Transmission Control Protocol) et UDP (User Datagram Protocol) sont les protocoles les
plus utilisés dans cette couche.
8
1.4.7 La couche liaison de données
La couche liaison établit une liaison « physique » entre deux hôtes. Là où la couche réseau effectue
une liaison logique, la couche liaison effectue une liaison physique. En fait, elle transforme la
couche physique en une liaison, en assurant dans certains cas la correction d’erreurs qui peuvent
survenir dans la couche physique.
La couche liaison de données fragmente les données en plusieurs trames, qui sont envoyées une
par une dans le réseau. Par conséquent, elle doit gérer l’acquittement des trames.
Ainsi, la couche de liaison contrôle la liaison et la connectivité.
Les PDU traitées dans cette couche sont appelées trames.
Nous venons de voir les différentes couches du modèle OSI. Chaque couche a ses rôles bien
définis. Les couches liaison et réseau sont les couches les plus caractéristiques. C’est pourquoi
l’architecture prend souvent le nom du protocole principal utilisé dans ces niveaux. Si le protocole
utilisé dans la couche liaison est par exemple ATM alors le réseau sera appelé réseau ATM. De
même pour la couche réseau, l’utilisation d’un protocole IP permet de nommer le réseau : réseau
IP. Dans ce qui suit, nous allons voir ces réseaux, leurs avantages et leurs inconvénients.
9
1.5 Réseaux de la couche 2
1.5.1 Ethernet
Ethernet, aussi connu sous le nom de norme IEEE 802.3, est un standard de transmission de
données pour réseau local basé sur le principe suivant : « Toutes les machines du réseau Ethernet
sont connectées à une même ligne de communication, constituée de câbles cylindriques. » [10]
Le tableau 1.01 suivant nous montre les différentes variantes de technologie Ethernet suivant le
type et le diamètre des câbles utilisés :
10Base2 Ethernet fin (thin Câble coaxial (50 Ohms) 10Mbps 185m
Ethernet) de faible diamètre
10
1.5.1.1 Principe de transmission [10]
Tous les ordinateurs d’un réseau Ethernet sont reliés à une même ligne de transmission, et la
communication se fait à l’aide d’un protocole appelé CSMA/CD (Carrier Sense Multiple Access
with Collision Detect). CSMA/CD est un protocole d’accès multiple avec surveillance de porteuse
et détection de collision.
Avec ce protocole, toute machine est autorisée à émettre sur la ligne à n’importe quel moment et
sans notion de priorité entre les machines. Cette communication se fait de façon simple :
- Chaque machine vérifie qu’il n’y a aucune communication sur la ligne avant d’émettre
- Si deux machines émettent simultanément, alors il y a collision.
- Les deux machines interrompent leur communication et attendent un délai aléatoire, puis
la première ayant passé ce délai peut alors réémettre.
1.5.1.2 Intérêts
La plupart des réseaux d’aujourd’hui se développent à travers Ethernet.
Sa simplicité de mise en œuvre est une clé du succès de cette technologie. Mais surtout, Ethernet
est inévitablement associé au transport de flux IP.
11
Le protocole de relais de trame est un exemple de protocole orienté connexion. Sur le plan
technique, il peut être vu :
- Comme un successeur de X.25 : il a en effet remplacé ce protocole pour le raccordement
des sites des entreprises aux infrastructures des opérateurs,
- Comme une étape vers l’ATM,
- Comme faisant partie du RNIS.
FR ne fournit pas de correction d’erreur, lorsqu’il détecte des erreurs, le nœud FR abandonne tout
simplement les paquets sans notification. Toute correction d’erreur, telle que la retransmission des
données, est à la charge des composants d’extrémité. La propagation des données d’un point à un
autre est donc rapide.
12
1.5.2.3 Intérêts et Inconvénients du Frame Relay
Frame Relay ne réalise pas de détection d’erreurs, ce qui procure bien plus de bande passante pour
les données et une vitesse de traitement supérieure à X.25. Il est aussi indépendant des protocoles :
il accepte les données des protocoles différents. De plus, Frame Relay s’appuie sur des circuits
entièrement numériques, ce qui réduit le risque d’erreurs et offre d’excellents débits de
transmission. Un autre avantage du Relais de Trames est l’introduction d’une signalisation séparée
du transport de données.
Frame Relay permet de résoudre des problèmes de communications que d’autres protocoles ne
pouvaient pas traiter :
- le besoin accru de vitesses plus élevées,
- la nécessité de bénéficier d’une bande passante plus efficace,
- en particulier pour fluidifier le trafic, la prolifération d’équipements de réseau
« intelligents » qui réduisent le traitement des protocoles de bas niveau, et le besoin
d’interconnecter des réseaux locaux (LAN) et réseaux étendus (WAN).
Le FR est une technologie qui permet de remplacer les liaisons louées par un « nuage » FR
mutualisé entre de nombreux clients.
1.5.3 ATM
1.5.3.1 Définition
La technologie ATM (Asynchronous Transfer Mode) a été adoptée par l’UIT (Union
Internationale des Télécommunications) à la fin des anné es 80 pour répondre à la demande des
opérateurs de télécommunication d’un « Réseau Numérique à Intégration de Service Large
Bande » unifiant dans un même protocole leurs mécanismes de transport des données, d’images et
surtout de la voix, et garantissant la qualité de service. [11]
13
La figure 1.04 représente une cellule ATM avec 5 octets d’entête et 48 octets de données.
Dans les commutateurs, le traitement de ces cellules est limité à l’analyse de l’entête pour
permettre leur acheminement vers les files d’attente appropriées. Les fonctions de contrôle de flux
ou de traitement d’erreurs ne sont pas effectuées dans le réseau ATM, mais laissées à la charge
des applications utilisatrices ou des équipements d’accès.
Ces caractéristiques permettent à l’ATM de répondre raisonnablement aux contraintes de trafics
aussi différents que la voix, les images animées ou les données. Ce mode de transfert universel
rend possible l’intégration de tous types de services sur un accès unique au réseau.
La commutation de cellules s’insère entre les fonctions de transmission et celles qui concernent
l’adaptation aux caractéristiques des flux d’information transportés par ces cellules.
14
Les trajets virtuels représentent des groupes de canaux virtuels et sont tous commutés de manière
transparente sur le réseau ATM en fonction de leur VPI commun.
Le fonctionnement de base d’un commutateur ATM est assez simple : il reçoit des cellules par une
liaison grâce à un VCI ou un VPI connu, il vérifie la valeur de la connexion dans un tableau de
conversion local pour déterminer les points sortants de connexion et la nouvelle valeur VPI/VCI
de la connexion sur cette liaison et, enfin, il retransmet la cellule sur cette liaison sortante.
15
1.6 Réseau de la couche 3 [6]
Le protocole le plus courant travaillant au niveau 3 du modèle OSI est le protocole IP (Internet
Protocol). Dans cette partie, nous allons parler du réseau IP.
1.6.2 Fonctionnement de IP
Les paquets véhiculés sur le réseau IP sont appelés datagrammes. Ces datagrammes vont passer
un certain nombre de routeurs pour atteindre la destination.
IP est un protocole de réseau fonctionnant en mode non connecté. Ainsi, tous les paquets d’un
même message sont indépendants les uns des autres et peuvent emprunter des itinéraires différents
pour parvenir au destinataire.
Les protocoles IP assurent l’acheminement aux mieux (best-effort) des paquets. Ils ne se
préoccupent pas du contenu des paquets, mais fournissent une méthode pour les mener à
destination.
Des protocoles de routage interviennent pour acheminer les paquets sur le réseau et entre les
routeurs. La communication entre ces routeurs s’effectue par le biais de protocoles de type :
- IGP (Interior Gateway protocol) comme RIP (Routing Information Protocol) et OSPF
(Open Shortest Path First).
- EGP (Exterior Gateway Protocol) comme BGP (Border Gateway Protocol)
Tous ces protocoles de routage ont pour fonction de diriger les paquets dans le réseau. Chaque
routeur IP maintient une table de routage dans laquelle chaque ligne contient un réseau de
destination, un port de sortie et le prochain routeur relai vers ce réseau de destination.
Les protocoles de routage utilisés sont assez robustes mais ils sont focalisés sur la livraison de
datagramme en « Best-Effort », et ainsi poser un certains nombres de limites pour les nouvelles
générations des services Internet nécessitant une meilleure qualité de service. En particulier, ils
16
utilisent « le plus court chemin » pour router les datagrammes. Aussi, avec des chemins alternatifs
qui ont des coûts acceptables, mais non optimale ne peut pas être utilisé pour acheminer le trafic.
Il en résulte qu’un chemin d’accès à une destination serait fortement perturbé alors que d’autres
sous-utilisés.
1.6.4 Inconvénients de IP
Les protocoles IP sont considérés comme « non fiables ». Cela ne signifie pas qu’ils n’envoient
pas correctement les données sur le réseau, mais qu’ils n’offrent aucune garantie pour les paquets
envoyés sur les points suivants :
- Corruption de données,
- Ordre d’arrivée des paquets
- Perte ou destruction de paquet
- Duplication des paquets
En termes de fiabilité, le seul service offert par un protocole IP est de s’assurer que les entêtes de
paquets transmis ne comportent pas d’erreurs grâce à l’utilisation de Checksum. La raison
principale de cette absence de gestion de la fiabilité est la volonté de réduire le niveau de
complexité des routeurs et ainsi de leur permettre de disposer d’une plus grande rapidité.
17
1.7 Conclusion
Un réseau permet l’interconnexion de plusieurs terminaux distants. On peut alors transmettre des
informations d’un endroit à un autre instantanément. Le modèle OSI est l’un des modèles qui ont
été créés pour l’interopérabilité des différents réseaux. Ce modèle est formé par sept couches qui
ont chacune son rôle à jouer dans la transmission de données. Dans ce chapitre, on a parlé de
quelques réseaux appartenant à la couche 2 et 3, ces réseaux ont des avantages mais aussi quelques
inconvénients. Ainsi, pour bénéficier des avantages donnés par les réseaux de ces deux couches à
la fois, il était intéressant d’empiler l’environnement IP (routage de niveau 3) caractérisé par son
évolutivité et sa flexibilité et la commutation de niveau 2 caractérisé par sa performance, sa QoS
(Qualité of Service) et sa gestion de trafic. Ce fusionnement a donné naissance à la technologie
dite MPLS.
Mais qu’est ce qui caractérise vraiment la technologie MPLS et comment elle fonctionne ? Dans
le chapitre suivant nous allons voir le fonctionnement de MPLS et expliquer pourquoi il contribue
à l’amélioration de la performance d’un réseau.
18
: LA TECHNOLOGIE MPLS
2.1 Introduction
Dans les réseaux IP, le routage des paquets s’effectue en fonction de l’adresse de destination
contenue dans l’en-tête de niveau 3. Pour déterminer le prochain saut, chaque routeur consulte sa
table de routage. Ce mécanisme est consommateur de temps. Vu l’augmentation de la taille des
réseaux, il est nécessaire de trouver une méthode efficace pour le routage des paquets.
La technologie MPLS est une nouvelle technologie qui apporte l’intelligence du routage avec les
performances de la commutation. Elle lève les limites des réseaux existants. C’est aussi une
solution efficace pour la gestion de la bande passante et la mise en place de la QoS.
Nous parlerons dans ce chapitre de la technologie MPLS et du modèle DiffServ qui est un modèle
permettant la QoS avec MPLS.
19
2.2.2 Définition [6] [16]
MPLS ou MultiProtocol Label Switching est une technique pour le routage dans un réseau. Elle
fonctionne en mode connecté.
Comme son sigle l’indique, ses caractéristiques sont :
- Multiprotocol (multi-protocoles) : capable de supporter différents protocoles de niveau
inférieur, au sens OSI (ATM, Frame Relay, …)
- Label Switching (commutation par étiquettes) : se base sur une étiquette ou label qui est
un identifiant pour la commutation des paquets.
Son rôle est de combiner les concepts du routage IP de niveau 3 (couche réseau) et les mécanismes
de la commutation de niveau 2 (couche liaison). Ainsi, MPLS associe la puissance de
commutation de niveau 2 et la flexibilité du routage de niveau 3. On dit que c’est un protocole de
niveau 2.5.
20
Les équipements nécessaires sont alors :
- Routeurs CE (customer Edge router)
- Routeurs PE (Provider Edge router) aussi appelés LER (Label Edge Router)
- Routeurs P (Provider device) appelés aussi LSR (Label Switch Router)
21
2.2.4.1 Le plan de contrôle
Ce plan contrôle les informations de routages de niveau 3 grâce à des protocoles tel que OSPF ou
BGP et les labels grâce à des protocoles comme LDP (Label Distribution Protocol) échangé entre
les équipements adjacents.
22
a. Fonctionnement d’un LSR
La figure 2.03 suivante nous montre le fonctionnement d’un LSR.
23
2.3 Label [6] [15] [17] [18]
2.3.1 Définition
Les labels sont des simples nombres entiers. Ils sont insérés entre les entêtes de niveau 2 et de
niveau 3. Ce sont ces labels que les routeurs permutent tout au long du réseau jusqu’à destination
sans avoir besoin de consulter l’entête IP et leur table de routage. On appelle cette technique Label
Swapping.
24
Cette encapsulation est comme suit :
25
Etape n : Pop
- Décapsulation du label à l’avant-dernier saut. C’est le rôle de PE2 sur la figure 2.07.
Ainsi, seuls les routeurs d’extrémité du réseau font une recherche dans leur table, les autres
utilisent uniquement les labels. Ce qui rend le transfert des paquets plus rapide.
26
- OSPF permet aussi l’utilisation du VLSM (Variable-Length Subnet Mask). Il supporte
l’agrégation des routes. L’utilisation intelligente de cette technologie améliore les plans
d’adressage.
- Il utilise IP multicast pour envoyer ses mises à jour d’état de liens. Cette méthode prend
moins de ressources aux routeurs. Ces mises à jour sont envoyées uniquement lors d’un
changement de topologie. Ainsi, on économise de manière évidente la bande passante.
- Il permet aussi une définition logique des réseaux où les routeurs sont répartis en area. Cela
évitera une explosion de mise à jour d’état de lien sur l’ensemble du réseau.
f0/0 L1 L3 f1/0
f0/0 L1 L2 f2/0
27
Les FECs sont généralement basées à partir des différentes adresses IP de destination que les
routeurs connaissent. Mais d’autres critères sont aussi possibles comme l’adresse source et de
destination. Alors, pour chaque destination différente, le routeur doit créer une FEC.
forward à
LER E
LDP est bi-directionnel et permet la découverte dynamique des nœuds adjacents grâce à des
messages Hello échangés par UDP. Une fois que les deux nœuds se sont découverts, ils établissent
une session TCP qui agit comme un mécanisme de transport fiable des messages d’établissement
de session TCP, des messages d’annonce de labels et des messages de notification. La figure 2.09
illustre ce principe.
28
2.4.3.4 LSP (Label Switched Path)
Dans un environnement MPLS, un LSP est un chemin à travers le réseau MPLS. Il est mis en place
par des protocoles comme LDP. Le chemin est basé sur une FEC. Les paquets qui ont alors la
même FEC auront alors le même label et suivent le même LSP. Cependant, un LSP peut être utilisé
par plusieurs FECs.
Les LER choisit le label adéquat en fonction de la FEC. Les routeurs font suivre aux paquets le
LSP.
Un LSP est unidirectionnel. Il en faut un autre pour permettre la communication bidirectionnelle.
- Lorsque le paquet MPLS arrive sur un LSR (1) interne du nuage MPLS comme la figure
2.11 le montre, le protocole de routage fonctionnant sur cet équipement détermine dans la
base de données des LIB, le prochain label à appliquer à ce paquet pour qu’il parvienne
jusqu’à sa destination (2). L’équipement procède ensuite à une mise à jour de l’entête
MPLS (swapping du label et mise à jour du champ TTL) (3), avant de l’envoyer au nœud
suivant (4). Il faut bien noter que sur un LSR interne, le protocole de routage de la couche
réseau n’est jamais sollicité.
29
Figure 2.11 : Commutation de label à l’intérieur du nuage
- Enfin, comme la figure 2.12 le montre, une fois que le paquet MPLS arrive à l’egress node
(E-LER) (1), l’équipement lui retire toute trace MPLS (2) et le transmet à la couche réseau.
2.5.1 Définition
La qualité de service (QoS) se réfère à « l’effet collectif de l’exécution de service qui détermine le
degré de satisfaction d’un utilisateur du service » [25]. Elle consiste alors à assurer les
performances désirées pour un trafic donné dans le réseau.
Son but est d’optimiser les ressources du réseau et de garantir de bonnes performances aux
applications critiques. La QoS est alors un facteur qui permet d’optimiser les performances d’un
réseau.
30
2.5.2 Paramètres de QoS [25]
La maitrise de la QoS est un enjeu essentiel. Elle doit être visualisée et mesurée de bout en bout.
Les flux de données sont principalement associés à des paramètres de QoS qui peuvent être de
différents types.
2.5.2.1 Le débit
C’est la quantité d’informations écoulée par unité de temps. Il est exprimé en bit/s.
2.5.2.4 La gigue
C’est la variation des délais d’acheminement (latence) des paquets sur le réseau. Ce paramètre est
particulièrement sensible pour les applications multimédias qui requièrent un délai inter paquet
relativement stable. En effet, le non considération de cette métrique implique une discontinuité au
niveau de la restitution des données à la destination.
Il y a aussi d’autres paramètres de la QoS comme la disponibilité du réseau et la durée
d’interruption de service. La disponibilité du réseau est la probabilité qu’un élément tombe en
panne et la durée d’interruption de service est la durée qu’un élément est indisponible.
31
2.5.3 Classes de services
Les paramètres cités précédemment sont regroupés entre eux en fonction des besoins des
applications et des services que le réseau fournit. Ces groupes forment ensuite des Classes de
Services (CoS : Classe of Service).
Une classification des principales applications peut être comme suit :
- Voix : regroupe toutes les applications de type conversationnel ayant pour contrainte forte
des objectifs sur le délai et la gigue. Elles sont également sensibles aux taux de perte bien
qu’il ne soit pas possible de retransmettre les données.
- Vidéo : regroupe toutes les applications multimédia qui sont sensibles aux taux de perte,
débit et gigue.
- Données : regroupent toutes les applications de transfert de données ayant pour seule
contrainte un taux de perte nul.
- Défaut : désigne toutes les applications n’exigeant aucune garantie de QoS. Il est connu
sous le nom de « Best-Effort », c’est le mode de transport du protocole IP.
La QoS fournit une grande flexibilité en matière de gestion et en optimisation de services des
réseaux. C’est pourquoi, cette technologie est un outil incontournable dans l’administration
moderne. Son utilisation devient de plus en plus facile.
Ainsi, la QoS deviendra la partie inséparable du routage de demain.
32
Parlons un à un de ces modèles.
2.6.2.2 Limitation
Une des faiblesses du modèle IntServ est sa non-résistance au facteur d’échelle.
RSVP oblige à maintenir des sessions sur tous les équipements qui sont traversés par les flux. Or,
ces sessions nuisent aux performances des équipements et génèrent du trafic sur le réseau. De plus,
il suffit qu’un nœud dans la route n’implémente pas les fonctionnalités IntServ pour que la QoS
ne puisse plus être strictement garantie.
Quand le nombre d’utilisateurs augmente, le nombre de sessions augmente aussi. Cette
augmentation entrainera la diminution des performances de l’architecture. Ce modèle n’est donc
pas adapté aux réseaux de grande taille.
De plus, RSVP est compliqué à mettre en place. Cette complexité augmentera de façon
exponentielle avec la taille du réseau.
Pour ces diverses raisons, RSVP n’est pas beaucoup utilisé dans les réseaux MPLS puisque les
réseaux MPLS sont souvent des réseaux très étendus.
On a alors ainsi opté pour l’autre modèle, le modèle DiffServ.
33
2.6.3 Modèle DiffServ (Differentiated Service) [23] [26] [28]
2.6.3.1 Présentation
La différenciation de services consiste à différencier les flux de services c’est-à-dire diviser le
réseau en domaines. Lors d’une congestion par exemple, on reporte les pertes de paquets sur
certaines classes de trafic pour en protéger d’autres.
Dans l’architecture DiffServ, le traitement différencié des paquets s’appuie sur 3 opérations
fondamentales :
- La classification des flux en classes de services,
- L’introduction de priorités au sein des classes,
- La gestion du trafic dans une classe donnée.
Le modèle DiffServ est basé sur une architecture qui permet des prises de décision complexe aux
bords et donc moins de charge sur les routeurs du cœur. En effet, les routeurs d’extrémités sont
chargés de conditionner le trafic entrant en indiquant explicitement sur le paquet le service qu’il
doit subir.
Ainsi, la complexité des routeurs ne dépend plus du nombre de flux qui passent mais du nombre
de CoS. Ces dernières sont identifiées par une valeur codée dans l’entête. Les principes de DiffServ
exigent que tous les paquets d’un même flux appartiennent à une même CoS afin d’éviter le
déséquencement.
34
2.6.3.3 Avantages et inconvénients
Comme toute technologie, DiffServ apporte son lot de nouveautés tout en ajoutant un certain
nombre de contraintes et de limitations.
On trouve d’abord la philosophie de limiter les temps de traitement des routeurs intermédiaires
apportant une réponse aux opérateurs de réseaux qui pouvaient difficilement mettre en
application l’ensemble de leurs infrastructures à cause de la complexité induite par IntServ. La
normalisation des PHB (Per Hop Behavior) constitue un deuxième point fort de DiffServ
simplifiant l’interconnexion entre les différents domaines DiffServ.
Cependant, DiffServ nécessite la connaissance approfondie des applications transitant sur le
réseau et cela peut se révéler parfois difficile.
Des contraintes telles que la réduction du délai d’acheminement ou le contrôle dans la
distribution de ressources peuvent être satisfaites grâce aux mécanismes proposés par ce modèle.
La notion de priorité peut réduire considérablement l’effet de pertes sur la transmission des flux
surtout pour les flux multimédias.
2.7 Conclusion
Ainsi, MPLS apporte de grandes innovations par rapport au routage IP classique. Sa table de
routage ainsi que les labels sont de plus petite taille. Par conséquent, les temps de commutation
sont extrêmement rapides. MPLS améliore la performance d’un réseau et propose de la QoS avec
DiffServ. De plus, il peut fonctionner avec n’importe quel protocole de la couche 2.
DiffServ est la qualité évolutive de service qui est fournie par de nombreux fournisseurs de
services internet sur les réseaux IP actuel. Dès lors, MPLS et DiffServ sont très utiles et
stratégiques pour le trafic d’aujourd’hui.
MPLS n’en reste pas là. Il offre en plus de multiples services servant encore dans l’amélioration
des activités d’un réseau. MPLS permet l’ingénierie de trafic, la création de VPN, …
Dans le chapitre suivant, nous parlerons de ces services offerts par MPLS.
35
: LES ATOUTS DE MPLS
3.1 Introduction
MPLS est une nouvelle technologie qui apporte l’intelligence de routage et la performance de la
commutation. Avec l’implémentation de DiffServ, elle apporte de la QoS au réseau, réduit le
temps de traitement des paquets en utilisant la commutation de label et permet ainsi l’amélioration
de la performance des réseaux.
En outre, elle permet l’implémentation de divers services comme l’ingénierie de trafic, le VPN ou
le reroutage rapide lors d’une défaillance d’un lien.
Dans ce chapitre, nous parlerons surtout de l’ingénierie de trafic et du VPN sur MPLS mais aussi
de l’intervention de MPLS dans différents réseaux comme NGN et les réseaux optiques.
36
A part cela, il existe d’autres limitations. L’utilisation de MPLS, de sa capacité d’acheminer le
trafic à travers des chemins explicites et de la flexibilité de gestion du trafic qu’il apporte permet
d’éviter ces limitations.
3.2.2 IP-TE
L’ingénierie de trafic en IP consiste à manipuler les métriques des protocoles de routage IP. En
effet, le routage classique IP repose sur le plus court chemin vers une destination donnée. Elle
calcule un ensemble de chemins pour répondre aux demandes de trafic sans saturer les liens et
calcule un ensemble de métriques pour satisfaire ces chemins. Ensuite, un partage de charge offert
par le protocole de routage peut être utilisé pour permettre de partager équitablement la charge
entre tous les chemins de coût égal.
Le réseau sur la figure 3.01 suivante est composé de 9 nœuds et 9 liens bidirectionnels. Les liens
sont caractérisés par leurs métriques IP qui sont égales à 1 et leurs capacités d’environ 100Mbps.
Les trafics de 70Mbps provenant de A et de B soient de 140Mbps arrivants en C allant en G
empruntent tous le même chemin qui est le plus court (C-D-G) avec un coût de 2. Or, ce chemin
est de 100Mbps, il y aura alors une congestion qui entraînera une perte de paquets et ainsi une
dégradation de la qualité de service.
La solution est alors d’utiliser le routage IP-TE avec un partage de charge donné par le protocole
de routage IGP. Lorsqu’il y a plusieurs choix de courts chemins de même coût pour aller à une
destination donnée, un routeur peut partager équitablement la charge sur ces chemins.
37
En changeant alors la métrique des liens C-D, D-G et C-E en 2, les coûts des routes entre C-G
deviennent 4 (figure 3.02). Le routeur C effectuera alors un partage de charge entre les deux
chemins. Ainsi, la congestion est évitée.
Or, cette solution basée sur l’optimisation des métriques IP peut bien fonctionner seulement sur
des réseaux à faible dimension c’est-à-dire de faible nombre de routeurs d’accès. Il serait très
difficile de changer les coûts des liens sur tous les chemins pour une grande topologie. Les
contraintes sur le trafic ne peuvent pas être gérées (par exemple, éviter certains liens pour un trafic
particulier d’une source à une destination.). Les modifications des métriques de liens pour
permettre l’association explicite du trafic à un chemin, tendent à avoir des effets difficilement
contrôlables sur le reste du réseau. Le partage de charge ne peut pas être fait entre les chemins de
coûts différents.
3.2.3 MPLS-TE
L’architecture MPLS est l’une des solutions adaptées aux besoins actuels puisqu’elle s’avère
adaptée aux objectifs d’ingénierie de trafic. En effet, MPLS offre le routage explicite, permettant
la création de chemins routés de façon explicite, indépendamment de la route IP. On appelle ces
chemins tunnels MPLS ou LSP.
38
3.2.3.1 Principe
Ce principe est illustré sur la figure 3.03. MPLS-TE est basé sur le concept de routage de tunnels
(Tunnel 1 et Tunnel 2). Le tunnel est unidirectionnel et est défini par deux LER (Ingress (PE1) et
Egress (PE2)). Plusieurs LSP peuvent exister entre deux LER. Cela permet d’une part d’offrir des
routes différentes correspondant à la QoS requise pour les flux transportés et d’autre part de créer
des LSP de secours en cas de panne ou de surcharge sur le LSP initial.
3.2.3.2 Fonctionnement
MPLS-TE combine le routage explicite offert par MPLS et le routage par contrainte. Le routage
par contrainte repose sur une fonction de découverte dynamique de la bande passante réservable
sur un lien, une fonction de calcul de chemin explicite contraint, et d’une fonction d’établissement
de LSP explicites avec réservation de ressources et distribution de labels le long du chemin
explicite.
Les objectifs du routage explicite qui est la solution pour faire de l’ingénierie de trafic sont les
suivants :
- Utiliser efficacement les ressources du réseau
- Eviter les points de forte congestion en répartissant le trafic sur l’ensemble du réseau.
Dans le cas d’un routage explicite, le LSP n’est plus déterminé à chaque bond mais choisit par
l’ingress node. C’est l’I-LER qui détermine le chemin de bout en bout.
39
Ce mécanisme repose sur trois fonctions principales :
- La fonction de découverte de la topologie
- La fonction de calcul de chemins
- La fonction de signalisation des LSP
40
Le protocole RSVP-TE effectue trois fonctions principales dans le but de signaler le LSP-TE le
long du chemin préalablement défini :
- Il effectue un contrôle d’admission local, pour s’assurer que les contraintes sont bien
respectées (bande passante, groupes administratifs). Ce contrôle d’admission local est
nécessaire pour prendre en compte les cas d’erreur de calcul de route.
- Il réserve la bande passante. Cette réservation de ressources est purement logique et ne se
traduit pas par une réservation physique de bande passante.
- Il distribue les labels et entraîne une mise à jour des tables MPLS en transit.
RSVP-TE permet aux instances de tunnel TE de supporter divers évènements. Par exemple, un
changement de route suite à une réoptimisation, un reroutage sur panne, etc. ce changement de
LSP-TE s’effectue sans perte de paquets, grâce à la procédure de création de nouveau LSP-TE :
bascule du trafic puis suppression de l’ancien LSP-TE. Aussi, les ressources nécessaires ne sont
pas réservées plusieurs fois dans les TED des routeurs traversés.
Pour établir un LSP-TE, les routeurs s’envoient des messages pour réserver des ressources et
confirmer la réservation de lien. Ces messages sont de type :
- Path : établit et maintient le LSP-TE dans le sens descendant,
- Resv : établit et maintient le LSP-TE dans le sens montant.
- PathErr : Indique une erreur.
L’établissement d’un LSP-TE avec RSVP-TE se fait comme suit : [30]
41
(1) R1 est tête de tunnel TE, il envoie un message Path à R2 demandant une réservation de
lien. Celui-ci vérifie le format du message et la disponibilité des ressources TE demandées.
Si les ressources ne sont pas disponibles, R2 renvoie un message PathErr à R1, la séquence
d’établissement est alors annulée.
(2) R2 envoie un message Path à R3. R3 fait les mêmes vérifications qu’en (1)
(3) Ainsi de suite jusqu’à (5)
(6) R7 est la queue du tunnel TE. Il envoie un message Resv à R6. Ce message contient le label
de commutation MPLS à employer pour le tunnel TE par R6.
(7) R6 envoie un message Resv à R5 et indique un label L=42
Il en est de même pour (8), (9) et (10) sur la figure 3.04
Ainsi, MPLS-TE est un ensemble d’outils et de mécanismes, qui vient étendre MPLS. Il fonctionne
sans perturber le fonctionnement normal du réseau. MPLS-TE est l’un des avantages apportés par
MPLS en optimisant l’utilisation des ressources et assurant un bon partage de charge. Mais en plus
des avantages apportés par l’ingénierie de trafic, MPLS-TE permet la création et le maintien de
routes de secours.
42
3.3.1 Définition
Le VPN ou Réseau Privé Virtuel est un réseau comme son nom l’indique :
- Virtual (Virtuel) : il n’y a pas de liaison physique dédiée,
- Private (Privé) : les échanges sont sécurisés et cryptés,
- Network (Réseau) : servant d’accès à un site ou un hôte distant.
43
3.3.2.2 Routeurs virtuels
La notion de VPN implique l’isolation du trafic entre sites clients n’appartenant pas aux mêmes
VPN. Pour réaliser cette opération, les routeurs PE ont la capacité de gérer plusieurs tables de
routage grâce à la notion de VRF.
Un VRF est constitué d’une table de routage, d’une FIB (Forwarding Information Base) et d’une
table CEF spécifique, indépendante des autres VRF et de la table de routage globale. Chaque VRF
est désigné par un nom (par ex. RED, GREEN, etc.) sur les routeurs PE. Les noms sont affectés
localement et n’ont aucune signification vis-à-vis des autres routeurs.
Chaque interface de PE, reliée à un site client, est rattachée à un VRF particulier. Lors de la
réception de paquets IP sur une interface client, le routeur PE procède à un examen de la table de
routage du VRF auquel est rattachée l’interface et donc ne consulte pas sa table de routage globale.
Cette possibilité d’utiliser plusieurs tables de routage indépendantes permet de gérer un plan
d’adressage par sites, même si deux sites VPN utilisent des adressages IP identiques.
3.3.2.3 Sécurité
La séparation des flux entre clients sur des routeurs mutualisés supportant MPLS est assurée par
le fait que seul la découverte du réseau se fait au niveau de la couche 3 et qu’ensuite le routage des
paquets est effectué en s’appuyant uniquement sur le mécanisme des labels. Les paquets seront
alors routés jusqu’au destinataire au travers du réseau MPLS en s’appuyant sur les LSP.
Si la garantie de sécurité offerte par MPLS VPN n’est pas suffisante, il existe des solutions qui
permettent d’utiliser en même temps MPLS et IPSec (IP security) et ainsi construire des VPN
disposant des avantages des deux approches en même temps : la souplesse de MPLS et la
sécurisation de IPSec.
44
3.4 Utilisations de MPLS [28]
L’évolution progressive du monde des télécommunications vers des réseaux et des services de
nouvelle génération est aujourd’hui une tendance forte. MPLS aura alors beaucoup de rôle à jouer
dans le monde de la télécommunication.
45
- Couche Transport : cette couche gère l’acheminement du trafic vers sa destination. Les
équipements à cette couche sont les « Média Gateways » qui gèrent la conversion des flux
- Couche Contrôle : elle se compose de serveurs dits « Softswitch » qui gère les mécanismes
de contrôle d’appel et l’accès aux services.
- Couche Service : elle regroupe les plateformes applicatives et de diffusion de contenu.
46
3.4.1.4 Services offerts par NGN
Les NGN offrent de nouveaux services multimédia sur des réseaux en mode paquet. La grande
diversité des services est due aux multiples possibilités offertes par les réseaux NGN en termes
de :
- Support multimédia (données, texte, audio, visuel).
- Mode de communication, unicast (communication point à point), multicast.
- Mobilité (services disponibles partout et tout le temps)
Parmi ces services offerts, nous citons :
- La voix sur IP
- La diffusion de contenus multimédia
- Le stockage de données
On a vu dans ce paragraphe l’intérêt des mises en œuvre de NGN ainsi que le rôle de MPLS dans
cette technologie.
47
Figure 3.09 : MPLabelS à MPLambdaS
GMPLS peut être considéré comme la généralisation des deux principes MPLS et MPLambdaS.
GMPLS répond aux nouvelles exigences des réseaux IP et de leur interconnexion sur les réseaux
de transport optique. Grâce à GMPLS, le trafic IP est directement acheminé sur la couche optique
en assurant une remise fiable.
3.4.2.2 Empilement des couches
La figure 3.10 suivante montre l’évolution de l’empilement de couche entre le réseau IP et le
réseau optique.
Suivant l’évolution de l’architecture des réseaux, certaines couches de l’empilement ont tendance
à disparaître. Tout d’abord, l’élimination de la couche ATM, puis le remplacement de la couche
SONET (Synchronous Optical NETworking) par une fine couche SONET (Thin SONET)
fonctionnant avec GMPLS et enfin en supprimant cette dernière, on aboutit à un modèle supportant
48
le GMPLS directement sur la couche DWDM (Dense Wavelength Division Multiplexing) qui est
la couche optique.
Ainsi, GMPLS consiste à faire converger le monde de l’optique et celui des données.
49
Figure 3.11 : Mise en œuvre IPv6 sur MPLS
Dans la figure 3.11, les routeurs 6PE sont configurés comme des routeurs à double pile capable de
router le trafic IPv4 et IPv6. Chaque routeur 6PE est configuré pour exécuter LDP pour lier les
labels IPV4, en vue d’échanger des informations d’accessibilité avec les autres dispositifs 6PE
dans le domaine MPLS et à distribuer les labels IPv6 entre eux. Le protocole MP-iBGP (Multi
Protocol – internal Border Gateway Protocol) est une évolution de BGP (Border Gateway
Protocol) mais à la différence de BGP, il est utilisé à l’intérieur d’un réseau.
3.5 Conclusion
Ainsi, MPLS offre plusieurs services pouvant améliorer le fonctionnement d’un réseau. Le traffic
Engineering offre une meilleure utilisation des ressources et un bon partage de charge. En
conséquence, il n’y aura pas de routes surchargées ou sous utilisées. Cela évite alors la congestion
au niveau d’un lien. Avec le MPLS VPN, on peut créer des tunnels virtuels à travers internet. On
a alors la possibilité d’utiliser n’importe quelle adresse qu’elle soit privée ou non. De plus, MPLS
aura des rôles prépondérants dans les réseaux comme NGN et GMPLS et il peut être aussi un outil
de transition de IPv4 vers IPv6.
Dans le chapitre suivant, nous aborderons la simulation d’un réseau MPLS avec ses services
50
: SIMULATION
4.1 Introduction
La simulation est une technique utilisée pour évaluer le fonctionnement d’un système. Elle
constitue un moyen utile pour prédire les performances d’un système et d’appuyer ou de prouver
une théorie.
Dans les chapitres précédents, nous avons parlé du fonctionnement de la technologie MPLS.
MPLS est une technologie pouvant améliorer le fonctionnement d’un réseau. De plus, il permet
l’implémentation de divers services qui aide à optimiser la performance d’un réseau. Nous verrons
alors ces fonctionnalités dans le présent chapitre.
Dans notre simulation, nous allons configurer un réseau avec une topologie très simple. Le but
serait de configurer les routeurs afin d’en créer un réseau MPLS avec ses services comme MPLS-
DiffServ, MPLS-TE et MPLS VPN. Nous présenterons les étapes de notre configuration et les
résultats obtenus.
51
On peut émuler avec GNS3 les gammes de routeurs suivantes à condition que nous disposions de
l’image de son IOS :
- Cisco 1700
- Cisco 2600
- Cisco 3600
- Cisco 3700
- Cisco 7200
Ce logiciel fonctionne avec Dynamips et Dynagen
52
4.3.3 Architecture
Pour comprendre l’architecture à simuler, il faut se référer à la figure 2.02 du paragraphe 2.2.3
quant aux termes utilisés : CE, PE, P.
Le réseau à simuler est composé des équipements suivants :
- Deux machines représentant les hôtes du réseau
- Deux routeurs CE (CE1 et CE2) qui sont les routeurs des clients attachant son réseau au
réseau MPLS
- Deux routeurs PE (PE1 et PE2 ou R3 et R7) qui sont les routeurs de bord du réseau MPLS
- Trois routeurs P (P1, P2 et P3 ou R4, R5 et R6) pour les routeurs de commutation du réseau
MPLS
- Les liaisons utilisées sont des liaisons séries sauf celle reliant les machines des clients aux
routeurs CE qui sont des liaisons FastEthernet.
La figure 4.01 suivante nous montre l’architecture de notre réseau de simulation
53
L’architecture de ce réseau est présentée sur la figure 4.01.
Dans cette architecture, on remarque qu’il y a un serveur. Ce serveur est à la fois un serveur de
fichier et un serveur vidéo. Ainsi, on pourra faire des transferts de fichiers et de streaming vidéo à
travers notre réseau.
Après configuration des interfaces et du protocole OSPF (voir Annexe 3), on procèdera à un test
en faisant des transferts de fichier et un streaming vidéo.
-s : option serveur
-u : option en mode udp
-i 1: option intervalle de temps 1s
La commande Iperf sur la machine client :
>iperf –c <adresse ip serveur> -u –b 1m
-c : option client
-u : option en mode udp
-b 1m: option bande passante 1Mbps
54
Interval [s] Transfer Bandwidth Jitter [ms] Lost/Total
[kBytes] [kbps] Datagrams
55
de la dégradation de la qualité de la vidéo. La valeur de la gigue présentée par la figure 4.03 qui
est un peu élevée comparée à la valeur donnée par le tableau 4.04 est aussi un autre facteur.
56
Voici les configurations des interfaces :
CE1 F0/0 IP
S1/0 IP
S1/1 MPLS
S1/1 MPLS
S1/2 MPLS
S1/1 MPLS
S1/1 MPLS
S1/2 MPLS
S1/1 IP
CE2 S1/0 IP
F0/0 IP
4.5.1 MPLS-DiffServ
MPLS-DiffServ est une technologie permettant de séparer les flux d’un réseau en plusieurs classes
et de donner à chaque classe les traitements adéquats. Ainsi, une classe sera prioritaire que
d’autres. Chaque paquet appartenant à une classe est identifié par une valeur codée dans le champ
EXP ou CoS de l’entête MPLS (cf. figure 2.05).
57
4.5.1.1 Méthodologie
Dans cette simulation, on va classer les flux en 3 classes :
- Traffic vidéo,
- Trafic de données ftp,
- Et défaut pour les autres.
Pour cela, on va d’abord configurer notre réseau MPLS en activant les interfaces par la commande
« mpls ip ». Puis, y intégrer le protocole de routage OSPF (Configuration en Annexe 4). Après, on
procèdera à la configuration de DiffServ.
La configuration de DiffServ se fait en plusieurs étapes.
Plage Protocole
1 – 99 IP standard
58
Le paramètrage d’une ACL est comme suit :
- Access-list numéro {permit ou deny} protocole source destination opérateur (numéro de
port)
o Le numéro est donné dans Tableau 4.03,
o Le protocole : IP, TCP, UDP, …
o Source : adresse source
o Destination : adresse destinataire
o Opérateur : lt (less than), gt (greater than), eq (equal), neq (not equal)
o Le numéro de port est celui de l’application
Dans notre cas, le filtrage se fait au niveau de l’application et par conséquent au niveau du numéro
de port. C’est pourquoi nous utiliserons des ACLs de type étendu
- PE1(config)#access-list 101 permit udp any any range 5004 5010
o Access-list: commande pour la création d’un filtre
o 101 : numéro choisit correspondant à une ACL de type étendu
o Permit : on permet le passage de ce type de trafic
o udp : pour indiquer que le protocole de niveau 4 est udp
o Any : source = tout le monde
o Any : destinataire = tout le monde
o Range 5004 5010: port = 5004 à 5010
Maintenant pour capturer les flux ftp, on utilise les commandes :
- PE1(config)#access-list 102 permit tcp any any eq ftp
- PE1(config)#access-list 102 permit tcp any any eq ftp-data
La première ligne correspond à un filtrage des paquets correspondant au contrôle de transfert de
données FTP (port 20)
La deuxième correspond aux flux de données FTP (port 21)
Les autres flux sont traités comme défaut.
59
b. Création des classes
Après avoir établi le filtrage, il faut maintenant classifier les différents flux et les mettre dans des
groupes différents.
Une classe de trafic contient trois éléments essentiels :
- Le nom de la classe,
- Une série de commandes « match »,
- Et comment évaluer ces commandes « match ».
Les commandes « match » sont utilisées pour spécifier divers critères de classification des paquets.
Les paquets sont vérifiés pour déterminer s’ils appartiennent ou non à ces critères spécifiés par la
commande « match ». Si un paquet appartient à un ou à tous ces critères, il sera alors considéré
comme membre de cette classe et sera transféré suivant les spécifications de QoS.
En utilisant la classification des paquets, on peut par la suite partitionner notre réseau en plusieurs
niveaux de priorités ou classes de services.
Les paramètres :
- PE1(config)#class-map match-all video_in
- PE1(config-cmap)#match access-group 101
- PE1(config-cmap)#exit
- PE1(config)#class-map match-all ftp_in
- PE1(config-cmap)#match access-group 102
- PE1(config-cmap)#exit
- PE1(config)#class-map match-all video_out
- PE1(config-cmap)#match mpls experimental topmost 5
- PE1(config-cmap)#exit
- PE1(config)#class-map match-all ftp_out
- PE1(config-cmap)#match mpls experimental topmost 2
- PE1(config-cmap)#exit
60
c. Création d’une politique de service
Maintenant qu’on a différencié le trafic, on doit partager la bande passante de notre routeur et
positionner le champ EXP. C’est pourquoi, on doit utiliser des cartes de priorités (policy-map).
Une policy-map contient trois éléments :
- Le nom de la police,
- Les classes associées,
- Les commandes de la qualité de service.
Paramètres :
- PE1(config)#policy-map input_policy
- PE1(config-pmap)#class video_in
- PE1(config-pmap-c)#set mpls experimental 5
- PE1(config-pmap)#class ftp_in
- PE1(config-pmap-c)#set mpls experimental 2
- PE1(config)#policy-map output_policy
- PE1(config-pmap)#class video_out
- PE1(config-pmap-c)#priority percent 60
- PE1(config-pmap-c)#random-detect
- PE1(config-pmap)#class ftp_out
- PE1(config-pmap-c)#bandwidth percent 10
- PE1(config-pmap-c)#random-detect
Ainsi, on a donné une bande passante minimum de 60% pour le flux vidéo. Ces flux sont
prioritaires puisqu’on leur a accordé EXP=5 et les autres sont en dessous de cette valeur. Pour le
flux ftp, on lui a réservé 10% de la bande passante.
Après avoir créé une politique de service, il faut l’appliquer sur une ou plusieurs interfaces du
routeur. Suivant le flux du trafic, il est possible de l’attacher soit à l’interface entrante soit à
l’interface sortante.
- PE1(config)#int s1/0
- PE1(config-if)#service-policy input input_policy
- PE1(config-if)#service-policy output output_policy
Ainsi, on a différencié les flux en trois classes et c’est la classe video dédiée pour les flux vidéo
qui est la prioritaire avec une bande passante plus grande.
61
4.5.2 MPLS-TE
Dans ce paragraphe, on présentera en premier lieu les étapes de la configuration de l’ingénierie de
trafic sur un réseau MPLS. On utilise toujours l’architecture de la figure 4.03
4.5.2.1 Méthodologie
Dans cette simulation, on va activer l’ingénierie de trafic en établissant deux tunnels allants de
PE1 à PE2. Le protocole qu’on utilisera pour le routage interne est OSPF.
b. Configuration de l’IGP
Pour la configuration de l’OSPF, on y ajoute quelques lignes de commandes.
- PE1(config)#router ospf 1
- PE1(config-router)#network 192.168.0.0 0.0.255.255 area 0
- PE1(config-router)#mpls traffic-eng router-id lo0
- PE1(config-router)#mpls traffic-eng area 0
62
d. Création d’un tunnel explicite
La configuration d’un tunnel explicite est comme suit :
- PE1(config)#int Tunnel1
- PE1(config-if)#ip unnumbered lo0
- PE1(config-if)#tunnel destination 192.168.7.7
- PE1(config-if)#tunnel mode mpls traffic-eng
- PE1(config-if)#tunnel mpls traffic-eng autoroute announce
- PE1(config-if)#tunnel mpls traffic-eng priority 2 2
- PE1(config-if)#tunnel mpls traffic-eng bandwidth 10000
- PE1(config-if)#tunnel mpls traffic-eng path-option 1 explicit name LSP1
- PE1(config-if)#exit
- PE1(config)#ip explicit-path name LSP1 enable
- PE1(cfg-ip-exp1-path)#next-add 192.168.34.4
- PE1(cfg-ip-exp1-path)#next-add 192.168.45.5
- PE1(cfg-ip-exp1-path)#next-add 192.168.56.6
- PE1(cfg-ip-exp1-path)#next-add 192.168.67.7
La liste des sauts définie par le chemin explicite LSP1 sera alors :
- P1 -> P2 -> P3 -> PE2.
63
Ainsi, on a créé deux routes allant de notre serveur (C1) à notre client (C2) avec un partage de
charge au niveau de ces tunnels. Les paquets auront alors différentes routes pour transférer les
données. Cela évite déjà la congestion qui pourra y avoir au niveau du plus court chemin.
La commande utilisée pour visualiser les tunnels est « show mpls traffic-eng tunnels brief ».
64
En faisant aussi le transfert de fichier et le streaming vidéo. On a constaté que le transfert de fichier
est toujours réussi comme la figure 4.08 le montre.
Interval [s] Transfer [ko] Bandwidth [kbps] Jitter [ms] Lost/Total Datagrams
65
Le tableau 4.05 nous montre la bande passante, la gigue et les paquets perdus de notre transfert.
On peut y constater la qualité du réseau avec 0% de paquet perdu. La variation de la gigue est à
peu près constante car il varie de [0,138 – 1,808]. Il n’y a pas trop écart.
En faisant la comparaison des valeurs données par le tableau 4.04 à celles de 4.05, on peut alors
dire que la qualité de notre réseau est excellente. De plus, les paquets vidéos et ftp ont chacun leur
chemin, ce qui réduit considérablement les pertes et la congestion. D’où l’excellente qualité du
réseau.
Par rapport au résultat donné par la simulation du réseau traditionnel IP, on peut dire que
l’intervention de MPLS et ses services ont largement amélioré la qualité du réseau.
Pour cette simulation, on ne va pas utiliser l’architecture qu’on a présentée dans le paragraphe
4.3.4. On va créer un réseau avec deux clients A et B qui ont chacun deux sites distants l’un de
l’autre. Pour le client A, les deux sites sont représentés par CE1_A et CE2_A ; CE1_B et CE2_B
pour le Client B.
66
4.6.2 Protocoles utilisés
Pour la configuration de VPN MPLS, on a utilisé les protocoles suivants :
- MPLS sur les routeurs appartenant au réseau MPLS
- OSPF pour la communication intra-nuage (délimité par l’ellipse en pointillé)
- EIGRP (Enhanced Interior Gateway Routing Protocol) entre CE-PE
- MP-BGP pour le VPN
4.6.3 Méthodologie
Afin de créer un VPN MPLS, nous allons suivre les étapes suivantes :
- Mise en place des VRF sur les PE
- Configuration des interfaces sur chaque routeur
- Mise en place du protocole intra-nuage
- Mise en place du protocole EIGRP
- Mise en place de MP-BGP
67
Donc, un VRF doit toujours comporté les paramètres suivants :
- Nom de VRF : sensible à la casse,
- RD
- RT export
- RT import
Pour l’assignation de VRF des interfaces de PE s’interconnectant avec CE, la procédure est
comme suit :
- PE1(config)#int s1/0
- PE1(config-if)#ip vrf forwarding Client_A
- PE1(config-if)#ip add 100.10.23.3 255.255.255.0
- PE1(config-if)#no sh
L’activation de MPLS sur les interfaces appartenant dans le réseau MPLS se fait par la
commande « mpls ip ».
68
- PE1(config-router)#network 100.0.0.0
On doit configurer sur PE une instance par VRF de ce protocole EIGRP.
- PE1(config)#router eigrp 1
- PE1(config-router)#address-family ipv4 vrf Client_A
- PE1(config-router-af)#network 100.0.0.0
- PE1(config-router-af)#autonomous-system 1
- PE1(config-router-af)#exit
Ainsi, des adjacences se sont formées entre CE-PE comme la figure 4.10 nous montre.
69
a. Redistribution EIGRP=>BGP
La configuration est comme suit :
- PE1(config)#router bgp 1
- PE1(config-router)#address-family ipv4 vrf Client_A
- PE1(config-router-af)#redistribute eigrp 1 metric 1
70
Figure 4.13 : Table de routage globale du routeur PE1
Si on compare les tables de routage données par la figure 4.11 et 4.12, on constate qu’il s’agit de
deux tables complètement différentes et indépendantes.
4.6.4.3 VPN MPLS
Si on trace la route de la VPN Client_A PE1 allant au routeur CE2_A, on obtient le résultat sur la
figure 4.14 suivante :
On voit bien que le routeur utilise MPLS avec deux labels pour router le paquet. C’est la propriété
d’un VPN MPLS comme on l’a énoncé dans le paragraphe 3.3.2.1. Ici, c’est le label L=24 qui
indique le VPN et les autres L=18 et 16 sont les labels établissant le LSP.
71
4.6.4.4 Capture de trafic
4.7 Conclusion
On a vu à travers cette simulation les services que MPLS peut offrir. Avec MPLS-DiffServ, on a
classé les flux en trois classes, l’une pour les trafics vidéo qu’on a donné une bande passante très
grande avec une priorité absolue. Puis, on a simulé MPLS-TE. Par le biais de MPLS-TE, on a créé
deux tunnels allant de PE1 à PE2 avec la partage de charge. Il n’y aura plus alors de route
surchargée ou sous-utilisée. Et finalement, on a fait la simulation d’un VPN MPLS avec laquelle
on a créé deux VPN. Les trafics dans ces VPN sont sécurisés car ce sont des routes virtuelles. Ils
permettent aussi l’utilisation de n’importe quelle adresse IP au sein de ces VPN car il n’y a pas de
risque de conflit d’adresse.
Ainsi, à travers cette simulation, on a pu constater les avantages et les intérêts de MPLS.
72
CONCLUSION GENERALE
73
ANNEXE
ANNEXE 1 : ROUTAGE IP
A1.1 Adressage IP
Chaque station possède une adresse IP, composée de 4 octets (notés au format décimal et séparés
par des points, comme par exemple 192.168.12.34), unique sur l’ensemble des réseaux
interconnectés. Elle est composée de deux parties, plus ou moins longues : la première représente
le réseau auquel la station appartient, et la seconde représente l’identifiant de la station au sein de
ce réseau.
Ainsi, toutes les adresses IP des stations appartenant à un même réseau commencent par les mêmes
bits. Par exemple, les 16 premiers bits (2 octets) peuvent être identiques : 192.168.10.5,
192.168.20.7, 192.168.30.4, etc. Ce réseau est alors noté de la façon suivante : 192.168.0.0 / 16.
Une autre notation consiste à préciser le « masque réseau », c’est-à-dire les 4 octets dont les bits
correspondant à l’adresse du réseau sont égaux à 1 et les autres à 0. Dans notre exemple, les16
premiers bits sont égaux à 1 et les autres à 0 : on obtient 255.255.0.0.
La première adresse IP d’un réseau est réservée pour représenter le réseau lui-même: il s’agit de
192.168.0.0 dans notre exemple. Cette adresse n’est en principe pas utilisée dans les paquets mais
plutôt pour la configuration des matériels. La dernière adresse IP d’un réseau est réservée pour
pouvoir envoyer un paquet à toutes les stations du réseau et de ses éventuels sous-réseaux : c’est
l’adresse de « broadcast direct ». Dans notre exemple, il s’agit de 192.168.255.255. Par exemple,
si le réseau est constitué de trois sous-réseaux, 192.168.10.0 / 24, 192.168.20.0 / 24 et 192.168.30.0
/ 24, alors un paquet envoyé à 192.168.255.255 atteindra toutes les stations de tous ces sous-
réseaux. On peut également envoyer un paquet en broadcast en l’adressant à 255.255.255.255 qui
est l’adresse de « broadcast limité ». Dans ce cas, le paquet ne sera envoyé qu’aux stations du
réseau local, et non aux stations des autres sous-réseaux voisins.
74
A1.2 Format général du paquet IP
Un paquet IP moyen a une taille de 128, 256 ou aux alentours de 1500 octets.
75
- Version : ce champ codé sur 4 bits nous renseigne sur la version du protocole. La version
actuelle est 4 (0100). Une version 6 est annoncée depuis 1999. Elle introduit un nouveau
format d’adressage IP avec une adresse de 128 bits.
- Internet Header Length (IHL) : cette longueur est codée sur 4 bits. Elle indique la taille
d’un entête IP.
- Type Of Service (ToS) : ce champ donne des indications aux équipements qu’il traverse
sur son niveau de priorité et sa classe de service. Il est définit sur 8 bits.
- Total Length : longueur totale du datagramme, entête et données comprises. Ce champ
est codé sur 2 octets.
- Identification, Flags et Fragment Offset : ces trois champs servent à gérer le mécanisme
de fragmentation ou segmentation du paquet IP.
- Time To Live (TTL) : du fait que IP est un protocole fonctionnant en mode non connecté
et implantant les techniques de routage dynamique, un paquet peut se perdre dans le réseau.
Pour éviter qu’il tourne indéfiniment, on lui affecte une durée de vie. Cette valeur est
décrémentée toutes les secondes. Si elle est égale à 0, le datagramme est mis au rebut.
- Protocol : ce champ codé sur un octet, identifie le protocole de niveau supérieur transporté
dans le champ de données du paquet IP (généralement TCP et UDP). Il permet au
destinataire, en analysant ce champ, de savoir à quel protocole de niveau supérieur il doit
transmettre le contenu du datagramme.
- Checksum : le checksum est le champ de contrôle d’erreur. Il est calculé uniquement sur
l’entête. Le principe consite à faire la somme des valeurs des octets de l’entête et à inscrire
le résultat dans l’octet de checksum. Le récepteur effectue la même opération, si la valeur
trouvée est identique, il n’y a pas d’erreur. Dans le cas contraire, le paquet est rejeté. IP
possède ainsi un mécanisme de détection d’erreur mais pas de correction.
- Adresses destination et source : les champs d’adresses sont chacun codés sur 4 octets. Le
champ adresse source indique l’adresse IP de la machine qui a émis les données, le champ
adresse Destination indique l’adresse IP de la machine destinataire.
- Options : ce champ est peu utilisé. Il permet de mettre en œuvre des mécanismes évolués
comme le routage explicite (l’émetteur indique par où le paquet doit passer) ou
l’enregistrement de routes (par où il a passé).
76
ANNEXE 2 : ALGORITHME DE DIJKSTRA
L’algorithme de Dijkstra est l’algorithme utilisé dans le protocole de routage interne à état de lien
principalement OSPF. C’est un algorithme qui détermine le plus court chemin. Son grand avantage
est la rapidité.
A2.1 Principe
L’algorithme de Dijkstra porte le nom de son inventeur, l’informaticien néerlandais Edsger
Dijkstra. Il a été publié en 1959.
Tout d’abord, on travail sur un graphe. Il s’agit de construire progressivement, à partir des données
initiales, un sous-graphe dans lequel sont classés les différents sommets par ordre croissant de leur
distance minimale au sommet de départ. La distance correspond à la somme des poids des arêtes
empruntées.
Au départ, on considère que les distances de chaque sommet de départ sont infinies. Au cours de
chaque itération, on va mettre à jour les distances des sommets reliés par un arc au dernier du sous-
graphe (en ajoutant le poids de l’arc à la distance séparant ce dernier sommet du sommet de départ ;
si la distance obtenue ainsi est supérieure à celle qui précédait, la distance n’est cependant pas
modifiée). Après cette mise à jour, on examine l’ensemble des sommets qui ne font pas partie du
sous-graphe, et on choisit celui dont la distance est minimale pour l’ajouter au sous-graphe.
La première étape consiste à mettre de côté le sommet de départ et à lui attribuer une distance de
0. Les sommets qui lui sont adjacents sont mis à jour avec une valeur égale au poids de l’arc qui
les relie au sommet de départ (ou à celui de poids le plus faible si plusieurs arcs les relient) et les
autres sommets conservent leur distance infinie.
Le plus proche des sommets adjacents est alors ajouté au sous-graphe.
La seconde étape consiste à mettre à jour les distances des sommets adjacents à ce dernier. Encore
une fois, on recherche alors le sommet doté de la distance la plus faible. Comme tous les sommets
n’avaient plus une valeur infinie, il est donc possible que le sommet choisi ne soit pas un des
derniers mis à jour.
On l’ajoute au sous-graphe, puis on continue ainsi à partir du dernier sommet ajouté, jusqu’à
épuisement des sommets ou jusqu’à sélection du sommet d’arrivée.
77
A2.2 Exemple
L’exemple suivant montre les étapes successives dans la résolution du chemin le plus court. Les
nœuds symbolisent des villes identifiées par une lettre et les arêtes indiquent la distance entre ces
villes. On cherche à déterminer le plus court trajet pour aller de la ville A à la ville J.
78
Etape 9 : la distance la plus courte menant à la ville J est 487 : A-C-H-J.
àA àB àC àD àE àF àG àH àI àJ
De A 0 85 217 ∞ 173 ∞ ∞ ∞ ∞ ∞
De B 85 0 ∞ ∞ ∞ 80 ∞ ∞ ∞ ∞
De D ∞ ∞ ∞ 0 ∞ ∞ ∞ 183 ∞ ∞
De E 173 ∞ ∞ ∞ 0 ∞ ∞ ∞ ∞ 502
De F ∞ 80 ∞ ∞ ∞ 0 ∞ ∞ 250 ∞
De G ∞ ∞ 186 ∞ ∞ ∞ 0 ∞ ∞ ∞
De I ∞ ∞ ∞ ∞ ∞ 250 ∞ ∞ 0 84
De J ∞ ∞ ∞ ∞ 502 ∞ ∞ 167 84 0
79
On construit un tableau dans lequel les distances d’un sommet au sommet de départ sont
regroupées dans une même colonne. Les sommets sélectionnés sont soulignés. Les distances des
voies ouvertes par la sélection d’un nouveau sommet sont barrées si elles sont supérieures à des
distances déjà calculées. Quand un sommet est sélectionné, c’est que l’on a découvert sa distance
minimale au sommet de départ, il est alors inutile de chercher d’autres distance de ce sommet.
àB àC àD àE àF àG àH àI àJ
A 85 217 ∞ 173 ∞ ∞ ∞ ∞ ∞
J(487H) - - 503 - - - - - -
D(503H) - - - - - - - - -
80
ANNEXE 3 : EXTRAIT DE CONFIGURATION D’UN RESEAU IP
hostname CE1
!
boot-start-marker
boot-end-marker
!
ip source-route
no ip icmp rate-limit unreachable
ip cef
!
no ip domain lookup
no ipv6 cef
!
multilink bundle-name authenticated
!
redundancy
!
ip tcp synwait-time 5
!
interface Loopback0
ip address 192.168.2.2 255.255.255.255
!
!
interface FastEthernet0/0
ip address 192.168.12.2 255.255.255.0
duplex half
!
!
81
interface Serial1/0
bandwidth 10240
ip address 192.168.23.2 255.255.255.0
serial restart-delay 0
!
!
router ospf 10
log-adjacency-changes
network 192.168.0.0 0.0.255.255 area 0
!
end
82
ANNEXE 4 : CONFIGURATION D’UN RESEAU MPLS
hostname P1
!
boot-start-marker
boot-end-marker
!
ip source-route
no ip icmp rate-limit unreachable
ip cef
!
no ip domain lookup
no ipv6 cef
!
ip tcp synwait-time 5
!
interface Loopback0
ip address 192.168.4.4 255.255.255.255
!
!
interface Serial1/0
ip address 192.168.34.4 255.255.255.0
mpls ip
serial restart-delay 0
!
!
interface Serial1/1
ip address 192.168.45.4 255.255.255.0
mpls ip
83
serial restart-delay 0
!
!
interface Serial1/2
ip address 192.168.46.4 255.255.255.0
mpls ip
serial restart-delay 0
!
!
router ospf 10
log-adjacency-changes
network 192.168.0.0 0.0.255.255 area 0
!
end
84
ANNEXE 5 : EXTRAIT DE CONFIGURATION DE VPN MPLS
hostname PE1
!
ip source-route
no ip icmp rate-limit unreachable
ip cef
!
ip vrf Client_A
rd 1:1
route-target export 1:1
route-target import 1:1
!
ip vrf Client_B
rd 1:2
route-target export 1:2
route-target import 1:2
!
no ip domain lookup
no ipv6 cef
!
ip tcp synwait-time 5
!
interface Loopback0
ip address 192.168.3.3 255.255.255.255
!
!
interface Loopback1
ip vrf forwarding Client_A
85
ip address 100.10.3.3 255.255.255.255
!
!
interface Loopback2
ip vrf forwarding Client_B
ip address 100.10.3.3 255.255.255.255
!
!
interface Serial1/2
ip address 192.168.34.3 255.255.255.0
mpls ip
serial restart-delay 0
!
!
router eigrp 1
!
address-family ipv4 vrf Client_A
redistribute bgp 1 metric 1024 1 255 1 1500
network 100.0.0.0
autonomous-system 1
exit-address-family
!
address-family ipv4 vrf Client_B
redistribute bgp 1 metric 1024 1 255 1 1500
network 100.0.0.0
autonomous-system 1
exit-address-family
!
86
router ospf 1
log-adjacency-changes
network 192.168.0.0 0.0.255.255 area 0
!
router bgp 1
no synchronization
bgp log-neighbor-changes
neighbor 192.168.7.7 remote-as 1
neighbor 192.168.7.7 update-source Loopback0
no auto-summary
!
address-family vpnv4
neighbor 192.168.7.7 activate
neighbor 192.168.7.7 send-community extended
exit-address-family
!
address-family ipv4 vrf Client_A
no synchronization
redistribute eigrp 1 metric 1
exit-address-family
!
address-family ipv4 vrf Client_B
no synchronization
redistribute eigrp 1 metric 1
exit-address-family
!
End
87
ANNEXE 6: PRESENTATION DE IPERF
Iperf est un logiciel validé par PLUME (Promouvoir les Logiciels Utiles Maîtrisés et Economiques
dans l’enseignement supérieur et la recherche). C’est un logiciel informatique permettant la
mesure de différentes variables d’une connexion réseau IP.
Iperf est développé par le National Laboratory for Applied Network Research. Basé sur une
architecture client/serveur et disponible sur différents systèmes d’exploitation (Unix, Windows,
Mac OS)
A6.1 Fonctionnalités générales
Iperf est un logiciel de mesure de performance réseau, disponible sur de nombreuses plateformes
(Linux, Mac, Windows). Il se présente sous la forme d’une ligne de commande à exécuter sur deux
machines disposées aux extrémités du réseau à tester.
Il permet de mesurer la bande passante, la latence, la gigue et la perte de datagrammes.
Iperf doit être lancé sur deux machines se trouvant de part et d’autre du réseau à tester. La première
machine lance Iperf en « mode serveur » (avec l’option –s), la seconde en « mode client » (option
–c). Par défaut, le test réseau se fait en utilisant le protocole TCP (mais il est également possible
d’utiliser le mode UDP avec l’option –u)
88
BIBLIOGRAPHIE
89
[18] C. Fillot, « Implémentation Mpls avec Cisco », www.frameip.com/mpls-cisco/,
Fevrier 2014
[19] B. Benduduh J.M. Fourcade, « Mpls », www.frameip.com/mpls/,
[20] Réf. Internet 42289, Technique de l’ingénieur, « Réseau Internet : protocoles,
multicast, routage, MPLS et mobilité »
[21] http://eventus-networks.blogspot.com/2013/11/le-protocole-ospf.html?m=1, « Le
protocole OSPF”,
[22] http://cisco.goffinet.org/s3/ospf1-introduction, « introduction à l’OSPF »
[23] M. Guillaume, A. Geoffrey, « QoS dans MPLS », Université de technologie de
Troyes, Automne 2010
[24] http://www.guill.net/index.php?cat=3&pro=3&wan=6, « Etude du protocole
DiffServ », fevrier 2014
[25] UIT-T Recommendation E.800, « Terms and definitions related to quality of service
and network performance including dependability », August 1994
[26] O. Dugeon, « Architecture des réseaux pour le contrôle de la QoS », Mémoire
d’habilitation à Diriger des Recherches, 2008
[27] P.Q. Nguyen, « Gestion de l’Accès aux Réseaux MPLS-DiffServ par des Agents
Intelligents », Institut de la Francophonie pour l’Informatique, Janvier 2004
[28] G.M. El Amine, « Planification, ingénierie des réseaux de nouvelle génération –
NGN », Université Abou Bekr Belkaid, Ecole doctorale des Sciences et
Technologies de l’information et Télécommunication, Algérie, Décembre 2013
[29] K. Abboud, « Conception et évaluation d’un modèle adaptatif pour la qualité de
service dans les réseaux MPLS », Thèse, Ecole centrale de Lille, Décembre 2010
[30] N. Garnier, « Etude, conception et déploiment des technologies d’ingénierie de
trafic sur l’infrastructure de production MPLS de RENATER », Mémoire
d’ingénieur, Ecole d’ingénieurs Conservatoire National des Arts et Metiers Paris,
Fevrier 2013
[31] B. Davenel, « Les VPN MPLS », Université Paris-Est Marne la Vallée, Ingénieurs
2000
90
[32] W.L Sime, « Mise en place d’une architecture VPN MPLS avec gestion du temps
de connexion et de la bande passante utilisateur », Master Européen en
Informatique, 2009
[33] www.frameip.com/vpn/, X. Lasserre, T. Klein, « Réseaux Privés Virtuels – VPN»
[34] R. Rajaonarison, « NGN », Cours 5ème année, Dép. Tél. ESPA, A.U : 2012-2013
[35] M.E Voge, « Optimisation des réseaux de télécommunications : Réseaux
multiniveaux, Tolérance aux pannes et Surveillance du trafic », Thése, Université
de Nice-Sophia Antipolis – UFR Sciences », Novembre 2006
[36] www.cisco.com
[37] http://www.catapulse.org/articles/view/56
91
PAGE DE RENSEIGNEMENTS
Nom : MAMPISAINA
Prénoms : Sarobidisoa Ravoson
Adresse : Lot VT 85 HAB Andohanimandroseza
Tel : +261 33 76 629 12
+261 34 13 436 49
E-mail :misaravo@yahoo.fr
Titre du mémoire :
«OPTIMISATION DE LA PERFORMANCE D’UN RESEAU AVEC MPLS »
Nombre de pages : 93
Nombre de tableaux : 6
Nombre de figures : 47
92
RESUME
ABSTRACT
In recent years, the Internet has evolved and inspired the developpement of new varieties of
applications. In addition to traditional data, Internet must now carry voice and multimedia data.
Thus, today’s networks are no longer sufficient to meet the needs of users. The exponential growth
of the number of users and traffic volume adds a new dimension to the problem. The classes of
service (CoS) and quality of service (QoS) must be taken into account to meet the different needs
of each network’s user. MPLS allow to solve these problems. It offers the possibility of giving
network QoS with the DiffServ model, manage traffic with traffic engineering (MPLS-TE) and
also create VPN. MPLS allow the meeting between the needs of service and network users.
93