Académique Documents
Professionnel Documents
Culture Documents
JUILLET 2018
UNIVERSITE LIBERTE
FACULTE DES SCIENCES INFORMATIQUES
DEDICACE.
A vous les chercheurs scientifiques en général, et vous qui avez des considérations
pour l’informatique cadrant avec les réseaux et télécommunications en particulier.
AVANT-PROPOS.
INTRODUCTION GENERALE
Un réseau multi sites est fait d’un maillage d’interconnexion des réseaux locaux, et
devient comparable à un graphe dont les points d’interconnexion constituent les sommets, et
les liens font référence aux arcs. Une multitude de chemins est ainsi possible, mais tous ne sont
pas fiables pour atteindre la destination. La détermination du chemin fiable devient ainsi une
opération laborieuse. Pour parvenir à trouver ce chemin, tant d’algorithmes ont vu le jour et ont
été affectés aux protocole de routage. C’est notamment l’algorithme de BELLMAN et celui de
DIJKISTRA.
Pendant que les activités d’une entreprise se développent et évoluent, des besoins en
réseau s’amplifient en conséquence. C’est ainsi que des données de types variés sont générées
par les utilisateurs à travers différentes applications. Le routage constitue une fonctionnalité
majeure implémentée au niveau de la troisième couche. Il permet de sélectionner le chemin qui
soit le meilleur par lequel sont acheminés les données issues de ces applications.
Les trafics générés par les utilisateurs et par le protocole de routage peuvent aller au-
delà de la capacité de traitement du routeur, créant ainsi des files d’attente à l’entrée de ce
dernier. Le protocole de routage choisi et les configurations que nous pouvons appliquer au
routeur définissent sa performance. Une bonne configuration du routage et un bon choix du
protocole de routage permettront d’éviter ces files d’attente. L’optimisation du transfert de
trafics locaux en dépendent fortement.
Le travail que nous présentons dans ce mémoire est intitulé « Etude du routage avancé
dans les réseaux IP pour optimiser le transfert des trafics dans les réseaux locaux ». Cette étude
nous permettra de connaître les mécanismes du routage que les administrateurs réseau devront
prendre en compte pour concevoir des infrastructures réseau optimales en termes de transfert
des paquets.
Le choix que nous portons sur notre sujet se justifie par l’importance de la fonction
incontournable du routage consistant à rendre possible la communication inter réseau en toute
efficacité et en un temps réduit. Laisser les valeurs par défaut des paramètres clés du routage
pour la détermination du meilleur chemin (bande passante, etc.) conduit aux situations irréelles
et incohérentes par rapport aux valeurs physiques exactes de l’équipement.
Est-il possible d’optimiser le transfert de trafics dans les réseaux locaux en se basant
sur les paramètres liés au routage inter réseau ?
Après nos investigations recueillies sur le sujet du présent travail, voici comment nous
présentons la réponse relative aux préoccupations posées. Il est possible d’optimiser le transfert
des trafics des utilisateurs entre réseaux lointains. Cette optimisation dépend du choix de
protocole de routage utilisé, mais aussi des configurations appliquées au routeur. Les
paramètres clés de cette optimisation sont le choix d’un protocole de routage qui achemine les
paquets en fonction de l’état du réseau ; et l’usage du mécanisme VLSM (Varible Length
subnetwork Mask) pour un adressage selon l’effectif des usagers du réseau.
Il est juste et vrai que ce travail n’est ni le premier, ni le dernier qui traite de
l’optimisation de transfert des trafics. Pour prouver son originalité, nous nous sommes attelé à
lire des travaux ayant précédemment traité de ce que nous traitons aujourd’hui, parmi lesquels :
Nous verrons bien que la congestion peut surgir dans le réseau suite à la pluralité des
informations de routage qui sont générées par le routeur. Pour ce faire, les concepteurs des
réseaux doivent porter leur choix sur des protocoles qui puissent générer moins d’informations
de routage. Par rapport à nos prédécesseurs, ce travail trouve son originalité dans le fait qu’il
prône l’utilisation du protocole OSPF (Open Shortest Path First) multi zones et l’utilisation
d’un adressage contigu avec le mécanisme VLSM (Variable Length Subnetwork Mask).
3
Pour mener à bien notre étude, nous avons utilisé dans le cadre de ce mémoire la
méthode de dimensionnement des serveurs et des réseaux. Cette méthode consiste en la
détermination des caractéristiques d’une infrastructure réseau lors de sa conception pour
satisfaire à des critères préétablis et à la pratique réglementaire. Ces caractéristiques peuvent
être : le système de routage et de localisation des nœuds ou des équipements réseaux ;
l’interconnexion des réseaux et la garantie de la qualité de service (QOS) et les méthode d’accès
au réseau.
La technique d’administration système et réseau est celle que nous avons utilisé dans
ce mémoire. Nous usons de cette technique en ce sens qu’elle est un ensemble des moyens mis
en œuvres pour : garantir l’efficacité des infrastructures réseaux et leur disponibilité et assurer
la surveillance des coûts et de planification des évolutions des infrastructures réseaux.
1.1 INTRODUCTION.
Généralement, la communication inter réseau est faite à travers les nœuds et les liens.
Conformément au type de réseau, ces nœuds ont différents noms ; en réseau IP (Internet
Protocol) ils sont appelés routeurs pendant qu’en téléphonie, ils se nomment commutateurs.
Etant fait d’une multitude des réseaux locaux, internet se définit à ces jours comme étant un
maillage de ces réseaux locaux interconnectés entre eux par le biais des nœuds qui sont ici des
routeurs.
Un graphe, étant aussi constitué des sommets et des arcs, une similarité exacte devient
ainsi possible entre l’internet et un graphe. Face à une multitude de chemins, la question
majeure devient celle de savoir comment passer d’un sommet à un autre dans un graphe en
empruntant le chemin qui soit le plus court de tous, selon des critères, notamment ceux liés au
temps, et ceux liés aux grandeurs caractéristiques des liens reliant les nœuds. Pour parvenir à
déterminer le meilleur chemin qui soit le plus court et fiable, plusieurs algorithmes ont été
conçus [1].
Dans ce chapitre, nous allons devoir décortiquer la manière dont nous pouvons
mathématiquement déterminer le chemin le plus court parmi une multitude en nous servant des
algorithmes de BELLMAN et de DIJKISTRA. Il sera aussi question de déterminer des
fonctions objectives conduisant à un transfert optimal des trafics entre les nœuds d’un graphe.
Pour mieux comprendre les relations existant entre les phénomènes à étudier, les
chercheurs se servent des graphes. Les graphes donnent une représentation facilement
manipulable des relations entre les phénomènes étudiés. Entre deux ou plusieurs phénomènes
peuvent exister des relations de divers types, notamment spatiales et temporelles. Ces relations
forment ainsi un modèle qui pourra être utilisé pour rechercher la solution la plus optimale selon
un critère précis pouvant être celui lié à la durée, à la quantité à la qualité, au coût, etc. [1].
Un graphe est défini par un doublé (S, R), S étant un ensemble des sommets du graphe
et R désigne un ensemble des relations existant entres les sommets. Un graphe peut être
représenté graphiquement ou par une matrice booléenne correspondante.
5
Nous pouvons ainsi affecter des valeurs numériques aux segments ou branche. Ces
valeurs numériques caractérisent les branches en termes de la distance, du coût, de la quantité,
de la qualité, etc. Il en est de même pour les points. Les points du graphe sont appelés sommets,
chaque segment joignant un point à l’autre est appelé arc dans le cas du graphe orienté, et arrête
dans le cas du graphe non orienté [2].
Nous définissons une application booléenne K : XxX → {0,1} qui, à deux sommets,
associe 1 s’il existe entre ces sommets une arrête les reliant ; 0 dans le cas contraire. Nous
représentons le graphe par un tableau à deux entrées de ces valeurs que nous appelons matrice
booléenne ou matrice d’adjacence. L’adjacence existe entre deux sommets s‘ils sont reliés par
une arrête. Etant dans la notion non orientée, la représentation matricielle du graphe aboutit à
une matrice symétrique [1].
Si les arrêtes sont valuées, tous les 1 de la matrice représentative peuvent être
respectivement remplacés par les valeurs numériques associées aux arrêtes correspondantes. Ce
6
type de représentation n’est pas préférable suite à la taille de la mémoire qu’elle occupe
(mémoire nécessaire= nombre de sommets2) [2]. Le tableau ci-dessous définit la matrice
booléenne associée au graphe représenté par la figure 1.
X1 X2 X3 X4 X5 X6
X1 0 1 1 0 0 1
X2 1 0 1 1 0 0
X3 1 1 0 0 0 1
X4 0 1 0 0 1 1
X5 0 0 0 1 0 1
X6 1 0 1 1 1 0
La question majeure se posant dans l’étude des graphes est celle de savoir comment
partir d’un sommet à un autre en empruntant le chemin qui soit le plus court possible parmi la
multitude des chemins menant vers telle ou telle autre destination. Pour parvenir à résoudre ce
problème plus rapidement, plusieurs algorithmes ont vu le jour, c’est notamment l’algorithme
de Bellman FORD et celui de DIJKSTRA qui sont à ces jours les plus usés.
L’algorithme de BELMAN FORD utilise une simple idée pour calculer le plus court
chemin entre deux sommets. Pour illustrer la manière dont nous procédons pour calculer le plus
court chemin avec cet algorithme, nous allons considérer le graphe à branches valuées
représenté par la figure suivante :
̅̅̅̅
Dij : Coût minimum entre le nœud i et le nœud j.
La première équation définit que le coût minimum d’un nœud connecté à lui-même est
nul. La deuxième équation définit quant à elle que ; pour une paire de nœuds i et j, la
détermination du coût minimum entre deux nœuds distants dépend de la détermination du coût
8
minimum entre le nœud source et le nœud intermédiaire ; aussi du coût direct entre le nœud
intermédiaire k et le nœud de destination j [3].
Notons qu’il peut y avoir plusieurs sommets directement connectés à j (k1, k2, k3,
etc.) ; pratiquement, pour arriver au sommet j, plusieurs nœuds intermédiaires qui ne sont pas
directement connectés à j peuvent être observés. Pour tous ces nœuds, dkj =∞. La deuxième
équation n’admet que le coût minimum entre i et k est préalablement connu.
En tenant compte des autres sommets, la deuxième équation subira une légère
modification ; ̅̅̅̅
Dij sera calculé en fonction de nombres de sauts. Pour parvenir à distinguer
l’équation précédente de celle liée aux nombres de sauts, nous allons utiliser la notation
suivante :
⃐ (h)
Dij : Coût minimum entre le sommet i et le sommet j, en passant par h nombre de
sommets.
⃐ (0)
Dii = 0, pour tout sommet i.
⃐ (0)
Dij = ∞, pout tout i ≠ j.
Pour h = 0 à N-1(N définit le nombre total des sommets) :
⃐ (h+1)
Dii = 0, pour tout sommet i.
Cet algorithme est aussi l’un de plus connus dans le monde informatique, spécialement
en réseaux, permettant de calculer la route la plus courte entre deux ou plusieurs entités. L’idée
de base de l’algorithme de DIJKSTRA est très différente de celle de l’algorithme de
BELLMAN FORD, ou des algorithmes à vecteur de distance. Il se sert des informations des
nœuds qui sont voisins les uns aux autres pour déterminer le meilleur chemin menant à tel ou
tel autre sommet du graphe. L’autre spécialité de DIJKSTRA est qu’il calcule le meilleur
chemin vers tous les nœuds du graphe, contrairement à BELLMAN FORD qui le fait pour une
seule destination.
1. Débuter par le nœud source dans l’ensemble S (S = {1} pour notre illustration) ;
Dij = dij , pour tout sommet j appartenant à l’ensemble F.
Pour un instant donné, il est possible de trouver dans le réseau, les trafics relevant des
sessions des utilisateurs d’un sous-réseau vers un autre uniquement (modélisation simple) ; ou
ceux relevant des sessions entre utilisateurs des plusieurs sous-réseaux, vers ceux des autres
sous-réseaux. La modélisation dont il est question dans ce travail consiste à déterminer les
valeurs optimales de variables pour tous les deux cas possibles.
Considérons le graphe à trois nœuds représenté par la figure 5. Ce graphe indique qu’à
l’entrée du nœud 1 est soumis un trafic quantifié à 5 (valeur de la quantité d’informations issues
11
des utilisateurs) ; 10 représente la valeur totale de la capacité de transmission des liens reliant
les nœuds. Supposons que ces trafics sont destinés aux utilisateurs du sommet 2. Il est très facile
de conclure que le lien direct 1-2 peut bien supporter le transfert de ces trafics, quantifiés à 5
unités d’informations. Ceci reste dans le cas où le volume de la demande est inférieur à la
capacité totale du lien direct 1-2.
Figure 5. Graphe à trois nœuds avec une seule demande entre le nœud 1 et le nœud 2.
Cette illustration définit que tout trafic des utilisateurs ne peut forcément pas atteindre
la destination en passant par un seul lien, qu’il soit le plus court ou non. La limite de la capacité
de transfert du lien devient un déficit pour ce dernier. A travers notre illustration, nous venons
ainsi de supposer implicitement que le coût du lien direct 1-2 est inférieur au coût du lien
secondaire 1-3-2. Toutefois, dans plusieurs réseaux et pratiquement, cette réalité n’est toujours
pas de mise. Si par contre, nous supposons que le coût du lien composite 1-3-2 est de 1 et celui
du lien direct 1-2 est de 3, il sera plus optimal de router les trafics utilisateurs sur le lien
composite et l’excès des trafics sur le lien direct.
sera transféré sur le lien direct 1-2 ; x132 définit la quantité de trafics en excès devant passer par
le lien 1-3-2. Nous pouvons ainsi noter que :
h = x12 + x132
x12 ≥ 0, x132 ≥ 0
x12 ≤ c, x132 ≤ c
Les contraintes de capacité indiquent que le trafic à transférer sur le lien 1-2 ou le lien
1-3-2 doit respectivement être inférieur ou égal à la capacité totale du lien. Les liens simples
composant le lien composite 1-3-2 ont la même capacité, raison pour laquelle cette unique
contrainte régit ce lien. Ces cinq expressions mathématiques nous permettront de construire le
système de base pour la transmission optimale du trafic.
A chaque fois que les trafics utilisateurs arrivent sur tel ou tel autre nœud du graphe,
des informations de routage sont ajoutées. Ainsi, en tenant compte de ces informations, nous
allons noter par : &12 , coût générique lié aux informations de routage sur le tronçon 1-2 et &132 ,
13
le coût générique sur le tronçon 1-3-2. Dans certains cas, ce coût & équivaut à 1 sur les liens
directs [3] ; ainsi, &12 = 1 &132 = 2
L’objectif étant de minimiser le coût total lié à l’acheminement des trafics sans altérer
les informations issues des utilisateurs, les situations suivantes, déterminant une solution
minimale sont ainsi observées :
x12 ≥ 0, x132 ≥ 0
h = x12 + x132
F = &12 x12 + &132 x132
x12 ≤ c, x132 ≤ c
Cette solution est minimale mais ne satisfait pas totalement le transfert optimal des
trafics conformément aux valeurs affectées aux variables tel qu’illustré par la figure 5. La
solution optimale de l’illustration se présente comme suit, pour &12 et &132 ayant
respectivement des valeurs 1 et 2 :
La solution générale est trouvée en substituant l’une des variables de la contrainte de demande
de trafics, par exemple, x123 = h − x12 , la fonction optimale sera ainsi donnée par :
Pour h > c , h ≤ 2c ;
Si &12 < &132, alors x12 = min[ h , c ]
Si &12 > &132, alors x12 = max[ 0 , h − c ] [3].
Dans cette section, nous considérons le transfert de trafics multiple pouvant être fait
de façon réciproque entre différents nœuds du graphe, notamment tous les nœuds. Comme dans
le cas de la modélisation simple de trafics, nous allons faire l’étude en nous basant sur le graphe
à trois nœuds tels qu’indiqué par la figure ci-dessous.
En observant la figure 6, nous constatons que pour toutes les demandes réciproques,
le volume de trafics peut emprunter deux chemins possibles ; l’un étant direct et l’autre
composite à travers les trois nœuds. La figure ci-dessous illustre tous les chemins possibles pour
toutes les demandes possibles entre les nœuds.
La capacité de volume de flux sur chaque chemin est l’inconnue dont il est nécessaire de
déterminer de façon objective. Pour y parvenir, nous allons utiliser les notations suivantes :
x12 : Trafics relevant de la demande entre nœud 1 et 2 et vice versa sur le chemin 1-2 ou 2-1.
x13 : Trafics relevant de la demande entre nœud 1 et 3 et vice versa sur le chemin 1-3 ou 3-1.
x32 : Trafics relevant de la demande entre nœud 3 et 2 et vice versa sur le chemin 3-2 ou 2-3.
c12 : Capacité totale de transfert du lien direct 1-2 et vice versa.
c13 : Capacité totale de transfert du lien direct 1-3 et vice versa.
c32 : Capacité totale de transfert du lien direct 3-2 et vice versa.
h12 : Flux de trafics issus du nœud 1 vers le nœud 2 et vice versa.
h13 : Flux de trafics issus du nœud 1 vers le nœud 3 et vice versa.
h32 : Flux de trafics issus du nœud 3 vers le nœud 2 et vice versa.
Considérant que pour une paire de demande possible, les trafics peuvent prendre deux
chemins possibles. Ainsi, pour toutes les trois paires de demandes possibles du graphe, nous
allons noter les équations suivantes, qui définissent les demandes de trafics :
Ces équations satisfont le volume de trafics demandés : elles doivent aussi satisfaire la
contrainte liée à la limite de la capacité de transfert des liens. En analysant la liste de chemins
possibles entre les paires de demande illustrée par la figure 7, les trafics de toutes les trois paires
de demande possibles peuvent utiliser un chemin direct. C’est ainsi que pour mieux transférer
ces trafics, la contrainte de demande pour chaque paire de demande doit se baser sur le lien
directement concerné. Pour ce faire, nous allons définir les contraintes de capacité suivantes :
Nous allons par la suite considérer le coût total de transfert de trafics en considérant
les coûts partiaux de chaque lien (&). Ce coût total constitue ainsi la fonction objective sur
16
laquelle tirer les conclusions d’optimisation de transfert de trafics pour telles ou telles autres
valeurs des variables impliquées.
Coût total = &12 x12 + &132 x132 + &123 x123 + &23 x23 + &213 x213
Finalement, le problème entier sera formulé de la manière suivante pour toutes les paires de
demandes possibles :
F = &12 x12 + &132 x132 + &123 x123 + &23 x23 + &213 x213
c12 = x12 + x123 + x231
c13 = x13 + x132 + x213
c23 = x23 + x132 + x123
h12 = x12 + x132
h13 = x13 + x123
h32 = x32 + x231
x12 ≥ 0, x132 ≥ 0, x13 ≥ 0, x123 ≥ 0, x23 ≥ 0, x213 ≥ 0
1.4 CONCLUSION.
La forte variabilité des trafics est devenue l’un des problèmes majeurs auxquels
doivent faire face les gestionnaires d’infrastructures réseau [4]. Implémenter un système
dynamique en tenant compte de toute fluctuation des trafics est une stratégie administrative
nécessaire pour éviter la lenteur dans le transfert de trafics.
Internet s’est tellement accru jusqu’à tel point qu’il est devenu un maillage des réseaux
locaux interconnectés par les nœuds ou routeurs. Pour raison de faire l’étude sur le transfert
optimal entre ces réseaux, ce dernier est représenté sous-forme de graphe. C’est ainsi que
plusieurs algorithmes de calcul du chemin fiable appliqué sur le graphe sont aussi applicables
sur internet, c’est notamment l’algorithme de BELLMAN et de DIJKSTRA.
2.1 INTRODUCTION
Le travail que nous présentons dans ce mémoire trouve sa raison d’être dans
l’infrastructure réseau actuelle de la Direction Générale de Douane et accises (DGDA) province
du Katanga. Au niveau national, la DGDA a une infrastructure réseau multi sites dont la gestion
est centralisée à Kinshasa. La branche de la DGDA Katanga est aussi multi sites. Sa gestion
administrative est centralisée dans la ville de Lubumbashi.
Tous les protocoles de ces deux familles sont caractérisés par le temps de convergence,
l’évolutivité, l’utilisation du mécanisme VLSM (Variable Length Subnetiwork Mask), le
déploiement et la maintenance.
Dans un réseau multi sites, chaque routeur maintient les informations sur les réseaux
qu’il interconnecte dans sa table d routage. Il envoi par la suite sa table aux autres routeurs pour
qu’ils prennent possession de ces informations. La communication entre sites devient totale
lorsque tous les routeurs du réseau prennent connaissance des informations de routage issues
des autres routeurs.
2.2.2 EVOLUTIVITE
Cette caractéristique définit l’envergure du réseau pouvant être prise en charge par le
protocole déployé. L’intensité des trafics de routage est directement proportionnelle à
l’envergure du réseau. Ici, la taille du réseau est exprimée en termes de nombre de routeurs.
Tout protocole dont le temps de convergence est long a une évolutivité limitée. Le réseau
évolutif ou le grand réseau nécessite davantage de temps pour propager les informations de
routage [5].
Le protocole RIPv1 est propice dans les infrastructures réseau de moindre envergure.
Il utilise l’algorithme de BELLMAN que nous avons abordé au premier chapitre pour
déterminer la meilleure route. Le protocole RIPv1 limite à 15 le nombre de sauts. L’infinité de
sauts pour ce protocole se situe à 16. Tous trafics destinés au réseau dont le nombre de saut
pour l’atteindre est supérieur à 15 ne seront pas routés.
Les protocoles de routage sans classe incluent le masque de sous-réseau dans leurs
miss à jour. Cette fonctionnalité permet l’utilisation du VLSM (Variable Length Subnetwork
Mask). L’usage de ce mécanisme conduit à la réduction de la grandeur de la table de routage
19
grâce au résumé des routes qui en est possible [6]. Le mécanisme VLSM consiste à découper
le réseau en sous-réseaux. Le résumé de routes consiste à représenter dans la table de routage
tous les sous-réseaux issus d’un réseau par une seule route. Le résumé des routes permet ainsi
de minimiser le temps de calcul du meilleur chemin de transfert.
Les protocoles de routage par classe ne prennent pas en charge le VLSM, par
conséquent, la table de routage est consistante, et le processus de recherche de la meilleure route
prend plus de temps. Le protocole RIP dans sa première version fait partie de protocole de
routage par classe [3].
Sur le plan administratif du réseau, les autres sites de la province du Katanga sont
administrés par le site de Lubumbashi. La connectivité entre le site de Lubumbashi et les autres
sites est faite grâce à l’infrastructure réseau de l’opérateur de téléphonie cellulaire Orange.
A ces jours, la DGDA Katanga connait sur l’ensemble de ces sites un effectif de 527
salariés susceptibles d’utiliser les ressources offertes par le réseau. Ce nombre correspond à
l’effectif des postes de travail repartis sur les douze sites du réseau. Le tableau 2 illustre les sites
de la DGDA Katanga, l’effectif des postes de travail et la bande passante allouée à chaque site.
20
Il existe deux solutions pour récupérer des fichiers au serveur. La première consiste à
les récupérer directement à travers le navigateur web. La deuxième consiste à utiliser un
programme spécifique autre que le navigateur. La première solution est toute simple, mais ne
22
permet que de récupérer les fichiers au serveur en utilisant le protocole http (Hyper Text
Transfert Protocol). Par contre, la deuxième solution offre aussi la possibilité de transférer les
fichiers au serveur pour leur sauvegarde. Comme dit précédemment, la gestion des affaires
douanières de la DGDA est centralisée. Voilà pourquoi la deuxième solution est celle qui est
usée dans l’infrastructure de la DGDA Katanga.
Pour cette solution, les fichiers sont échangés en utilisant le protocole FTP
(FileTransfert Protocol). L’utilisation de FTP permet de transférer des trafics au volume
important. SYDONIA était conçu pour prendre en charge les fichiers FTP, en plus de la
messagerie qui demeure classique.
L’interconnexion des sites de la DGDA Katanga est faite par les routeurs CISCO 2900
et CISCO 1800. Le protocole de routage utilisé est RIPv1 (Routing Information Protocol
version 1). Afin d tirer une conclusion sur ce protocole, une étude est faite dans la suite de ce
chapitre.
aux boucles d’informations de routage qui peuvent occuper toute la bande passante en
ralentissant ainsi le transfert des trafics utilisateurs.
Supposons qu’un lien menant à réseau donné est coupé. Si l’environnement connait
une convergence lente (cas de l’environnement de routage RIPv1), ce changement de la
topologie ne sera pas communiqué aux autres routeurs à temps. Le lancement des mises à jour
étant périodique, lors de leur lancement, les routeurs ne possédant pas encore l’information sur
le changement de la topologie vont propager leurs tables de routage, y compris la route qui est
tombée et qui n’existe plus [6]. Enfin de compte, une boucle de routage va surgir entre le routeur
connectant la liaison tombée et ses voisins directs. La technique de mises à jour déclenchée est
utilisée pour pallier le problème de boucles de routage.
émette la mise à jour régulière au mauvais moment. Ce fait provoquera par la suite la réinsertion
de la route inexistante dans le routeur proche ayant déjà reçu la mise à jour déclenchée.
Tout ceci peut une fois de plus conduire aux boucles de routage supplémentaires aggravant
davantage la situation.
Initialement, chaque routeur ne détient dans sa table de routage que les réseaux qui lui
sont directement connectés. Le nombre de sauts vers un réseau directement connecté est
toujours égal à zéro. En se servant du protocole de routage utilisé, chaque routeur va envoyer
aux autres routeurs du réseau sa table de routage en utilisant l’adresse de diffusion totale
255.255.255.555. La propagation de la table de routage se fait à travers toutes les interfaces du
routeur. Il faut noter que cette communication se fait de proche en proche.
25
Si le réseau connecté au routeur émetteur n’est pas le même que celui de l’interface
par où la mise à jour sera envoyée, le nombre de saut est ajouté de un. A la réception, le routeur
vérifie la table reçue, ajoute les réseaux absents de sa table en associant l’interface par laquelle
la mise à jour est reçue et remplace les routes présentes par les routes identiques issues de ses
voisins.
Le protocole RIPv1 n’est pas favorable à l’intensité des trafics circulant dans le réseau.
Un adressage bien fait selon le besoin en termes du nombre d’utilisateurs concourt à
l’optimisation de transfert des trafics entre utilisateurs. Le protocole de routage déployé n’est
pas capable de prendre en charge l’adressage selon les besoins du réseau.
Les défauts de routage du protocole RIPv1 qui est présentement déployé dans le réseau
de la DGDA Katanga sont si néfastes que nous proposons le remplacer par OSPF (Open
Shortest Path First). L’utilisation du protocole OSPF relève du routage avancé, car ce dernier
sait tenir compte des besoins du réseau. Un routage fait avec c protocole est tellement avancé
et optimal.
2.6 CONCLUSION
Les stratégies de routage à vecteur de distance se basent sur l’algorithme de
BELLMAN FORD conçu au milieu des années cinquante. Cet algorithme abordé au premier
chapitre est à la base du protocole de routage RIPv1 déployé dans le réseau de la DGDA
Katanga. Le protocole de routage est utilisé pour mettre à jour les informations de routage. Le
temps de propagation des informations de routage ou le temps de convergence est directement
lié à la grandeur du réseau ; ou à la longueur du plus grand chemin en son sein.
Dans ce chapitre, nous avons principalement épinglé les déficits que connait le réseau
relevant de notre cas d’étude, suite à l’usage du protocole RIPv1. En termes de coût fonctionnel,
avec le protocole RIPv1, chaque routeur envoi périodiquement les informations de routage à
tous ses voisins, ce qui est très coûteux dans des environnement multi sites. Les mises à jour
régulières après toutes les trente secondes et la convergence lente de RIPv1sont les deux causes
principales de la lenteur de communications dans le réseau de la DGDA Katanga.
La solution optimale pour pallier ce problème doit tenir compte des besoins du réseau.
Ceci demande l’usage d’un adressage hiérarchique et un protocole de routage à état de liaison.
Pour ce faire, notre solution opte pour le remplacement de RIPv1 par le protocole à état de
liaison OSPF (Open Shortest Path First). Le type d’adressage et le protocole relevant de notre
solution seront abordé dans le chapitre suivant.
27
3.1 INTRODUCTION
Le rôle du routeur est de transporter d’une extrémité à l’autre du réseau des paquets IP
provenant d’une fragmentation des messages issus des applications des utilisateurs. L’ensemble
d’informations allant d’un même émetteur vers un même destinataire s’appelle un flot. Chaque
paquet possède des adresses du IP nécessaire pour son acheminement.
L’acheminement des paquets est une cause de la génération des plusieurs paquets
supplémentaires par le routeur. Une grande quantité de ces paquets de routage peut devenir
source de la congestion dans le réseau [4]. Le temps que prend le protocole de routage pour
déterminer la meilleure route dépend fortement de l’espace d’adressage. L’usage du VLSM
(Variable Lenght Subnetwork Mask) est un moyen qui nous permet d’obtenir un espace
d’adressage contigu, selon l’effectif des utilisateurs.
L’acheminement adaptatif des paquets est basé sur le protocole de routage utilisé. Pour
optimiser le transfert des trafics au niveau local, la rapidité et l’efficacité de traitement du
protocole en dépendent fortement. Les caractéristiques d’un protocole déterminent en générale
comment est-ce que ce dernier procède pour constituer la table de routage, et déterminer la
meilleure route de transfert des paquets IP. Le protocole OSPF (Open Shortest Path First) fait
partie des protocoles de routage qui sont largement utilisés aujourd’hui. OSPF est classé dans
la famille des protocoles à état de liaison. Il constitue la table de routage en fonction de l’état
du réseau. L’état du réseau est principalement déterminé par sa bande passante est sa topologie.
Dans ce chapitre, nous allons voir comment user du mécanisme VLSM en fonction de
l’effectif d’hôtes ou des sous-réseaux. Il sera aussi question de donner des détails sur le
fonctionnement du protocole de routage OSPF.
L’adressage IP par classe connait des désavantages majeurs, notamment celui lié à la
non utilisation totale ou presque de l’espace d’adressage. L’adressage par classe ne tient pas
compte des besoins du réseau en termes de nombre d’hôtes ou du réseau. Pour pallier ce
problème, lIETF (Internet Engenineering Task Force) a publié le RFC 4632 (Request For
Comment) en novembre 1996, qui est un document régissant l’utilisation de l’adressage sans
classe. Ce type d’adressage n’utilise pas nécessairement les masques de sous-réseaux par
défauts. Il fait ainsi usage des masques de sous-réseau de longueur variable [4].
y : nombre de bits de la partie réseau, cette partie correspond à 2y , comme espace d’adressage.
x : nombre de bits de la partie machine, cette partie correspond à 2x , comme espace d’adressage.
Comme nous sommes en adressage IPv4, la sommation des bits de ces deux parties doit donner
32 bits (x + y = 32).
h : nombre d’hôtes.
k : nombre d’hôtes en tenant compte des adresses spéciales.
n : nombre de sous-réseaux.
compte, à chaque fois qu’il sera question de segmenter le réseau en fonction de nombre d’hôtes,
nous ajouterons 2 au nombre d’hôtes donné (k = h + 2).
2x ≥ k ou 2x ≥ h + 2
Il faut noter que le VLSM est avantageux par le fait qu’il permet d’éviter le gaspillage
des adresses IP. Pour ce faire, x ou y doivent être entiers. En cas d’une solution avec virgule
(solution irréelle), nous considérons la partie entière ajoutée de 1. Connaissant y, nous pouvons
facilement trouver x par l’équation x = 32 − y, de même y = 32 − x connaissant y.
résultat nous indique le nombre des bits de l’host id pour le sous-réseau de 9 machines. Le
comptage de ces quatre bits se fait de droite à gauche à partir du dernier bit du dernier octet. La
partie net id sera ainsi 32 − 4 = 28 bits. Ces 28 bits correspondent à 255.255.255.240.
30
A la limite du net id principal (25 bits de gauche à droit à partir du premier octet) et
celle de l’host id des nouveaux sous-réseau (4 bits de droit à gauche à partir du dernier octet),
se trouve trois bits. Ces trois bits désignent le nombre de sous-réseaux (23 = 8) pouvant tous
adresser jusqu’à 24 − 2 = 14 machines. Pour passer à un autre sous-réseau, il faut ajouter 2x
au dernier octet de l’adresse principale, en conservant le nouveau masque de sous-réseau. Ainsi,
les trois premiers sous-réseau auront les adresses IP suivantes : 192.168.50.100 /28,
192.168.50.116 /28 et 192.168.50.132 /28. Le sous-réseau de 9 machines peut ainsi être adressé
dans n’importe quel sous-réseau de la liste d’adresses ci-dessus. Les autres sous-réseaux sont
réservés pour les prochains besoins d’adressage.
log 5
Pour le sous-réseau de 3 hôtes : k = 3 + 2 = 5, x ≥ log 2 = 3. Le VLSM nous permet
de faire une hiérarchie des adresses en créant des sous-réseaux dans des sous-réseaux. Vu le
nombre d’hôtes du présent sous-réseau, et de ceux précédemment trouvés et réservés ; ce sous-
réseau peut ainsi être adressé dans l’un quelconque sous-réseau. Son masque de sous-réseau
aura 32 − 3 = 29 bits ou 255.255.255.248. En considérant l’adresse 192.168.50.116 /28, nous
n’aurons que deux sous-réseaux qui vont adresser 23 − 2 = 6 hôtes chacun. Ces sous-réseaux
auront des adresses suivantes :192.168.50.116 /29 et 192.168.50.124 /29. À partir de l’adresse
principale, nous aurons une hiérarchie se présentant comme suit :
192.168.50.100 /28
192.168.50.116 /29
192.168.50.100/25 192.168.50.116 /28 {192.168.50.124 /29}
{ … … }
L’interconnexion des réseaux est faite par des nœuds ou des routeurs à travers les liens
ou les interfaces. Les trafics réseau partent du nœud d’origine vers le nœud de destination. Pour
que les trafics circulant dans le réseau atteignent leur destination, les routeurs indiquent le
chemin que doivent prendre ces trafics. Pour y parvenir, chaque routeur maintient sa table de
routage à travers laquelle toute décision d’acheminement des trafics est prise.
Les trafics utilisateurs sont générés par des terminaux qui peuvent être des machines,
et sont destinés aux autres terminaux du réseau. Les trafics réseaux ne sont pas générés à la
couche inter réseau, et ne s’arrête pas sur cette couche. Seules les informations de routage sont
générées et échangées uniquement à la couche inter réseau. Nous allons ainsi présentement
parler du contenu de la table de routage.
La route de premier niveau est celle dont le masque de sous-réseau est inférieur ou
égal au masque par défaut de sa classe. Rappelons-nous que la classe de l’adresse IP est
déterminée en observant les premiers bits du premier octet.
Une route de niveau 1 peut être une route par défaut, dans ce cas elle est définie par
l’adresse 0.0.0.0 /0.0.0.0. Une route de niveau 1 peut aussi être agrégée. Dans ce cas, l’adresse
IP de la route a un masque de sous-réseau inférieur au masque de sous-réseau par défaut de la
classe. Une route de niveau 1 peut enfin être une route de réseau. Dans ce dernier cas, l’adresse
IP de la route a un masque de sous-réseau égal au masque par défaut de sa classe.
de niveau 2 ». La figure suivante illustre la représentation des types des routes dans la table de
routage.
La route parent de niveau 1 est créer automatiquement à chaque fois que nous ajoutons
dans la table de routage un réseau qui a un masque de sous-réseau supérieur au masque par
défaut de la classe. Dans le cas où les routes enfants de niveau ont tous le même masque de
sous-réseau, ce masque de sous réseau apparait uniquement au niveau de la route parent qui est
toujours de premier niveau.
Lorsque les routes enfants ne partagent pas le même masque de sous-réseau, chacune
apparait avec son propre masque de sous-réseau. La route parent prend le masque de sous-
réseau correspondant au premier octet selon la classe. La figure suivante présente la structure
de la table de routage et la spécification de ses contenus.
Le masque de sous-réseau indique le nombre minimum de bits les plus à gauche qui
doivent correspondre. L’adresse de destination du paquet appartient à un hôte et définit le
nombre maximum des bits qui doivent correspondre. Au niveau de la couche inter réseau, le
routeur ne traite qu’en fonction de nombre des bits minimum.
Le routage des paquets dans les réseaux se comporte de deux manières : le routage
sans classe implémentant l’adressage sans classe et le routage par classe qui implémente
l’adressage par classe. La manière dont le routage se comporte est utilisée pour rechercher les
informations dans la table de routage. Un routeur ne peut utiliser qu’un seul comportement à la
fois.
OSPF est l’un des protocoles de routage à état de liaison. Il est défini dans la RFC
2328 et utilise l’algorithme SPF (Shortest Path Firt) de DIJKSTRA que nous avons abordé au
premier chapitre. Comme nous l’avons indiqué précédemment, les protocoles de routage
divulguent les informations du réseau pour permettre aux routeurs d’apprendre des chemins
menant à une destination donnée. Dans le routage des paquets, plusieurs routes peuvent mener
à une même destination. De tous ces chemins, le meilleur sera sélectionné en fonction de la
métrique. Cette métrique définit le coût du chemin.
35
Le réseau point à point est une liaison série qui relie une paire de routeurs. Deux routeurs
voisins connectés par un réseau point à point deviennent nécessairement adjacents. Dans
ce type de réseau, l’adresse multicast 224.0.0.5 fait office d’adresse de destination. Elle
signifie tous les routeurs OSPF, (AllSPFRouters).
Les réseaux sans difusion ne connaissent pas la diffusion (no-broadcast network). Dans
ce cas, le protocole OSPF peut prendre deux comportements distincts : le mode NBMA
(No-Broadcast Multi Access) et le mode point à multipoint.
Les réseau NBMA sont capables de relier plus de deux routeurs sans pour autant
disposer de la capacité de diffusion. C’est encore le protocole OSPF Hello qui est utilisé
afin de maintenir les relations de voisinage mais puisqu’il faut se passer de la possibilité
de diffuser un message, la découverte des voisins ne peut se faire qu’au prix d’une
configuration supplémentaire. Ces réseaux peuvent fonctionner vis-à-vis d’OSPF
comme le font les réseaux à diffusion, c’est à dire en procédant à l’élection d’un routeur
36
désigné ainsi qu’à l’élection d’un routeur désigné de secours. Une différence cependant
au niveau des adresses de destination : le multicast n’étant plus supporté, l’ensemble
des paquets OSPF est émis vers des adresses unicast.
Le mode point à multipoint est un réseau sans diffusion ayant fait l’objet d’une
configuration particulière dont il résulte un comportement identique à celui d’une
collection de réseaux point à point. Les paquets OSPF peuvent être émis vers l’adresse
multicast 224.0.0.5.
communication bidirectionnelle est garantie. Les contenus du message hello sont illustrés par
la figure suivante qui représente son format.
A l’issu de cette opération entre tous les routeurs, chaque routeur aura la topologie
exacte et complète du réseau, y compris les informations sur tous les liens actifs du réseau. Il
faut noter que dans certains réseaux, le volume de trafics généré par ce processus risque d’être
important. Il est tellement nécessaire que ce volume soit faible. Avec le protocole OSPF, plus
le nombre des routeurs est grand, plus le nombre des paquets hellos et d’annonce des DBD est
aussi important. Cette augmentation peut ainsi être nuisible à la transmission des informations
des utilisateurs.
Pour limiter cette charge, OSPF offre deux solutions. La première consiste à élire
parmi les routeurs un routeur désigné et un routeur désigné de secours. Cette élection est faite
par tous les routeurs du réseau entier. Le routeur désigné se charge de collecter les informations
de routage issues de tous les autres routeurs pour les disséminer par la suite.
Pour s’assurer que le protocole est aussi efficace dans les petits réseaux que dans les
grands réseaux, la deuxième solution consiste à découper le réseau en plusieurs petits sous-
réseaux. Les petits réseaux issus du découpage sont appelés des aires (areas). La composition
des aires OSPF est déterminée par l’administrateur du réseau. Une fois divisé le réseau de cette
manière, l’exécution de OSPF se fait indépendamment dans chaque zone [3]. Ces deux
solutions seront détaillées dans la suite de ce chapitre.
possession des informations sur la bande passante de toutes les interfaces actives du réseau.
Rappelons-nous que dans une architecture réseau, plusieurs chemins peuvent mener tous à une
seule destination. La métrique est l’élément qui permet au routeur de sélectionner le meilleur
chemin à injecter dans la table de routage. La métrique la plus faible définit la meilleure route.
BP symbolise la bande passante de l’interface qui est exprimée en bps (bits par
seconde). Cette équation est appliquée à toutes les interfaces de sortie selon leur bande passante
respectives. De cette équation nous tirons la conclusion que le coût OSPF est inversement
proportionnel à la bande passante. C’est ainsi que l’interface ou le lien ayant le coût le plus
faible (bande passante élevée) sera privilégiée pour transférer les flux d’informations.
Cette équation ne prend pas en charge normalement les interfaces dont le débit est de
l’ordre de 1 Gbit/s révolu car 10 au numérateur est élevé à la puissance 8. Les concepteurs
premiers de OSPF n’avaient pas imaginé que qu’une interface pouvait à la longue atteindre un
débit de 1 Gbit/s ou plus. Rasons pour laquelle 10 est élevé à la puissance 8. L’administrateur
a la possibilité de changer cette référence pour que les interfaces gigabits soient correctement
prises en charge.
Il est très important de noter que la bande passante dont il est question ici, n’influe pas
sur la bande passante réelle de l’interface physique. Celle-ci est uniquement utilisée pour
remplir la table de routage. Les IOS (Internet Operating System) utilisent des bandes passantes
40
par défaut qui sont souvent très loin de la réalité. Pour avoir des tables de routage cohérente,
les administrateurs réseau ont la possibilité de modifier la bande passante par défaut en une
valeur conforme à la valeur réelle de l’interface physique.
Pour sélectionner le routeur désigné et le routeur désigné de secours, tous les routeurs
du réseau appliquent le critère suivant :
Est élu routeurs désigné, le routeur dont la priorité d’interface OSPF est élevée.
41
Est élu routeur désigné de secours, le routeur dont la priorité d’interface OSPF est la
deuxième valeur la plus élevée.
Si la priorité d’interface OSPF est identique pour tous les routeurs, sera choisi DR, le
routeur dont l’identifiant est le plus élevé.
Le protocole OSPF privilégie les interface Loop back pour définir l’identifiant du
routeur. Si plusieurs interfaces loop back sont disponibles, l’identifiant du routeur sera l’adresse
IP la plus élevée parmi les adresses des interfaces virtuelles existantes. Notons que l’identifiant
d’un routeur n’a rien à avoir avec l’adressage du réseau.
Chaque domaine principal doit obligatoirement avoir une zone principale. Cette zone
est appelée « dorsale principale ou backbone area ». Toutes les zones OSPF sont identifiables
par un numéro codé sur 32 bits. La dorsale principale est toujours identifiée par le numéro 0
(area 0). La hiérarchie OSPF est faite en fonction de la dorsale principale qui représente le
niveau le plus élevé. Les autres zones qui doivent obligatoirement être connectées
physiquement à la dorsale principale forment le niveau inférieur. Dans le cas où la zone n’est
pas physiquement connectée à la dorsale principale, la liaison virtuelle (Virtual link) est utilisée
pour assurer l’interconnexion des zones. La zone intermédiaire est appelée « zone de transit ».
La zone principale a la charge de résumer la topologie d’une zone pour une autre [3]. La figure
18 représente la hiérarchie des zones du réseau OSPF.
Routeurs IR (Internal Router). Les routeurs internes sont ceux qui appartiennent aux
zones de niveau inférieur. Leurs interfaces sont uniquement connectées aux autres interfaces
des routeurs internes de la même zone.
Routeurs ASBR (Autonomous System Boundary Router). Ce type des routeurs peut
se trouver dans n’importe quelle zone OSPF. Ils ont le rôle de redistribuer les routes issues des
autres systèmes autonomes (des routes calculées par d’autres protocoles de routage).
Les routeurs BR (Backbone Router). Ce type de routeurs OSPF indique les routeurs
localisés dans la dorsale principale. Ainsi, un routeur ABR est aussi BR. La figure suivante
illustres tous ces concepts.
premièrement les informations de topologie. Il le fait sous forme de LSA traduisibles par
annonces d’états de liens ou avis d’états de liens. Chaque routeur dans le système autonome
génère un ou plusieurs LSA. Chaque routeur transmet ses LSA à tous ses proches. Chaque
routeur qui reçoit un LSA de l’un de ses proches le transmet aux autres proches dans un
processus d’inondation. L’ensemble des LSA générés et collectés par un routeur constitue la
base de données d’états de liens, c’est à dire la LSD (Link State Database). Le RFC 2328 connait
cinq types des LSA. Le LSA de type 1 et 2 décrivent les états de lien des interfaces du routeur.
Les LSA de type 3, 4 et 5 sont des annonces sur le routes du réseau [10].
LSA 1 (Router LSA). Ce type de LSA est généré par tout routeur du réseau. Le routeur
se sert des LSA 1 pour informer aux autres routeurs sur l’état de ses interfaces, leurs adresses
IP et métrique respective. Le format du paquet LSA 1 est représenté par la figure suivante.
LSA 2 (Network LSA). Ce type de LSA est généré uniquement par le routeur désigné.
Le DR se sert des messages LSA de type 2 pour indiquer aux autres routeurs le rôle de DR qu’il
joue dans le réseau. Le LSA 2 indique aussi l’adjacence entre le DR et les autres routeurs. La
figure 21 indique le format des LSA 2.
LSA 3 (Summary LSA). Ce type de LSA est généré uniquement par les routeurs de
bordure (ABR). Il est le résumé du message LSA de type 1. Il annonce aux routeurs un réseau
IP d’une autre zone et est diffusé dans toutes les zones du réseau entier. L’ABR se sert du LSA
3 pour informer aux autres routeurs qu’il est le passage obligé pour atteindre tel réseau
appartenant à une autre zone. Son format est représenté par la figure 23.
44
LSA 4 (ASBR Summary LSA). Ce type de messages LSA existe dans le réseau
lorsqu’il est fait des plusieurs systèmes autonomes ; ou lorsque plusieurs protocoles de routage
sont déployés dans le réseau. Comme le message LSA de type 5 est uniquement généré par les
ASBR, les routeurs ABR le résument dans un LSA de type 4. Ce nouveau message informe aux
autres routeurs qu’il existe un autre système autonome, et par conséquent un ASBR dont il faut
joindre en passant par l’ABR de la zone. Le format du paquet LSA de type 4 est identique à
celui de type 3. Il est représenté par la figure 23.
Les routes externes de niveau 1 (O E1) se diffèrent des routes externes de niveau 2 (O
E2) par la manière dont leur coût respectif est calculé. Le coût d’une route O E2 demeure
externe (coût annoncé par l’ASBR). Il est calculé indépendamment du coût interne pour
atteindre le réseau de destination. La mesure de la route externe de niveau 1 est la somme du
coût interne et du coût externe annoncé par l’ASBR.
Dans un réseau à zone unique, OSPF se base uniquement à la somme des coûts partiaux
des interfaces pour sélectionner la meilleure route. Le chemin à coût faible sera directement
46
sélectionné pour être considérer dans la table de routage. Dans le cas d’un réseau multizones,
OSPF applique un critère pour injecter une route dans la table de routage. L’ordre de sélection
commence par les routes internes. Si aucune meilleure route n’est trouvée parmi les routes
internes, OSPF cherche parmi les routes interzones. Si aucune route n’est pas trouvée parmi ces
routes, le protocole finit en cherchant parmi les routes externes. Quel que soit la valeur de la
métrique, OSPF ajoute une route dans la table de routage selon l’ordre décrit ci-haut [10].
3.1 CONCLUSION
Les congestions vécues dans des réseaux sont souvent liées à la mauvaise stratégie
d’adressage et au choix du protocole de routage. La taille de la table de routage a un grand
impact sur le fonctionnement du routeur. Cette taille est fortement liée à l’espace d’adressage.
Une table de routage consistante demande plus des ressources au processeur. L’efficacité d’un
routage dépend du temps qu’il met pour parvenir à déterminer la meilleure route. Une longue
durée occasionne toujours des congestions dans le réseau. L’usage du mécanisme VLSM
permet d’avoir un adressage contigu qui soit conforme à l’effectif des usagers du réseau.
Plusieurs protocoles de routage sont utilisés pour acheminer les paquets IP. Ce chapitre
a traité sur le protocole OSPF standardisé et défini dans le RFC 2328. OSPF achemine les
paquets en fonction de l’état du réseau. Ce concept fait référence à la topologie et à la bande
passante des interfaces du réseau. OSPF est mieux adapté dans les petits comme dans les grands
réseaux.
Ce chapitre nous a permis d’avoir des connaissances avancées sur le protocole OSPF
et sur les mécanismes relevant du routage avancé. Les concepts abordés dans ce chapitre nous
ont permis de comprendre les procédés d’optimisation de transfert des trafics avec le protocole
OSPF. Dans le chapitre suivant, nous allons pratiquement configurer le protocole OSPF en
fonction des données collectées à la Direction des Douanes et Accises (DGDA) Katanga.
47
4.1 INTRODUCTION
Après avoir acquis des connaissances sur les mécanismes du routage avancé, ce
quatrième chapitre nous servira de cadre pour illustrer les configurations du protocole OSPF
par rapport aux données collectées à la DGDA Katanga. La solution optimale relevant du
routage avancé que nous prônons dans ce travail, est totalement dépendante des besoins de
l’entreprise. Ces besoins sont exprimés en termes de nombre des usagers actifs du réseau, mais
aussi en termes de la bande passante disponible.
La configuration du routage avancé passe par plusieurs étapes. Pour que le routage
avancé tienne compte des ressources du réseau, le concepteur ou l’administrateur doit devoir
prendre connaissance de ces ressources en premier, avant d’entreprendre toute autre opération.
Le diagramme représenté par la figure suivante illustre l’ensemble d’opérations à réaliser.
renseigne sur l’effectif des usagers correspondant à chaque site, et la bande passante disponible
sur chacun de ces sites.
Vu le nombre de sites, les liaisons point à point entre les routeurs et l’effectifs des
utilisateurs ; nous sommes retrouvés avec 26 sous-réseaux différents, qui apparaissent avec 5
masques de sous-réseaux différents. Ces propos sont palpables en visualisant la table de routage
du routeur nommé RT_TFM que représente la figure suivante :
49
Cette topologie est faite de trois zones interconnectées par un seul ABR que nous avons
nommé RT_BB. Un seul routeur ASBR nommé RT_Kap est utilisé pour redistribuer les routes
provenant d’un autre système autonome. La présence de cet ASPBR est justifiée par le fait que
ce travail affecte uniquement la DGDA Katanga ; le reste du réseau national n’est pas concerné
et garde toujours le protocole RIPv1.
ci-après illustre la table de routeur du routeur RT_Sakania qui reçoit 18 routes externes de la
part du routeur RT_BB.
Selon le plan d’adressage que nous avons fait, toutes les adresses de la zones 0 seront
résumées par l’adresse 172.168.0.0 /23, les adresses de la zones 100 par 172.168.2.0 /23 et
celles de la zone 200 serons résumées par 172.168.4.0 /23 En utilisant la commande « area
Id_area range adresse_Ip masque_de_sous-réseau » sur RT_BB, la table de routage de
RT_TFM n’aura que deux routes externes au lieu de dix-huit routes préalablement. Ceci permet
52
RT_BB
Nous avons encore vu qu’il existe deux type de routes OSPF calculées par un autre
protocole de routage. Pour notre cas, nous avons opté pour la route externe de niveau 2 (O E2).
Nous avons choisi de considérer le coût externe de 50. Remarquons la route externe dans la
table de routage de RT_Sakania, illustrée par la figure 25, avec le coût de 50 que nous lui avons
affecté. La commande à utiliser dans le mode configuration du protocole OSPF est la suivante :
redistribute rip metric 200 metric-type 2. La configuration complète du routeur RT_Kap est la
suivante :
RT_Kap
RT_EP_Ville
network 172.168.4.64 0.0.0.63 area 200 network 172.168.4.192 0.0.0.3 area 200
network 172.168.4.204 0.0.0.3 area 200 network 172.168.4.200 0.0.0.3 area 200
network 172.168.4.160 0.0.0.31 area 200
5.3 CONCLUSION
Les multiples concepts du protocole OSPF multi zones demandent l’utilisation des
configurations variées selon le concept. Ce dernier chapitre nous a servi de cadre pour user des
mécanismes relevant du routage avancé en fonction des besoins du réseau informatique de la
Direction Générale des Douanes et Accises Katanga. Ces besoins ont étés collectés, et sont
exprimés en termes du débit disponible sur chaque site et de l’effectif des utilisateurs actifs
affectés sur chacun de ces sites de l’entreprise.
58
CONCLUSION GENERALE.
Les réseaux de communication constituant des entreprises multi sites doivent faire face
à l’afflux grandissant de nouveaux utilisateurs. Les services proposés continuent à se
développer et nécessitent de plus en plus de bande passante et de qualité de services. La capacité
de transport de données offertes par le réseau actuel de la DGDA, les administrateurs doivent
procéder à l’optimisation de leurs ressources existantes pour faire face à la demande qui est
croissante. Nous avons proposé dans ce mémoire deux procédés qui permettent d’optimiser le
transfert des trafics utilisateurs.
Le premier procédé consiste à faire le choix sur le protocole de routage qui puisse tenir
compte de l’état du réseau et qui accorde un temps de convergence rapide. Pour ce faire, nous
avons porté notre choix sur le protocole OSPF (Open Shortest Path First) configuré en multi
zones. Le deuxième procédé consiste à utiliser le mécanisme d’adressage contigu avec le VLSM
(Variable Length Subnetwork Mask), car ce mécanisme permet d’avoir un espace d’adressage
moindre et conforme au nombre d’utilisateurs. Cette possibilité nous permet aussi d’obtenir des
tables de routage de taille faible, d’éviter des congestions liées à la file d’attente des paquets
issus des utilisateurs ou celles liées à la multiplicité des informations de routage. L’utilisation
du VLSM nous aide ainsi à diminuer le temps de calcul du chemin de transfert des données.
L’acheminement des volumes des flux divers exigent une bande passante considérable,
et une stratégie de routage basé sur l’état de branche d’acheminement (état de lien). La sélection
du chemin en fonction de la bande passante des liens relève d’une stratégie de routage avancé.
Ce routage avancé tient compte de l’adéquation entre la bande passante physique de l’interface
du routeur et la bande passante logique que le système d’exploitation internet (IOS) utilise pour
déterminer le meilleur chemin.
Nous espérons que ce mémoire sera une référence pour les concepteurs réseaux en ce
qui concerne l’optimisation de transfert des trafics. Nous laissons ainsi une porte ouverte à tout
scientifique avisé par ce travail de pouvoir y apporte un plus en toute objectivité scientifique.
59
BLIOGRAPHIE
[3] K. Ramasamy, Network routing algorithms, protocols and architectures, New york,
2007.
DEDICACE. ................................................................................................................................I
AVANT-PROPOS. .................................................................................................................... II
LISTE DES FIGURES ............................................................................................................. III
LISTE DES EQUATIONS .......................................................................................................IV
LISTE DES TABLEAUX ......................................................................................................... V
INTRODUCTION GENERALE ................................................................................................ 1
CHAPITRE 1 : THEORIE DES GRAPHES ET MODELISATION DES TRAFICS. .... 4
1.1 INTRODUCTION. ............................................................................................... 4
1.2 LA THEORIE DE GRAPHE ................................................................................ 4
1.2.1 REPRESENTATION DU GRAPHE ............................................................ 4
1.2.1. REPRESENTATION GRAPHIQUE .......................................................... 5
1.2.1.1 REPRESENTATION MATRICIELLE. .................................................... 5
1.2.2 CALCUL DU CHEMIN LE PLUS COURT. ............................................... 6
1.2.2.1 ALGORITHME DE BELMAN ................................................................. 6
1.2.2.2 ALGORITHME DE DIJKSTRA ............................................................... 8
1.3 MODELISATION DES TRAFICS. ................................................................... 10
1.3.1 SIMPLE MODELISATION DE TRAFICS. ............................................... 10
1.3.1.1 DESCRIPTION FORMELLE ET COUT MINIMAL DE TRANSFERT
DE TRAFICS. ............................................................................................................... 11
1.3.2 MODELISATION A SOURCES ET DESTINATION MULTIPLES. ...... 14
1.4 CONCLUSION. ................................................................................................. 16
CHAPITRE 2 : ETUDE CRITIQUE DU ROUTAGE EXISTANT ............................... 17
2.1 INTRODUCTION .............................................................................................. 17
2.2 CARACTERISTIQUES DES PROTOCOLES DE ROUTAGE ........................ 17
2.2.1 TEMPS DE CONVERGENCE ................................................................... 18
2.2.2 EVOLUTIVITE .......................................................................................... 18
2.2.3 PROTOCOLE DE ROUTAGE PAR CLASSE OU SANS CLASSE ........ 18
2.2.4 DEPLOIEMENT ET MAINTENANCE ..................................................... 19
2.3 PRESENTATION DU RESEAU DE LA DGDA KATANGA .......................... 19
2.3.1 ENVIRONNEMENT UTILISATEUR ....................................................... 20
2.3.2 ENVIRONNEMENT SERVEUR ............................................................... 21
2.3.3 TYPE DE FICHIERS ECHANGES DANS LE RESEAU ......................... 21
61