Vous êtes sur la page 1sur 383

Objectifs 

:
À la fin de cette section, les stagiaires seront en mesure de :
Expliquer ce qui constitue un réseau entreprise
Décrivez les types d'architecture du réseau commun entreprise
Décrit certaines des solutions mises en œuvre dans le cadre d'un réseau d'entreprise
Soutenir les opérations commerciales.
Le réseau d'entreprise représente à l'origine l'interconnexion des systèmes appartenant à un
groupe ou organisation fonctionnel donné pour permettre principalement partage de ressources
telles que les imprimantes et serveurs de fichiers, support de communication à travers des
moyens tels que le courrier électronique, et l'évolution vers des applications qui permettre la
collaboration entre les utilisateurs. Les réseaux d'entreprise se trouvent aujourd'hui présent
dans diverses industries, des environnements de bureau à une plus grande énergie, les
industries financières et gouvernementales, qui comptent souvent de l'entreprise réseaux qui
couvrent plusieurs sites physiques.
L'introduction d'Internet comme domaine de réseau public autorisé pour un extension du
réseau d'entreprise existant, à travers laquelle réseaux géographiquement dispersés
appartenant à une seule organisation ou entité pourrait être connecté, apportant avec lui un
ensemble de nouveaux défis pour établir l'inter connectivité entre les réseaux d'entreprise
géographiquement dispersés, tandis que le maintien de la vie privée et de la sécurité des
données appartenant à un individu entreprise.
Différents défis ont une incidence sur les industries d'aujourd'hui en fournissant des solutions
pour établissement d'inter connectivité entre les emplacements éloignés, qui prennent souvent
la forme de succursale régionale et les sièges sociaux, ainsi que les employés qui représentent
une entité non fixe dans le réseau de l'entreprise, souvent présente dans des endroits situés au-
delà des limites conventionnelles de l'entreprise existante.
Les défis pour les industries ont créé une demande de réseaux omniprésents qui permettre au
réseau de l'entreprise d'être disponible à partir de n'importe quel endroit et à tout moment,
pour assurer l'accès aux ressources et aux outils qui permettent la livraison efficace de le soutien
et les services aux partenaires et aux clients de l'industrie.
L'évolution des solutions d'entreprise a permis à des IP publiques et tierces des réseaux pour
fournir une connectivité n'importe où en tout temps, ainsi que développement de technologies
qui établissent des connexions réseau privées cette infrastructure de réseau public, pour étendre
les capacités distantes de la réseau d'entreprise au-delà des limites physiques de l'entreprise,
permettant bureau à distance et utilisateurs pour établir un domaine d'entreprise unique qui
s'étend sur une grande étendue géographique.
Les solutions d'architecture de réseau d'entreprise varient considérablement en fonction
d’exigence de l'industrie et de l'organisation. Les plus petites entreprises peuvent souvent avoir
une exigence très limitée en termes de complexité et la demande, en optant pour implémenter
une plateforme de réseau, principalement en raison de la taille de l'organisation qui est souvent
restreinte à un lieu géographique unique ou dans quelques sites, en soutenant l'accès aux
ressources communes, tout en permettant la flexibilité au sein de l'organisation pour supporter
un plus petit nombre d'utilisateurs. Le coû t de mise en œuvre et de maintenance de ces réseaux
est considérablement réduit, cependant, le réseau est souvent susceptible d'une défaillance en
raison du manque de redondance, et les performances peuvent varier en fonction des opérations
quotidiennes et de la demande du réseau.
Les réseaux d'entreprise plus importants implémentent des solutions pour assurer un réseau
minimal l'échec, l'accès contrô lé et la fourniture d'une variété de services pour opérations
quotidiennes de l'organisation. Une architecture multicouche est définie pour optimiser les flux
de trafic, appliquer des politiques de gestion du trafic et l'accès contrô lé aux ressources, ainsi
que la disponibilité du réseau et fonctionnement stable grâ ce à une redondance efficace du
réseau. Le désign multicouches permet également une expansion facile, et avec une conception
modulaire qui prévoit une isolation et une maintenance efficaces si des problèmes le réseau se
produit, sans affecter l'ensemble du réseau.
Résumé
1. Quelles sont les différences générales entre petites et moyennes entreprises ?
2. Quelles sont certaines des considérations fondamentales de conception qui doivent être prises
en compte pour le réseau d'entreprise de petite et moyenne taille ?
Avant-propos
L'établissement d'un réseau d'entreprise requiert une compréhension fondamentale des
concepts de réseautage. Ces concepts comprennent la connaissance de ce qui définit un réseau,
comme ainsi que les normes générales de la technologie et des composants physiques utilisés
pour établir des réseaux d'entreprises. Une compréhension des communications réseau sous-
jacentes et l'impact qu'un tel comportement a sur le réseau est également primordial pour
assurer exécution efficace.
 Objectifs
Une fois cette section terminée, vous pourrez :
Expliquer ce qui constitue un réseau.
Identifier les composants de base d'un réseau.
Décrire les principaux mécanismes pour la communication sur un réseau.
Un réseau peut être considéré comme la capacité de deux ou plusieurs entités à communiquer
sur un support donné. Le développement de tout réseau repose sur ce même principe pour
l'établissement de la communication. Généralement les entités dans un réseau qui est
responsable de la transmission et de la réception de la communication est connue sous le nom
de stations finales, alors que les moyens par lesquels la communication est activée sont les
media. Dans un réseau d'entreprise, le moyen existe sous diverses formes à partir d'un système
physique câ ble aux ondes radio.
Le câ ble coaxial représente un moyen de transmission plus historique qui peut aujourd'hui être
limité dans l'utilisation dans le réseau de l'entreprise. En tant que transmission moyenne, le
câ ble coaxial comprend généralement deux normes, le 10Base2 et 10Base5, appelés Thinnet ou
Thinwire, et Thicknet ou Thickwire respectivement.
Les normes supportent une capacité de transmission de 10Mbps transmise comme signaux de
bande de base pour des distances respectives de 185 et 500 mètres. À aujourd'hui réseaux
d'entreprise, la capacité de transmission est extrêmement limitée à toute application
significative. Le connecteur Bayonet Neill-Concelman (BNC) est la forme commune de
connecteur utilisée pour les câ bles coaxiaux 10Base2 minces, tandis qu'un le connecteur de type
N a été appliqué au support de transmission 10Base5 plus épais
Le câ blage Ethernet est devenu la norme pour de nombreux réseaux d'entreprise fournissant un
support de transmission qui supporte une transmission beaucoup plus élevée capacité. Le
support supporte une paire de quatre fils de cuivre contenue dans une gaine qui peut ou non
être protégée contre les dispositifs électriques externes Interférence. La capacité de
transmission est déterminée principalement en fonction de la Catégorie de câ ble avec catégorie
5 (CAT5) prenant en charge Fast Ethernet capacité de transmission de jusqu'à 100Mbps, tandis
qu'un Gigabit Ethernet plus élevé la capacité de transmission est supportée par la catégorie 5
étendue (CAT5e) normes et plus élevé.
La transmission sur Ethernet en tant que média physique est également susceptible
d’atténuation, ce qui réduit la portée de transmission à 100 mètres. Le connecteur RJ-45 est
utilisé pour fournir une connectivité avec un câ blage de paire de fil exigeant commande
spécifique des broches dans le connecteur RJ-45, pour assurer une bonne correction
transmission et réception par stations finales sur le support de transmission.
Le média optique utilise la lumière comme moyen de transmission du signal par opposition à
signaux électriques trouvés à la fois dans Ethernet et les types de supports coaxiaux. Le support
de fibre optique prend en charge une gamme de normes de 10Mbps, 100Mbps, 1Gbps et 10Gbps
(10GBASE) de transmission. Fibre mono ou multi-mode définit l'utilisation d'un support de
transmission optique pour la propagation de la lumière, où mode unique se réfère à un seul
mode de transmission optique étant propagé, et est utilisé couramment pour la transmission à
grande vitesse sur de longues distances.
Le multi mode supporte la propagation de multiples modes de transmission optique qui sont
sensibles à l'atténuation en raison de la dispersion de la lumière le long de la moyen optique, et
n'est donc pas capable de supporter la transmission sur distances plus longues. Ce mode est
souvent appliqué aux réseaux locaux englobent une gamme de transmission beaucoup plus
petite. Il existe un vaste nombre de normes de connecteurs de fibres avec certaines des formes
les plus courantes étant reconnu comme le connecteur ST, le connecteur LC et le SC, ou le snap
connecteur.
Serial représente une norme développée initialement il y a plus de 50 ans pour soutenir
transmission fiable entre appareils, au cours de laquelle de nombreuses évolutions de la norme a
eu lieu. La connexion série est conçue pour supporter la transmission de données en tant que
flux série de bits. La norme commune implémenté est appelée (norme recommandée) RS-232
mais il est limité par la distance et la vitesse.
Normes RS-232 originales définissez que les vitesses de communication soutenues ne sont pas
supérieures à 20 Kbps, sur une longueur de câ ble de 50 pieds (15 mètres), mais les vitesses de
transmission pour laquelle Il est probable que la série soit inférieure à 115 Kbps. Le
comportement général de la série signifie que, à mesure que la longueur du câ ble augmente, le
débit binaire pris en charge diminuer, avec une approximation qu'un câ ble d'environ 150 mètres
ou 10 fois les normes d'origine, le débit baissé sera divisé par deux.
Les autres normes en série ont la capacité d'atteindre beaucoup plus gammes de transmission,
comme c'est le cas avec les RS-422 et RS-485 des normes allant jusqu'à 4900 pieds (1200
mètres) et sont souvent soutenu par des connecteurs V.35 rendus obsolètes à la fin des années
1980 mais sont encore souvent trouvés et maintenus aujourd'hui à l'appui de technologies telles
que en tant que Frame Relay et ATM, où sont implémentés. RS-232 lui-même ne définit pas
normes de connecteur, cependant, deux formes communes de connecteur qui prennent en
charge la norme RS-232 comprend les connecteurs DB-9 et DB-25. Série plus récente des
normes ont été développées pour remplacer une grande partie de la série RS-232 existante
technologie, y compris FireWire et le bus série universel (USB) normes, dont la dernière devient
de plus en plus fréquente dans beaucoup de nouveaux produits et dispositifs.
Afin de permettre la communication sur les liens physiques, les signaux doivent être transmis
entre les stations d'émission et de réception. Ce signal varie en fonction du support utilisé,
comme dans le cas de l'optique et transmission sans fil. Le but principal du signal est de
s'assurer que synchronisation (ou synchronisation) entre l'émetteur et le récepteur sur un
élément physique le support est maintenu, ainsi que la transmission de soutien du signal de
données dans une forme qui peut être interprétée par l'émetteur et le destinataire.
Une forme d'onde est communément reconnue comme une propriété du codage de ligne où la
tension est traduite en une représentation binaire de 0 et 1 valeurs qui peuvent être traduit par
la station de réception. Différentes normes de codage de ligne existent, avec normes Ethernet
10Base supportant une norme de codage de ligne connue sous le nom de codage de Manchester.
Fast Ethernet avec une gamme de fréquences de 100 MHz invoque une fréquence plus élevée qui
peut être prise en charge lors de l'utilisation de Manchester codage.
Une autre forme de codage de ligne est donc utilisée comme NZRI, qui, dans elle-même contient
des variations dépendantes des supports physiques, soutenant ainsi MLT-3 pour 100Base-TX et
100Base-FX avec codage en ligne étendue connu sous le nom d'encodage 4B / 5B pour traiter les
problèmes d'horloge potentiels. 100Base-T4 par exemple, utilise un autre formulaire connu sous
le nom de codage de ligne étendue 8B / 6T.
Gigabit Ethernet prend en charge le codage de ligne 8B / 10B à l'exception de 1000Base-T qui
repose sur un codage de bloc complexe appelé 4DPAM5.
Ethernet représente ce qui est considéré comme un réseau multi-accès, dans lequel deux
stations finales ou plus partagent un moyen de transmission commun pour transmission de
données. Le réseau partagé est cependant susceptible de transmission avec collisions où les
données sont transmises par les stations finales simultanément sur un moyen commun. Un
segment où ces événements sont possibles est renvoyé en tant que domaine de collision
partagée.
Les stations finales dans un tel domaine de collision dépendent de la controverse transmission
de données à une destination prévue. Ce comportement contentieux nécessite chaque moniteur
de station d'extrémité pour les données entrantes sur le segment avant faire toute tentative de
transmission, dans un processus appelé Sens du transporteur détection de collision à accès
multiple (CSMA / CD). Cependant, même après avoir pris de telles précautions, le risque
d'apparition de collisions à la suite de la transmission simultanée par deux stations finales reste
hautement probable.
Les modes de transmission sont définis sous forme de half-duplex complet, de déterminer le
comportement impliqué dans la transmission des données au cours de milieu physique.
half-duplex se réfère à la communication de deux ou plusieurs périphériques sur un partage
le support physique dans lequel existe un domaine de collision, et avec CSMA / CD est nécessaire
pour détecter de telles collisions. Cela commence avec la station qui écoute réception du trafic
sur sa propre interface, et où il est calme pendant une période donnée, transmettra ses données.
Si une collision devait se produire, la transmission cesserait, suivie de l'initiation d'un
algorithme backoff pour éviter d'autres les transmissions jusqu'à ce qu'une échéance de valeur
aléatoire expire, après quoi la retransmission peut être réessayée.
Full duplex définit la communication bidirectionnelle simultanée paires de fils point-point
dédiées, en veillant à ce qu'il n'y ait pas de potentiel pour des collisions se produisent, et donc il
n'existe aucune exigence pour CSMA / CD.
Résumé
Quelles formes de câ blage peuvent être utilisées pour supporter les transmissions Gigabit
Ethernet et un réseau d’entreprise ?
Qu'est-ce qu'un domaine de collision ?
Quel est l'objectif de CSMA/CD ?
Avant-Propos
La transmission sur un support physique nécessite des règles qui définissent les
communications comportement. La gestion du comportement d'acheminement des réseaux
Ethernet est contrô lée par des normes IEEE 802 définies pour la technologie de liaison de
donnée Ethernet.
Une connaissance fondamentale de ces normes est indispensable pour bien comprendre
comment la communication par couche de liaison est réalisée dans des réseaux basés sur
Ethernet.
Objectifs :
Lors de la compétition de cette section, les stagiaires pourront.
Expliquer l'application de modèles de référence aux réseaux.
Décris comment les cadres sont construits.
Expliquer la fonction d'adressage MAC à la couche de liaison de données.
Décrire le transfert de trame électronique et le processus de traitement
La communication sur les réseaux repose sur l'application de règles qui régissent comment les
données sont transmises et traitées d'une manière qui est comprise par les deux les entités
d'envoi et de réception. En conséquence, de multiples normes ont été développé au fil du temps,
certaines normes devenant largement adopté. Il existe cependant une distinction claire entre les
normes qui gèrent les flux de données physiques et les normes responsables de la logique la
transmission et la livraison du trafic. Les normes IEEE 802 représentent une norme universelle
pour la gestion des transmissions physique de données sur le réseau physique et comprend
normes, y compris la norme Ethernet 802.3 pour la transmission physique sur réseaux locaux.
D'autres normes existent pour la transmission sur les réseaux large régionaux fonctionnant sur
des supports en série, y compris Frame Relay, HDLC et plus de normes existantes telles que
l'ATM. TCP/IP a été largement adoptée comme suite de protocole définissant les normes de
couche supérieure, régulant les règles (protocoles) et les comportements impliqués dans la
gestion de l'acheminement logique et la livraison entre les stations finales.
Le modèle de référence TCP/IP concerne principalement les principes fondamentaux de la suite
de protocoles, qui peut être comprise comme la transmission logique et livraison du trafic entre
les stations finales. En tant que tel, la référence du protocole TCP/IP le modèle fournit une
représentation en quatre couches du réseau, résumant comportement d'acheminement
physique sous la couche d'interface réseau.
L'accent principal reste sur la couche réseau (ou Internet) qui traite de la façon dont le trafic est
logiquement transmis entre les réseaux et le transport (parfois appelée hô te-hô te) qui gère la
livraison de bout en bout de trafic, assurant la fiabilité du transport entre la source et la
destination stations finales. La couche d'application représente une interface à travers une
variété de protocoles qui permettent d'appliquer les services aux processus d'application des
utilisateurs finaux.
Bien que le modèle de référence TCP/IP soit principalement pris en charge comme norme
Modèle basé sur la suite de protocoles TCP/IP, l'objet de la référence TCP/IP le modèle ne
distingue pas clairement la fonctionnalité lorsque en se référant à la transmission physique de la
couche inférieure.
À la lumière de cela, l'interconnexion des systèmes ouverts, ou le modèle de référence OSI est
souvent reconnu comme modèle de référence aux normes IEEE 802 en raison de la distinction
claire et représentation du comportement des couches inférieures qui correspond étroitement
aux normes de modèle de référence LAN/MAN qui sont définies comme une partie des normes
documentées IEEE 802-1990 pour les régions métropolitaines et métropolitaines réseaux
régionaux. En outre, le modèle, qui est généralement en référence à l'ISO protocole suite, fournit
une répartition étendue du traitement de la couche supérieure.
Comme les données d'application de la couche supérieure sont déterminées pour la
transmission sur un réseau à partir d'un système de fin, une série de processus et d'instructions
doit être appliquée à les données avant transmission peuvent être réalisées avec succès. Ce
processus des instructions annexes et pré-pendantes aux données sont appelées encapsulation
et pour lequel chaque couche du modèle de référence est conçue pour représenter.
Comme les instructions sont appliquées aux données, la taille générale des données augmente.
Les instructions supplémentaires représentent les frais généraux aux données existantes et sont
reconnu comme instructions sur la couche à laquelle les instructions ont été appliquées.
Pour d'autres couches, les instructions encapsulées ne se distinguent pas des données originales.
L'ajout définitif des instructions est effectué dans le cadre de la norme de protocole de couche
inférieure (telles que la norme Ethernet IEEE 802.3) avant d'être porté sous forme de signal
codé sur un support physique.
Dans le cadre de la norme Ethernet IEEE 802.3, les données sont encapsulées avec instructions
sous la forme d'un en-tête et d'une bande-annonce avant de pouvoir se propager sur les
supports physiques sur lesquels Ethernet est pris en charge. Chaque étape de l'encapsulation est
appelée par une unité de données de protocole ou une PDU qui, aux données la couche de liaison
est connue sous le nom de cadre.
Les trames Ethernet contiennent des instructions qui régissent comment et si les données
peuvent être transmis sur le moyen entre deux points ou plus. Les trames Ethernet viennent
dans deux formats généraux, dont le choix dépend fortement du protocole qui ont été définis
avant l'encapsulation de la trame.
Deux formats de trame sont reconnus comme standard pour les réseaux Ethernet. Le standard
de type de trame DIX version 2 a été développé à l'origine pendant au début des années 1980, où
aujourd'hui il est reconnu comme le type de trame Ethernet II. Ethernet II a finalement été
accepté et intégré dans l'IEEE 802 normes, souligné dans le cadre de la section 3.2.6 de l'IEEE
802.3x-1997 documentation sur les normes. La norme Ethernet IEEE 802.3 était à l'origine
développé en 1983, avec des différences clés entre les formats de trame, y compris un champ qui
est conçu pour identifier le protocole auquel les données doivent être transmises une fois que les
instructions de la trame ont été traitées. Dans le format Ethernet IEEE 802.3, ceci est représenté
comme un champ de longueur qui s'appuie sur un ensemble étendu d'instructions appelées
802.2 LLC pour identifier le protocole d'acheminement. Ethernet II et IEEE 802.3 associent à des
protocoles de couche supérieure qui sont distingué par une plage de valeurs de type, où les
protocoles supportant une valeur inférieure ou égal à 1500 (ou 05DC en hexadécimal) utilisera
l'IEEE 802.3 type de trame Ethernet au niveau de la couche de liaison de données. Protocoles
représentés par un type une valeur supérieure ou égale à 1536 (ou 0600 en hexadécimal)
utilisera le norme Ethernet II, et qui représente la majorité de toutes les images au sein réseaux
basés sur Ethernet.
Les autres champs trouvés dans la trame comprennent la destination et la source MAC champs
d'adresse qui identifient l'expéditeur et le (s) destinataire (s), ainsi que le champ de séquence de
vérification de trame qui sert à confirmer l'intégrité du cadre pendant la transmission.
La trame Ethernet II fait référence à une valeur de type hexadécimal qui identifie le protocole de
couche supérieure. Un exemple commun de ceci est le protocole Internet (IP) qui est représenté
par une valeur hexadécimale de 0x0800. Comme cette valeur pour IP représente une valeur
supérieure à 0x0600, il est déterminé que l'Ethernet II le type de trame doit être appliqué
pendant l'encapsulation. Un autre protocole commun qui s'appuie sur le type de trame Ethernet
II à la couche de liaison de données est ARP, et est représenté par la valeur hexadécimale de
0x0806.
Pour le type de trame IEEE 802.3, le champ de type est contenu dans le SNAP l'en-tête
d'extension et n'est pas si fréquemment appliqué les protocoles dans les réseaux, en partie en
raison de l'exigence d'instructions supplémentaires qui entraîne des frais généraux
supplémentaires par image. Certains anciens protocoles qui ont existé depuis de nombreuses
années, mais qui sont toujours appliquées à l'appui des réseaux Ethernet sont susceptibles
d'appliquer le type de trame IEEE 802.3. Un exemple clair de ceci est trouvé dans le cas du
protocole Spanning Tree (STP) représenté par une valeur de 0x03 dans le champ de type de l'en-
tête SNAP.
Les réseaux Ethernet basés sur la communication entre deux stations finales sur un réseau local
utilisant l'adressage Media Access Control (MAC) qui permet de distinguer les systèmes finaux
d'un réseau multi-accès. L'adresse MAC est une adresse physique qui est implentée dans
l'interface résea carte à laquelle le support physique est connecté. Cette même adresse MAC est
récupérée et utilisée comme adresse MAC de destination du destinataire par l'expéditeur, avant
que le cadre ne soit transféré à la couche physique pour transfert sur le support connecté.
Chaque adresse MAC est une valeur de 48 bits généralement représentée dans une hexadécimal
(Base 16) et comprend deux parties qui tentent de s'assurer que chaque l'adresse MAC est
globalement unique. Ceci est réalisé par la définition d'Identifiant Organisationnel Unique qui est
spécifique au fournisseur, selon lequel il est possibilité de retrouver l'origine d'un produit à son
fournisseur sur la base des 24 premiers bits de l'adresse MAC. Les 24 bits restants de l'adresse
MAC sont une valeur qui est attribué de manière incrémentielle et unique à chaque produit (par
exemple, un réseau carte d'interface ou produit similaire prenant en charge les interfaces de
port pour lesquelles un MAC est champs obligatoires).
La transmission de trames dans un réseau local est réalisée en utilisant l'un des trois méthodes
d'acheminement, la première d'entre elles est unidirectionelle et fait référence à transmission
d'un emplacement source unique à une destination unique. Chaque hô te l'interface est
représentée par une adresse MAC unique contenant identifiant organisationnel unique, pour
lequel le 8Th un peu plus important octet (ou premier octet) dans le champ d'adresse MAC
identifie le type d'adresse. Ce 8th bit est toujours réglé sur 0 où l'adresse MAC est une adresse
MAC hô te, et signifie que toute image contenant cette adresse MAC dans le MAC de destination le
champ d'adresse est destiné uniquement à une destination unique.
Lorsque les hô tes existent dans un domaine de collision partagée, tous les hô tes connectés
recevoir la transmission unicast mais la trame sera généralement ignoré par tous les hô tes où
l'adresse MAC dans le champ MAC de destination de la trame fonctionne ne correspond pas à la
valeur MAC de l'hô te récepteur sur une interface donnée, laissant uniquement l'hô te prévu pour
accepter et traiter les données reçues.
Unicast les transmissions ne sont transmises que d'une seule interface physique à la destination
prévue, même dans les cas où des interfaces multiples peuvent exister.
La transmission de diffusion représente une méthode de transfert qui permet aux images de
Ê tre inondé d'une seule source reçue par toutes les destinations dans une zone locale
réseau. Afin d'autoriser la diffusion de la circulation sur tous les hô tes d'un local réseau de zone
de destination, le champ d'adresse MAC de destination du cadre est rempli une valeur qui est
définie en hexadécimal comme FF: FF: FF: FF: FF: FF, et qui spécifie que tous les destinataires
d'une image avec cette adresse définie doivent accepter réception de cette trame et traitement
de l'en-tête et de la remorque du cadre.
Les émissions sont utilisées par des protocoles pour faciliter un certain nombre de réseaux
importants les processus incluant la découverte et la maintenance du fonctionnement du réseau,
mais générent également un trafic excessif qui provoque souvent des interruptions à la fin les
systèmes et l'utilisation de la bande passante qui ont tendance à réduire l'ensemble performance
du réseau.
Une alternative plus efficace à la diffusion qui a commencé à remplacer l'utilisation des
émissions dans de nombreuses nouvelles technologies sont type de trame multicast. Multicast la
transmission peut être comprise comme une forme de diffusion sélective qui permet
sélectionnez les hô tes pour écouter une adresse MAC multicast spécifique en plus d’une adresse
MAC unicast qui est associée à l'hô te et traite toutes les images vontenant l'adresse MAC de
multidiffusion dans le champ MAC de destination de la trame.
Comme il n'existe pas de distinction relative entre les adresses MAC unicast et formats d'adresse
MAC multicast, l'adresse de multidiffusion est différenciée en utilisant le 8Th premier octet.
Lorsque cette valeur de bit représente une valeur de 1, elle identifie que l'adresse fait partie de
la plage d'adresses MAC multicast, comme contrairement aux adresses MAC unicast où cette
valeur est toujours 0.
Dans un réseau local, la véritable capacité du comportement multidiffusion au lien de données la
couche est limitée car le renvoi reste similaire à celui d'un cadre de diffusion dans quelles
interruptions sont encore répandues dans tout le réseau. Le seul point clair la différence avec la
technologie de diffusion est dans le traitement sélectif par stations réceptrices. Au fur et à
mesure que les réseaux se développent pour soutenir plusieurs zones réseaux, la véritable
capacité de la technologie multicast comme moyen efficace de la transmission devient plus
évidente.
Comme le trafic est prêt à être transmis sur le réseau physique, il est nécessaire pour les hô tes
dans les domaines de collision partagés pour déterminer si le trafic occupe actuellement le
support de transmission. Médias de transmission comme dans le cas de 10Base2 fournit un
moyen partagé sur lequel CSMA / CD doit être appliqué pour s'assurer que les collisions sont
traitées si elles se produisent.
Si la transmission d'une image est détectée sur le lien, l'hô te retarde de la transmission de ses
propres images jusqu'à ce que la ligne soit disponible, suite à quoi l'hô te commencera à
transférer des cadres de la physique interface vers la destination prévue.
Lorsque deux hô tes sont connectés sur un support capable de supporter pleinement
transmission duplex comme dans le cas des médias tels que 10BaseT, il est considéré pas
possible pour les trames transmises de subir des collisions depuis la transmission et la réception
des cadres se fait sur des fils distincts et, par conséquent, il n'y a pas requis pour que CSMA / CD
soit mis en œuvre.
Une fois qu'un cadre est transféré à partir de l'interface physique de l'hô te, il est porté sur le
moyen vers sa destination prévue. Dans le cas d'un réseau partagé, la trame peut être reçu par
plusieurs hô tes qui évalueront si la trame est destinée à leur interface en analysant l'adresse
MAC de destination dans l'en-tête de la trame. Si l'adresse MAC de destination et l'adresse MAC
de l'hô te n'est pas le même, ou l'adresse MAC de destination n'est pas MAC l'adresse de diffusion
ou de multidiffusion à laquelle l'hô te écoute, le cadre etre ignoré et mis au rebut.
Pour la destination prévue, le cadre sera reçu et traité, initialement en confirmant que le cadre
est destiné à l'interface physique des hô tes. L'hô te doit également confirmer que l'intégrité du
cadre a été maintenue pendant la transmission en prenant la valeur de la séquence de
vérification de trame (FCS) champ et comparer cette valeur avec une valeur déterminée par
l'hô te récepteur. Si les valeurs ne correspondent pas, le cadre sera considéré comme corrompu
et sera par la suite abandonné.
Pour les images valides, l'hô te devra alors déterminer la prochaine étape de traitement en
analysant le champ de type de l'en-tête de trame et identifier le protocole auquel ce cadre est
destiné. Dans cet exemple, le champ de type trame contient une valeur hexadécimale de 0x0800
qui identifie que les données tirées de trame doivent être transmis au protocole Internet, avant
que l'en-tête de trame et la bande-annonce sont éliminés.

RESUME :
Comment ethernet détermine-t-il le protocole auquel une image traitée doit être livré ?
Comment est-il déterminé si un cadre doit être traité ou mis au rebut sur
Ê tre reçu par un périphérique et ?
Le protocole Internet (IP) est conçu pour fournir un moyen d'inter réseau une communication
qui n'est pas prise en charge par des protocoles de couches inférieures tels qu’Ethernet.
La mise en œuvre de l'adressage logique (IP) permet au protocole Internet d'être employé par
d'autres protocoles pour la transmission de données dans la forme aux paquets entre networks.
Il est nécessaire d'atteindre un bon potentiel d'adressage IP la conception du réseau ainsi que la
familiarité claire du comportement du protocole, pour soutenir une compréhension claire de la
mise en œuvre de l'ip en tant que protocole routage.
À la fin de cette section, les stagiaires seront en mesure de :
Décrivez les champs et les caractéristiques contenus dans IP.
Distinguer les gammes d'adresses IP publiques, privées et spéciales.
Mettre en œuvre avec succès l'adressage VLSM.
Expliquer la fonction d'un IP Gteway
Avant de jeter l'en-tête et la bande-annonce, il est nécessaire pour le prochain jeu des
instructions à traiter pour être déterminées à partir de l'en-tête de la trame. Comme en
surbrillance, ceci est identifié en déterminant la valeur du champ dans le champ de type,
qui dans ce cas représente une image destinée à l'IP protocole après l'achèvement du processus
de trame.
L'objet de cette section identifie comment les données sont traitées au rejet des en-têtes des
trames et la propagation des données restantes du protocole Internet.
L'en-tête IP est utilisé pour prendre en charge deux opérations clés, le routage et
fragmentation. Le routage est le mécanisme qui permet au trafic d'un donné réseau à
transmettre à d'autres réseaux, puisque la couche de liaison de données représente un réseau
unique pour lequel les limites du réseau existent. La fragmentation se réfère à la décomposition
des données en blocs gérables qui peuvent être transmis sur le réseau.
L'en-tête IP est transporté dans le cadre des données et représente une surcharge de moins 20
octets qui fait référence à la façon dont le trafic peut être transmis entre les réseaux, où la
destination prévue existe dans un réseau différent de celui réseau sur lequel les données ont été
transmises à l'origine. Le champ de la version identifie la version de l'IP actuellement en cours
de support, dans ce cas la version est connue sous le nom de version quatre ou IPv4. Le champ
DS a été référé à l'origine car le type de champ de service fonctionne maintenant comme un
champ de support services différenciés, principalement utilisés comme mécanisme d'application
de la qualité de service (QoS) pour l'optimisation du trafic réseau et est considéré comme étant à
l'extérieur de la portée de cette formation.
L'adresse IP source et destination sont des adresses logiques attribuées à hô tes et utilisé pour
faire référence à l'expéditeur et au récepteur prévu a la couche de réseau. L'adressage IP permet
d'évaluer si une intention la destination existe dans le même réseau ou un réseau différent en
tant que moyen d'aide au processus de routage entre les réseaux afin d'atteindre les destinations
au-delà du réseau local.
Chaque adresse IPv4 représente une valeur de 32 bits qui est souvent affichée en pointillé le
format décimal mais pour une compréhension détaillée du comportement sous-jacent est
egalement représenté dans un format binaire (Base 2). Les adresses IP agissent comme
identifiants pour les systèmes finaux ainsi que d'autres périphériques du réseau, comme moyen
de permettant à ces appareils d'être accessibles localement et par des sources qui sont situé à
distance, au-delà des limites du réseau actuel.
L'adresse IP se compose de deux champs d'information qui sont utilisés pour clairement
spécifiez le réseau auquel appartient une adresse IP ainsi qu'un identifiant hô te dans la gamme
du réseau, cela est pour la plupart unique dans le cadre réseau.
Chaque gamme de réseau contient deux adresses importantes qui sont exclues de la gamme de
réseau assignable aux hô tes ou à d'autres périphériques. Le premier d'entre eux les adresses
exclues sont l'adresse réseau qui représente un réseau donné comme opposé à un hô te
spécifique au sein du réseau. L'adresse du réseau est identifiable en se référant au champ hô te
de l'adresse du réseau, dans lequel les valeurs binaires dans cette plage sont toutes définies sur
0, pour lesquelles il devrait également être a noté qu'une valeur binaire de tous les 0 peut ne pas
représenter toujours une valeur 0 dans le notation décimale en pointillés.
La deuxième adresse exclue est l'adresse de diffusion utilisée par la couche réseau pour se
référer à toute transmission qui devrait être envoyée à tous destinations dans un réseau donné.
L'adresse de diffusion est représentée dans le champ hô te de l'adresse IP où les valeurs binaires
dans cette plage sont tous réglés sur 1. Les adresses d'hô te constituent la plage qui existe entre
les adresses de réseau et de diffusion.
L'utilisation de notations binaires, décimales et hexadécimales est couramment appliquée a
travers les réseaux IP pour représenter les schémas d'adressage, les protocoles et paramètres, et
donc la connaissance de la construction fondamentale de ces formes de base sont importantes
pour comprendre le comportement et l'application de valeurs dans les réseaux IP.
Chaque système de numérotation est représenté par une valeur de base différente qui met en
évidence le nombre de valeurs utilisées dans la gamme des notations de base. Dans le cas de
binaire, seules deux valeurs sont utilisées, 0 et 1, ce qui, dans une combinaison peut fournir un
nombre croissant de valeurs, souvent représenté par 2 à la puissance de x, où x indique le
nombre de binaires valeurs. L'hexadécimal représente une notation de base 16 avec des valeurs
allant de 0 À F, (0-9 et A-F) où A représente la valeur suivante suivant 9 et F donc représente une
valeur équivalente à 15 en décimale, soit 1111 en binaire.
Un octet est censé contenir 8 bits et agit comme une notation commune dans IP réseaux, donc un
octet représente une valeur de 256 bits, allant de 0 à 255. Cette information est clairement
représentée par la traduction de décimales notation à binaire, et application de la puissance de
base à chaque valeur binaire, à atteindre la plage de 256 bits de valeur. Une traduction du
système de numérotation pour on peut voir un binaire dans l'exemple pour permettre la
familiarisation avec le modèles de numérotation associés à binaires. L'exemple aussi clairement
démontre comment les valeurs d'adresse de diffusion sont décimales, binaires et les
hexadécimaux sont représentés pour permettre la diffusion d'émissions dans les deux IP et
l'adressage MAC sur le réseau et les couches de liaison de données.
La combinaison de 32 bits dans une adresse IP est en corrélation avec quatre octets ou octets
pour lesquels chacun peut représenter une plage de valeur de 256, donnant une valeur
théorique nombre de 4'294'967'296 adresses IP possibles, mais en vérité, seulement une
fraction du nombre total d'adresses peut être attribuée aux hô tes.
Chaque bit à l'intérieur d'un octet représente une puissance de base et, en tant que tel, chaque
octet peut représentent une classe de réseau spécifique, chaque catégorie de réseau étant basée
sur soit un seul octet, soit une combinaison d'octets. Trois octets ont été utilisés dans le cadre de
cet exemple pour représenter le réseau avec le quatrième octet représentant la gamme hô te
supportée par le réseau.
Le nombre d'octets pris en charge par une adresse réseau est déterminé par classes d'adresses
qui décomposent la portée de l'adresse IPv4. Classes A, B et C sont des plages d'adresses
assignables, dont chacune supporte un nombre varié des réseaux et un certain nombre d'hô tes
qui sont assignables à un réseau donné. Classe A, par exemple, se compose de 126 réseaux
potentiels, chacun pouvant supporter 224, Ou 16'777'216 adresses hô tes potentielles, en gardant
à l'esprit que le réseau et les adresses de diffusion d'une classe ne sont pas assignables aux
hô tes.
Les plages d'adresses des Classe C permettent un réseau beaucoup plus équilibré qui s'améliore
réseaux ethernet, fournissant un peu plus de 2 millions de réseaux potentiels, chaque réseau
capable de supporter environ 256 adresses, dont 254 sont assignable aux hô tes.
La classe D est une gamme réservée aux multidiffusion, permettant aux hô tes d'écouter un
l'adresse dans cette plage et l'adresse de destination d'un paquet contiennent une adresse de
multidiffusion pour laquelle l'hô te écoute, le paquet doit être traité de la même manière qu'un
paquet destiné aux hô tes assignés IP adresse. Chaque classe se distingue facilement en binaire
en observant le bit valeur dans le premier octet, où une adresse de classe A par exemple sera
toujours commencez par un 0 pour le bit, alors que dans une classe B, les deux premiers bits
d'ordre sont toujours définis comme 1 et 0, ce qui permet à toutes les classes d'être facilement
Déterminé en binaire.
––
Dans IPv4, les adresses spécifiques et les plages d'adresses ont été réservées pour fins spéciales.
Les plages d'adresses privées existent dans les classes A, B et C les plages d'adresses pour
prolonger le déclin rapide du nombre d'IP disponibles adresses. Le nombre de systèmes et
périphériques finaux réels nécessitant une IP l'adressage dans le monde aujourd'hui dépasse les
4'294'967'296 adresses des 32 bit de la plage d'adresses IPv4, et donc une solution à ce
problème croissant était pour attribuer des plages d'adresses privées qui pourraient être
affectées à des réseaux privés, pour permettre la conservation des adresses de réseaux publics
qui facilitent communication sur les infrastructures de réseau public comme Internet.
Les réseaux privés sont devenus communs dans tout le réseau de l'entreprise mais les hô tes ne
peuvent pas interagir avec le réseau public, ce qui signifie que cette adresse peuvent être
réutilisées dans de nombreux réseaux d'entreprises disparates. Le trafic lié à toutefois, les
réseaux publics doivent faire l'objet d'une traduction d'adresses avant les données peut
atteindre la destination prévue.
D'autres adresses spéciales incluent une gamme de diagnostic indiquée par 127.0.0.0 l'adresse
réseau, ainsi que la première et la dernière adresse dans l'IPv4 plage d'adresses, pour laquelle
0.0.0.0 représente un réseau et pour lequel la demande doit être présentée plus en détail avec
les principes de routage.
L'adresse 255.255.255.255 représente une adresse de diffusion pour l'IPv4 (0.0.0.0), mais la
portée de toute diffusion dans IP est limitée à limites du réseau local à partir duquel la diffusion
est générée.
Pour qu'un hô te transfère le trafic vers une destination, il est nécessaire pour un hô te avoir
connaissance du réseau de destination. Un hô te est naturellement conscient de la réseau auquel
il appartient mais n'est généralement pas au courant d'autres réseaux, même lorsque ces
réseaux peuvent être considérés comme faisant partie du même réseau physique.
Comme ces hô tes ne transmettent pas les données destinées à une destination donnée jusqu'à ce
que l'hô te apprend du réseau et donc avec lui l'interface par laquelle la destination peut être
atteinte.
Pour qu'un hô te transfère le trafic vers un autre hô te, il faut d'abord déterminer si la destination
fait partie du même réseau IP. Ceci est réalisé grâ ce à la comparaison du réseau de destination
au réseau source (adresse IP de l'hô te) à partir duquel les données sont originaires. Dans le cas
où les gammes du réseau correspondent, le paquet peut être transmis aux couches inférieures
où l'encadrement Ethernet préside, pour traitement. Dans le cas où le réseau cible de destination
varie du réseau d'origine, l'hô te devrait avoir connaissance du réseau prévu et l'interface par
laquelle un paquet / trame devrait être transmis avant que le paquet ne puisse être traité par les
couches inférieures. Sans pour autant cette information, l'hô te va déposer le paquet avant même
atteint la couche de liaison de données.
L'identification d'un segment de réseau unique est régie par mise en œuvre d'une valeur de
masque utilisée pour distinguer le nombre de bits qui représentent le segment de réseau, pour
lequel les bits restants sont compris comme représentant le nombre d'hô tes pris en charge dans
un segment de réseau. Un administrateur réseau peut diviser une adresse réseau en sous-
réseaux afin que les paquets de diffusion soient transmis dans les limitesvd'un seul sous-réseau.
Le masque de sous-réseau se compose d'une chaîne des valeurs ininterrompues suivies d'une
chaîne de valeurs 0 sans entailles similaire. Les valeurs 1 correspondent au champ ID du réseau
alors que les 0 valeurs correspondent au champ d'identification de l'hô te.
Pour chaque classe d'adresse réseau, un masque de sous-réseau correspondant est appliqué à
spécifiez la taille par défaut du segment de réseau. Tout réseau considéré comme étant une
partie de la plage d'adresses de classe A est corrigée avec un masque de sous-réseau par défaut
appartenant à 8 bits situés à gauche qui comprennent le premier octet de l'adresse IP, les trois
octets restants restant disponibles pour l'affectation de l'ID hô te.
D'une manière similaire, le réseau de classe B reflète un masque de sous-réseau par défaut de 16
bits, permettant un plus grand nombre de réseaux dans la gamme de classe B à la coû t du
nombre d'hô tes pouvant être attribué par réseau par défaut. Le réseau classe C est par défaut un
masque 24 bits qui fournit un grand nombre de réseaux potentiels mais limite considérablement
le nombre d'hô tes pouvant être affectés dans le réseau par défaut. Les réseaux par défaut
fournissent une frontière commune pour traiter les plages, cependant dans le cas de l'adresse de
classe A et de classe B, ne fournissent pas une échelle pratique pour l'allocation d'adresse pour
ethernet réseaux basés.
L'application du masque de sous-réseau à une adresse IP donnée permet d'identifier le réseau
auquel appartient l'hô te. Le masque de sous-réseau identifiera également l'adresse de diffusion
pour le réseau ainsi que le nombre d'hô tes pouvant être pris en charge dans le cadre du réseau.
Ces informations fournissent la base pour une planification efficace de l'adresse réseau. Dans
l'exemple donné, un hô te a été identifié avec l'adresse 192.168.1.7 dans le cadre d'un réseau à 24
bits le masque de sous-réseau par défaut (classe C) est appliqué. En distinguant quelle partie de
l'IP l'adresse constitue le réseau et les segments hô tes, le réseau par défaut l'adresse peut être
déterminée pour le segment.
Ceci est compris comme l'adresse où toutes les valeurs de bit hô te sont définies sur 0, dans ce
cas générant une adresse réseau par défaut de 192.168.1.0. Où l'hô te les valeurs sont
représentées par une chaîne continue de 1 valeurs, la diffusion l'adresse du réseau peut être
déterminée. Où le dernier octet contient une chaîne de 1 valeurs, elle représente une valeur
décimale de 255, pour laquelle une émission l'adresse de 192.168.1.255 peut être dérivée.
Les adresses hô tes possibles sont calculées selon une formule de 2N Où n représente le nombre
de bits hô tes définis par le masque de sous-réseau. Dans ce l'instance n représente une valeur de
8 bits hô te, où 28 donne une valeur résultante de 256. Le nombre d'adresses hô tes utilisables
nécessite toutefois que le réseau et les adresses de diffusion sont déduites de ce résultat pour
donner un certain nombre d’adresses d'hô te valides de 254.
Le scénario de cas fournit une gamme commune d'adresses de classe B à laquelle il est
nécessaire de déterminer le réseau auquel appartient l'hô te spécifié, le long d’avec l'adresse de
diffusion et le nombre d'hô tes valides pris en charge par le réseau donné. Appliquant les mêmes
principes qu'avec la classe C plage d'adresse, il est possible que l'adresse réseau de l'hô te soit
déterminé, avec la gamme d'hô tes dans le réseau donné
Une des principales contraintes du masque de sous-réseau par défaut se produit lorsque
plusieurs les plages d'adresses réseau sont appliquées à une entreprise donnée afin de générer
limites logiques entre les hô tes du réseau d'entreprise physique.
L'application d'un système d'adressage de base peut nécessiter un nombre limité de hô tes à
associer à un réseau donné, pour lequel plusieurs réseaux sont appliqué pour fournir la
segmentation logique du réseau. En faisant ainsi cependant, une grande quantité d'espace
d'adressage reste inutilisée, affichant le inefficacité de l'application de masque de sous-réseau
par défaut.
Afin de résoudre les limites des masques de sous-réseau par défaut, le concept des masques de
sous-réseau à longueur variable sont introduits, ce qui permet un sous-réseau par défaut un
masque à décomposer en plusieurs sous-réseaux, qui peuvent être répartis longueur (a.k.a.
masque de sous-réseau de longueur fixe ou FLSM) ou de longueur variable connu communément
par le terme VLSM. La mise en place d'un tel sous-réseau les masques consistent à prendre un
réseau basé sur la classe par défaut et à diviser réseau par la manipulation du masque de sous-
réseau.
Dans l'exemple donné, une variation simple a été apportée à la classe C par défaut réseau qui,
par défaut, est régi par un masque 24 bits. La variation intervient la forme d'un bit emprunté à
partir de l'ID hô te qui a été appliquée dans la trame d'adresse réseau. Lorsque l'écart de bits se
produit par rapport de réseau par défaut, les bits supplémentaires représentent ce qu'on appelle
l'identifiant de sous-réseau.
Dans ce cas, un seul bit a été pris pour représenter le sous-réseau pour lequel deux sous-réseaux
peuvent être dérivés, car une seule valeur de bit ne peut représenter deux états de 1 ou 0.
Lorsque le bit est réglé sur 0, il représente une valeur de 0, où est-il défini sur 1, il représente
une valeur de 128. En définissant les bits d'hô te à 0, l'adresse du sous-réseau peut être trouvée
pour chaque sous-réseau, en définissant le bit d'hô te à 1, l'adresse de diffusion pour chaque
sous-réseau est identifiable. Le nombre d'hô tes pris en charge dans ce cas représente une valeur
de 27 moins l'adresse du sous-réseau et l'adresse de diffusion pour chaque sous-réseau, ce qui
entraîne chaque sous-réseau prenant en charge un total de 126 adresses d'hô te valides.
En ce qui concerne le problème des limitations d'adresse dans lesquelles les réseaux par défaut
ont résulté dans un gaspillage d'adresse excessif, le concept de masque de sous-réseau à
longueur variable peut être appliqué pour réduire le gaspillage de l'adresse et fournir une
efficacité plus efficace système d'adressage au réseau d'entreprise.
Une seule plage d'adresses de classe C par défaut a été définie, pour quelle variable des masques
de sous-réseau de longueur sont nécessaires pour accueillir chacun des logiques réseaux dans
une seule plage d'adresses par défaut. Masque de sous-réseau efficace l'affectation requiert que
le nombre de bits hô te requis le nombre requis d'hô tes soit déterminé, pour lequel les bits hô tes
restants peut être appliqué dans le cadre de l'identifiant de sous-réseau, qui représente la
variation ID réseau de l'adresse réseau par défaut.
Le routage inter-domaine sans classes a été initialement introduit comme une solution à gérer
des problèmes qui se sont produits en raison de la croissance rapide de ce qui est maintenant
connu sous le nom d'Internet. Les préoccupations principales concernaient l'épuisement
imminent de l'espace d'adresse de classe B qui a été généralement adopté par la taille moyenne
les organisations comme la gamme d'adresses la plus adaptée, où la classe C était insuffisant et
où la classe A était trop vaste et la gestion des 65534 les adresses d'hô te pourraient être
obtenues via VLSM. En outre, la suite de croissance signifiait que les périphériques de passerelle
tels que les routeurs commençaient à lutte pour suivre le nombre croissant de réseaux que de
tels dispositifs etaient censés gérer. La solution donnée implique la transition vers un système
d'adressage sans classe dans lequel les limites classiques ont été remplacées par préfixes
d'adresse.
Cette notation fonctionne selon le principe que les plages d'adresses classiques telles que celle
de la classe C peut être compris comme ayant un préfixe 24 bits qui représente le sous-réseau ou
une grande limite de réseau, et pour laquelle il est possible de résumer plusieurs préfixe de
réseau dans un préfixe d'adresse de réseau plus grand qui représente le mêmes réseaux mais
comme un préfixe d'adresse unique. Cela a contribué à atténuer les nombres de routes
contenues notamment dans le routage à grande échelle des dispositifs qui fonctionnent à
l'échelle mondiale, et a fourni un effet plus efficace gestion des adresses. Le résultat du CIDR a eu
beaucoup de succès effets et est censé avoir ralenti l'épuisement global taux de l'adresse IPv 4.
Le renvoi des paquets nécessite que le paquet détermine d'abord un renvoi un chemin vers un
réseau donné et l'interface par laquelle un paquet devrait être transféré depuis, avant d'être
encapsulé en tant que cadre et transféré à partir d’interface physique. Dans le cas où le réseau
prévu est différent du réseau d'origine, le paquet doit être transmis à une passerelle par laquelle
le paquet peut atteindre sa destination.
Dans tous les réseaux, la passerelle est un périphérique capable de gérer les paquets et prendre
des décisions quant à la façon dont les paquets devraient être acheminés, afin d'atteindre leur
destination prévue. Cependant, l'appareil en question doit être conscient d'une route vers le
réseau IP de destination prévu avant que le routage des paquets ne puisse prend place. Où les
réseaux sont divisés par une passerelle physique, l'interface adresse IP (dans le même réseau ou
sous-réseau) par laquelle cette passerelle peut être atteint est considéré comme l'adresse de la
passerelle.
Dans le cas d'hô tes appartenant à des réseaux différents qui ne sont pas divisés par un passerelle
physique, il incombe à l'hô te de fonctionner comme passerelle, pour lequel l'hô te doit d'abord
connaître l'itinéraire du réseau auquel les paquets doivent être renvoyés et doivent spécifier
l'interface IP de l'hô te propre adresse IP de la passerelle, par laquelle la destination prévue
Le réseau peut être atteint.
Les données des paquets transférés existent dans de nombreux formats et consistent à varier
taille, souvent la taille des données à transmettre dépasse la taille qui est pris en charge pour la
transmission. Lorsque cela se produit, il est nécessaire pour les données blocage à décomposer
en petits blocs de données avant transmission peut se produire. Le processus consistant à
décomposer ces données en blocs gérables est connu sous le nom de fragmentation.
Les champs d'identification, de drapeaux et de décalage de fragment sont utilisés pour gérer
réassemblage de fragments de données une fois qu'ils sont reçus à leur intention finale
destination. L'identification fait la distinction entre les blocs de données des flux de trafic qui
peut provenir du même hô te ou des hô tes différents. Le champ des drapeaux détermine lequel
d'un certain nombre de fragments représente le dernier fragment à quel début de début d'une
minuterie démarre avant le remontage et pour informer que le remontage du paquet devrait
commencer.
Enfin, le décalage de fragment marque la valeur de bit pour chaque fragment dans le cadre d'un
nombre de fragments, le premier fragment est défini avec une valeur de 0 et les fragments
suivants spécifient la valeur du premier bit suivant la précédente fragment, par exemple où le
fragment initial contient des bits de données 0 à travers a 1259, le fragment suivant aura une
valeur de décalage de 1260.
Lorsque les paquets sont transmis entre les réseaux, il est possible que les paquets tombent dans
les boucles où les routes vers les réseaux IP n'ont pas été correctement définies dans les
dispositifs responsables du routage du trafic entre plusieurs réseaux. Ce peut entraîner la perte
de paquets dans un cycle de transfert de paquets qui n'autorise pas un paquet à atteindre sa
destination prévue. Lorsque cela se produit, la congestion sur le réseau s'ensuivra à mesure que
de plus en plus de paquets destinés à la même destination devient sujet au même sort, jusqu'à ce
que le réseau devient inondé de paquets erronés.
A fin d'éviter qu'une telle congestion ne se produise dans le cas de telles boucles, le champ Time
to Live (TTL) est défini comme faisant partie de l'en-tête IP, qui diminue par une valeur de 1
chaque fois qu'un paquet parcourt un dispositif de couche 3 pour atteindre un réseau donné. La
valeur TTL de départ peut varier en fonction de l'origine source, cependant, la valeur TTL
décrémentera-t-elle à une valeur de 0, le paquet sera rejeté et un message d'erreur (ICMP) est
retourné à la source, En fonction de l'adresse IP source qui se trouve dans l'en-tête IP du paquet
errante.
En vérifiant que le paquet a atteint sa destination, la couche réseau doit déterminer le prochain
ensemble d'instructions qui doivent être traité. Ceci est déterminé en analysant le champ de
protocole de l'en-tête IP.
Comme pour le champ de type de l'en-tête de trame, une valeur hexadécimale est utilisée pour
spécifiez le prochain ensemble d'instructions à traiter.
Il faut comprendre que le champ de protocole peut se référer à des protocoles soit la couche
réseau, comme dans le cas du message de contrô le Internet protocole (ICMP), mais peut
également se référer à des protocoles de couche supérieure tels que protocole de contrô le de
transmission (06 / 0x06) ou protocole de datacenter utilisateur (17 / 0x11), qui existent tous
deux en tant que partie de la couche de transport dans les deux modèles de référence TCP / IP et
OSI.
Résumé
À quoi sert le masque de sous-réseau IP?
Quel id du but du champ TTL dans l'en-tête IP?
Comment utiliser la passerelle dans un réseau IP?
Avant propos
Icmp est un protocole qui fonctionne à cô té d'IP comme une forme de messagerie protocole afin
de compenser la fiabilité limitée de l'IP.
La mise en œuvre d'icmp doit être comprise pour se familiariser avec comportement de
nombreuses opérations et applications qui dépendent fortement de ICMP, en Afin de prendre en
charge la messagerie sous-jacente, en fonction de laquelle d'autres processus sont souvent
effectués
Objectifs
À la fin de cette section, Tranees sera capable de :
Décrivez certains des processus auxquels s'applique icmp ip
Identifiez les valeurs courantes de type et de code utilisées dans ICMP
Expliquez la fonction d'ICMP dans les applications ping et traceroute
Le protocole Internet Control Message est une partie intégrante de l'IP conçue pour faciliter la
transmission des messages de notification entre les passerelles et les hô tes source où les
demandes d'informations de diagnostic, le support du routage, et comme un moyen de signaler
des erreurs dans le traitement du datagramme sont nécessaires. Le but de ces messages de
contrô le est de fournir des commentaires sur les problèmes l'environnement de communication,
et ne garantit pas qu'un datagramme Ê tre livré, ou qu'un message de contrô le sera renvoyé.
Les messages ICMP Redirect représentent un scénario commun où ICMP est utilisé comme
moyen de faciliter les fonctions de routage. Dans l'exemple, un paquet est transmis à la
passerelle par l'hô te A en fonction de l'adresse de la passerelle de l'hô te A.
La passerelle identifie que le paquet reçu est destiné à être transmis à l'adresse de la prochaine
passerelle qui fait partie du même réseau en tant qu'hô te qui a créé le paquet, mettant en
surbrillance un système non optimal comportement d'acheminement entre l'hô te et les
passerelles.
Pour résoudre ce problème, un message de redirection est envoyé à l'hô te. La redirection le
message indique à l'hô te d'envoyer son trafic pour la destination prévue directement à la
passerelle avec laquelle le réseau de destination est associé, car cela représente un chemin plus
court vers la destination. La passerelle se déroule cependant, transmettre les données du paquet
d'origine à la destination prévue.
Les messages d'écho ICMP représentent un moyen de diagnostic pour déterminer
principalement une connectivité entre une source et une destination donnée, mais aussi fournit
des informations supplémentaires telles que le temps aller-retour pour la transmission comme
un diagnostic pour mesurer le retard. Les données reçues dans le message d'écho sont est
retourné comme un message de réponse écho séparé.
ICMP fournit différents messages de déclaration d'erreur qui déterminent souvent des
problèmes d'accessibilité et générer des rapports d'erreurs spécifiques qui permettent une
clarification compréhension du point de vue de l'hô te quant à la transmission à la
La destination prévue a échoué.
Des exemples typiques incluent des cas où des boucles peuvent avoir eu lieu dans le réseau et,
par conséquent, a causé le paramètre du temps de vie dans l'IP l'en-tête expire, ce qui entraîne
un message d'erreur "ttl dépassé en transit" généré. D'autres exemples incluent une destination
prévue inaccessible, ce qui pourrait concerner une question plus spécifique de l'intention réseau
n'est pas connu par la passerelle de réception, ou que l'hô te prévu dans le réseau de destination
ne sont pas découverts. En tout cas, un ICMP le message est généré avec une destination basée
sur l'adresse IP source trouvé dans l'en-tête IP, pour s'assurer que le message notifie l'hô te
d'envoi.
Les messages ICMP sont envoyés en utilisant l'en-tête IP de base, qui fonctionne ensemble en
tant que partie intégrante du message ICMP, tel est le cas avec le TTL paramètre utilisé pour
fournir un support pour déterminer si la destination est accessible. Le format du message ICMP
repose sur deux champs pour l'identification des messages sous la forme d'un format de type /
code, où le type fournit une description générale du type de message, et le code et un paramètre
plus spécifique pour le type de message.
Une somme de contrô le fournit un moyen de valider l'intégrité du message ICMP.
Des 32 bits supplémentaires sont inclus pour fournir des paramètres variables, souvent non
utilisé et donc défini comme 0 lorsque le message ICMP est envoyé, mais dans les cas comme une
redirection ICMP, le champ contient l'adresse IP de la passerelle à laquelle un hô te devrait
rediriger les paquets. Le champ de paramètre dans le cas de l'écho les demandes contiendront
un identifiant et un numéro de séquence, utilisés pour l'abonné source a envoyé des demandes
d'écho avec des réponses d'écho reçues, en particulier dans les demandes multiples
d'événement sont transmises à une destination donnée.
En tant que dernier moyen de traçage de données à un processus spécifique, le message ICMP
peut porte l'en-tête IP et une partie des données contenant une couche supérieure informations
permettant à la source d'identifier le processus pour lequel une erreur s'est produite, comme les
cas où l'ICMP TTL expire en transit.
Il existe un grand nombre de valeurs de type ICMP pour définir clairement les différentes
applications du protocole de contrô le ICMP. Dans certains cas, le champ de code n'est pas requis
pour fournir une entrée plus spécifique au champ de type, comme on le trouve avec les requêtes
d'écho qui ont un champ de type 8 et la réponse correspondante, qui est généré et envoyé en
tant que message ICMP séparé à l'adresse source du expéditeur et défini à l'aide d'un champ de
type 0.
Alternativement, certains champs de type définissent un type très général pour lequel le la
variance est comprise à travers le champ de code, comme dans le cas du type 3 paramètre. Un
champ de type de 3 spécifie qu'une destination donnée est inaccessible, alors que le champ de
code reflète l'absence spécifique du réseau, de l'hô te, protocole, port (TCP / UDP), capacité à
effectuer la fragmentation (code 4) ou source route (code 5) dans laquelle un paquet, pour
lequel un chemin de transfert à travers le réseau est strictement ou partiellement défini, ne
parvient pas à atteindre sa destination.
L'application de ICMP peut être comprise par l'utilisation d'outils tels que ping. L'application
Ping peut être utilisée comme outil afin de déterminer si une destination est accessible et
collecter d'autres informations connexes.
Les paramètres de l'application Ping permettent à un utilisateur final de spécifier le
comportement du système final dans la génération de messages ICMP, en tenant compte de la
taille du datagramme ICMP, le nombre de messages ICMP générés par l'hô te, et aussi la durée
dans laquelle on s'attend à ce qu'une réponse soit reçue avant qu'un timeout ne se produise. Ceci
est important lorsqu'un grand délai survient depuis le délai d'attente peut être signalé par
l'application Ping avant le message ICMP a eu l'opportunité de retourner à la source.
La sortie générale d'une réponse ICMP à une requête ICMP générée par Ping détaille la
destination vers laquelle le datagramme a été envoyé et la taille du datagramme généré. En
outre, le numéro de séquence du champ de séquence qui est porté dans le cadre de la réponse
d'écho (type 0) s'affiche avec le TTL valeur tirée de l'en-tête IP, ainsi que le temps aller-retour
qui est à nouveau porté dans le champ des options IP dans l'en-tête IP.
Une autre application commune à ICMP est traceroute, qui fournit un moyen de mesurer le
chemin d'acheminement et le retard sur une base de sauts par sauts entre plusieurs réseaux, par
association avec la valeur TTL dans l'en-tête IP.
Pour une destination donnée, l'accessibilité à chaque saut le long du chemin est mesuré en
définissant initialement une valeur TTL dans l'en-tête IP de 1, ce qui provoque la valeur TTL
expire avant que la passerelle de réception ne puisse propager ICMP message plus loin, générant
ainsi un TTL expiré dans le message de transit ainsi que des informations sur l'horodatage,
permettant une évaluation du saut par sauts du chemin parcouru par le réseau par le
datagramme vers la destination, et un mesure du temps aller-retour. Cela fournit un moyen
efficace d’identifiant le point de toute perte ou retard de paquet qui peut être encouru dans le
réseau et aide à la découverte des boucles de routage
La mise en œuvre de Traceroute dans les routeurs Huawei série ARG3 adopte le l'utilisation du
protocole de couche de transport UDP pour définir un port de service en tant que destination.
Chaque saut envoie trois paquets de sonde, pour lesquels la valeur TTL est initialement réglé à
une valeur de 1 et augmenté après chaque trois paquets. Dans en outre, un port de destination
UDP de 33434 est spécifié pour le premier paquet et incrémenté pour chaque paquet de sonde
successif envoyé. Un résultat de hop by hop est généré, permettant de déterminer le chemin
d'accès, ainsi que pour tout un retard qui peut survenir pour être découvert. Ceci est réalisé en
mesurant la durée entre le moment où le message ICMP a été envoyé et lorsque la TTL
correspondante a expiré en transit, l'erreur ICMP est reçu. Lors de la réception d'un paquet, la
destination ultime est incapable de découvrez le port spécifié dans le paquet et renvoie un ICMP
Type 3, paquet Code 3 (Port inaccessible), et après trois tentatives, le test Traceroute prend fin.
Le résultat du test de chaque sonde est affiché par la source, conformément à avec le chemin de
la source vers la destination. Si un défaut survient lorsque la commande trace route est utilisée,
les informations suivantes peuvent s’afficher :
! H: L'hô te est inaccessible.
! N: Le réseau est inaccessible.
! : Le port est inaccessible.
! P: Le type de protocole est incorrect.
! F: Le paquet est mal fragmenté.
! S: l'itinéraire source est incorrect.
Résumé
Quels deux types de message icmp sont utilisés dans le cadre d'un ping réussi?
Dans le cas où la valeur TTL dans l'en-tête IP d'un datagramme atteint zéro, quoi
Des mesures seront prises par la passerelle de réception?.
Avant propos
Afin que la transmission de données à une destination de réseau soit atteinte, il est nécessaire
pour créer une association entre la couche réseau et la couche inférieure protocoles.les moyens
par lesquels le protocole de résolution d'adresse est utilisé pour construire cette association et
empêcher la génération inutile de ressources supplémentaires le trafic de radiodiffusion dans le
réseau devrait être clairement compris.
objectifs
À la fin de cette section, les stagiaires seront en mesure de:
Explique comment l'adresse Mac est résolue à l'aide d'ARP
Expliquez la fonction de la table de cache ARP.
À mesure que les données sont encapsulées, le protocole IP de la couche réseau est capable de
specifier l'adresse IP cible à laquelle les données sont finalement destinées, ainsi que l’interface
par laquelle les données doivent être transmises, mais avant transmission peut se produire, la
source doit être au courant de l'adresse Ethernet cible (MAC) à Quelles données doivent être
transmises. Le protocole de résolution d'adresse (ARP) représente une partie critique de la suite
de protocole TCP / IP qui permet la découverte d’adresse de transfert MAC pour faciliter
l'accessibilité IP. L'Ethernet next hop doivent être découverts avant que l'encapsulation des
données puisse être complétée.
Le paquet ARP est généré dans le cadre de la découverte de l'adresse cible physique
processus. La découverte initiale contiendra des informations partielles depuis la destination
l'adresse matérielle ou l'adresse MAC doit être découverte. Le type de materiel fait référence à
Ethernet avec le type de protocole se référant à IP, définissant la technologies associées à la
découverte ARP. Le matériel et le protocole longueur identifie la longueur de l'adresse à la fois
pour l'adresse MAC Ethernet et l’adresse IP, et est définie en octets.
Le code d'opération spécifie l'un des deux états, où la découverte ARP est défini comme
DEMANDE pour laquelle réception de la transmission ARP par la destination identifiera qu'une
réponse devrait être générée. La réponse générera une RÉ PONSE pour laquelle aucune autre
opération n'est necessaire recevant l'hô te de ce paquet, et après quoi le paquet ARP sera
mis au rebut. L'adresse matérielle source se réfère à l'adresse MAC d’expéditeur sur le segment
physique auquel ARP est généré. La source l'adresse du protocole se réfère à l'adresse IP de
l'expéditeur.
L'adresse matérielle de destination spécifie l'adresse physique (Ethernet) à quelles données
peuvent être transmises par les normes de protocole Ethernet, mais ceci l'information n'est pas
présente dans une requête ARP, remplacée par une valeur de 0.
L'adresse du protocole de destination identifie la destination IP prévue pour quelle accessibilité
sur Ethernet doit être établie.
La couche réseau représente un chemin logique entre une source et un
destination. Atteindre une destination de destination de destination dépend d'abord de pouvoir
etablir un chemin physique vers la destination prévue et, pour ce faire, une association doit être
établie entre la destination IP prévue et l’interface physique next hop à laquelle le trafic peut
être transféré.
Pour une destination donnée, l'hô te déterminera l'adresse IP à laquelle les données sont a
transmettre, mais avant que l'encapsulation des données puisse commencer, l'hô te doit
déterminer si un chemin d'acheminement physique est connu. Si le chemin d'acheminement est
connu pour l'encapsulation vers la destination peut se poursuivre, mais assez souvent la
destination n'est pas connue et ARP doit être mis en œuvre avant l'encapsulation de données
peut être effectuée.
Le cache ARP (prononcé comme [kash]) est un tableau pour l'association de l'hô te les adresses
IP de destination et les adresses physiques associées (MAC). Tout hô te qui est engagé dans la
communication avec une destination locale ou distante sera d'abord besoin d'apprendre le MAC
de destination par lequel la communication peut être établi.
Les adresses apprises remplissent la table de cache ARP et restent actives pour une période de
temps fixe, pendant laquelle la destination prévue peut être découverte sans avoir besoin de
processus d'extraction ARP découverte. Suite à un arrêt période, la table de cache ARP supprime
les entrées ARP pour maintenir l'ARP l'intégrité de la table cache, car toute modification de
l'emplacement physique d'un hô te de destination peut entraîner l'envoi par l'hô te d'envoi par
inadvertance de données a une destination à laquelle l'hô te de destination ne réside plus.
La recherche de cache ARP est la première opération qu'un système final effectuera avant de
déterminer s'il est nécessaire de générer une demande ARP. Pour destinations au-delà des
limites du réseau propre des hô tes, un cache ARP la recherche est effectuée pour découvrir
l'adresse de destination physique de la passerelle par laquelle le réseau de destination prévu est
accessible.
Lorsqu'une entrée de cache ARP est incapable d'être déterminée, la demande ARP le processus
est effectué. Ce processus implique la génération d'une demande ARP paquet et population des
champs avec le protocole source et de destination adresses, ainsi que l'adresse matérielle
source. Le matériel de destination l'adresse est inconnue. En tant que tel, l'adresse matérielle de
destination est remplie avec une valeur équivalente à 0. La demande ARP est encapsulée dans un
Ethernet l'en-tête de trame et la bande-annonce dans le cadre du processus d'acheminement. La
source MAC l'adresse de l'en-tête de trame est définie comme l'adresse source de l'hô te d'envoi.
L'hô te ignore actuellement l'emplacement de la destination et donc doit envoyer la demande
ARP en tant que diffusion à toutes les destinations dans la même limite du réseau local. Cela
signifie qu'une adresse de diffusion est utilisée comme adresse MAC de destination. Une fois que
le cadre est peuplé, il est transmis à la couche physique où elle se propage le long du milieu
physique auquel l'hô te est connecté. Le paquet ARP diffusé sera inondé tout au long de le réseau
vers toutes les destinations, y compris toute passerelle qui peut être présente, cependant, la
passerelle empêchera l'envoi de cette diffusion de tout réseau au-delà du réseau actuel
Si la destination du réseau prévu existe, le cadre arrivera au niveau physique interface de la
destination à quel point le processus de couche inférieure s'ensuivra.
Les émissions ARP signifient que toutes les destinations dans la limite du réseau seront recevoir
le cadre inondé, mais cessera de traiter la demande ARP, puisque l'adresse du protocole de
destination ne correspond pas à l'adresse IP de ces destinations.
Lorsque l'adresse IP de destination correspond à l'hô te récepteur, l'ARP le paquet sera traité.
L'hô te récepteur traitera d'abord le cadre en-tête et ensuite traiter la demande ARP. L'hô te de
destination utilisera les informations provenant du champ d'adresse matérielle source dans l'en-
tête ARP pour peupler sa propre table de cache ARP, permettant ainsi une image unicast généré
pour tout transfert de trame qui peut être nécessaire, à la source de que la demande ARP a été
recue.
La destination déterminera que le paquet ARP reçu est un ARP demande et procédera à générer
une réponse ARP qui sera retournée à la source, en fonction de l'information trouvée dans l'en-
tête ARP. Un ARP séparé un paquet est généré pour la réponse, pour lequel le protocole source et
de destination les champs d'adresse seront peuplés. Toutefois, l'adresse du protocole de
destination dans le paquet de demande ARP représente maintenant l'adresse du protocole
source dans le pack de réponse ARP, et de même l'adresse de protocole source de l'ARP la
demande devient l'adresse de protocole de destination dans la réponse ARP.
Le champ d'adresse du matériel de destination est rempli avec le MAC de la source, découverte
suite à la réception de la demande ARP. Pour les besoins l'adresse matérielle de destination de la
demande ARP, elle est incluse comme source l'adresse matérielle de la réponse ARP, et le code
d'opération est configuré pour répondre, à informer la destination du but du paquet ARP reçu,
suite à que la destination peut rejeter sans problème le paquet ARP
la communication. La réponse ARP est encapsulée dans l'en-tête de trame Ethernet et la
remorque, avec l'adresse MAC de destination de la trame Ethernet contenant l'entrée MAC dans
la table de cache ARP, permettant à la trame d'être renvoyée comme un cadre unicast à l'hô te qui
a créé la requête ARP.
Après avoir reçu la réponse ARP, l'hô te originaire valide que la destination prévue est correcte
en fonction de l'en-tête de la trame, identifiez que l'en-tête de paquet est ARP du champ de type
et jette les en-têtes de trame. la réponse ARP sera ensuite traitée, avec l'adresse matérielle
source de la réponse d'ARP utilisée pour remplir la table de cache ARP de l'hô te d'origine
(Hô te A).
Suite au traitement de la réponse ARP, le paquet est mis au debut et l'information MAC de
destination est utilisée pour faciliter le processus d'encapsulation de l’application initiale ou le
protocole qui a initialement demandé la découverte du destination à la liaison de données.

Le protocole ARP est également appliqué à d'autres cas, tels que les transparents les passerelles
de sous-réseau doivent être mises en place pour faciliter la communication à travers réseaux
physiques, où les hô tes sont considérés comme faisant partie de la même sous-réseau. Il s'agit de
proxy ARP puisque la passerelle fonctionne comme un proxy pour les deux réseaux physiques.
Lorsqu'une demande ARP est générée pour un destination qui est considérée comme faisant
partie du même sous-réseau, la demande eventuellement être reçu par la passerelle. La
passerelle est capable de déterminer que la destination prévue existe au-delà du réseau
physique sur lequel l'ARP la demande a été générée.
Puisque les demandes ARP ne peuvent pas être transmises au-delà des limites de la domaine de
diffusion, la passerelle va générer sa propre demande ARP pour déterminer l'accessibilité à la
destination prévue, en utilisant son propre protocole et les adresses matérielles comme adresses
source pour l'ARP généré demande. Si la destination prévue existe, une réponse ARP doit être
reçue par la passerelle pour laquelle l'adresse matérielle source des destinations sera utilisée
pour remplir la table de cache ARP de la passerelle.
La passerelle lors de la confirmation de l'accessibilité à la destination prevue puis générez une
réponse ARP à la source d'origine (hô te A) en utilisant le materiel adresse de l'interface sur
laquelle la réponse ARP a été transmise. La passerelle fonctionnera en tant qu'agent entre les
deux réseaux physiques faciliter la communication de la couche de liaison de données, les deux
hô tes transmettant le traffic destiné à des destinations dans différents réseaux physiques à la
physique pertinente adresse de la passerelle "Proxy".
Dans le cas où un nouveau matériel est introduit sur un réseau, il est impératif que l'hô te
détermine si oui ou non l'adresse du protocole à laquelle il a été assigné est unique dans le
réseau, de manière à éviter l'adresse dupliquée conflits. Une demande ARP est générée pour
déterminer si l'adresse de protocole est unique, en définissant l'adresse de destination dans
l'ARP demande d'être égale à l'adresse IP de l'hô te.
La demande ARP est inondée dans tout le réseau à toutes les couches de liens destinations en
définissant le MAC de destination comme diffusion, pour s'assurer que tous les stations et les
passerelles reçoivent le cadre inondé. Toutes les destinations traiteront
La trame, et si une destination quelconque découvrait que l'adresse IP de destination dans la
demande ARP, correspondent à l'adresse d'une station de réception ou une passerelle, une
réponse ARP sera générée et retournée à l'hô te qui a généré la demande ARP.
Grâ ce à cette méthode, l'hô te d'origine est capable d'identifier la duplication de l'IP dans le
réseau et signaler un conflit d'adresse IP afin de demander qu'une adresse unique sera attribuée.
Ce moyen de générer une demande basée sur l'adresse IP propre à ses hô tes définit les principes
de base de l'ARP gratuit.
résumé
Avant de générer une demande ARP, quelles mesures doivent être prises par une station finale?
Quand les messages ARP gratuits sont-ils générés et propagés sur le réseau local?
Préface
La couche de transport est associée au comportement de bout en bout du calque de transport les
protocoles, qui sont définis une fois atteint la destination prévue. TCP et UDP représentent les
protocoles communément pris en charge dans les réseaux IP. Les caractéristiques des données,
telles que la sensibilité au retard et le besoin de fiabilité détermine souvent les protocoles
utilisés à couche de transport. Cette section se concentre sur la connaissance de la manière dont
ces caractéristiques sont pris en charge par le comportement de chaque protocole
objectives
upon completion of this section, trainees will be able to:
describe the common differences between TCP and UDP.
describe the forms of data to which TCP and UDP are applied.
Identify well know TCP and UDP based port numbers
TCP est un protocole de bout en bout orienté vers la connexion qui existe dans le cadre de la
couche de transport de la pile de protocole TCP/IP, afin de supporter les applications cette
portée sur des environnements multi-réseaux. Le protocole de contrô le de transmission fournit
un moyen de communication interprocessus fiable entre les paires de processus dans les
ordinateurs hô tes qui sont attachés à des processus distincts mais interconnectés réseaux de
communication par ordinateur. TCP s'appuie sur des protocoles de couche inférieure fournir
l'accessibilité entre les hô tes de support de processus, sur lesquels un service de connexion
fiable est établi entre des paires de processus. le comportement axé sur la connexion du TCP
implique des échanges antérieurs entre le source et destination, par lequel une connexion est
établie avant les segments de couches de transport sont communiqués.
Comme un moyen pour permettre à de nombreux processus au sein d'un seul hô te d'utiliser TCP
les installations de communication simultanément, TCP fournit un ensemble de ports logiques
dans chaque hô te. La valeur du port avec l'adresse de la couche réseau est appelée socket, pour
laquelle une paire de sockets fournit un identifiant unique pour chaque connexion, en particulier
lorsqu'une prise est utilisée simultanément dans plusieurs connexions. C'est-à -dire, il faudra
peut-être distinguer un processus entre plusieurs flux de communication entre lui-même et un
autre processus (ou Processus), pour lesquels chaque processus peut avoir plusieurs ports à
travers qu'il communique avec le port ou les ports d'autres processus.
Certains processus peuvent posséder des ports et ces processus peuvent déclencher les
connexions sur les ports qu'ils possèdent. Ces ports sont compris comme IANA des ports
système attribués ou des ports bien connus et existent dans la plage de valeur de port de
0 à 1023. Une gamme d'utilisateurs ou de ports enregistrés appartenant à l'IANA existe
également dans la plage de 1024 à 49151, avec ports dynamiques, également appelés privés ou
ports éphémères dans la gamme 49152 - 65535, qui ne se limitent à aucun application
spécifique. Les hô tes recevront généralement une valeur de port utilisateur pour quel socket est
généré sur une application donnée.
Exemples communs d'applications basées sur TCP pour lesquelles un port bien connu les
numéros ont été assignés incluent FTP, HTTP, TELNET et SMTP, qui fonctionnera souvent avec
d'autres protocoles de courrier bien connus tels que POP3 (port 110) et IMAP4 (port 143)
L'en-tête TCP permet aux applications basées sur TCP d'établir des flux de données orientés vers
la connexion qui fournissent la fiabilité et à quel contrô le de flux est appliqué. Un numéro de
port source est généré lorsqu'un hô te a l'intention d'établir une connexion avec une application
basée sur TCP, pour laquelle le port de destination se rapportent à un port bien connu /
enregistré auquel un bien connu / enregistré l'application est associée.
Les bits de code représentent des fonctions dans TCP et comprennent un bit urgent (URG)
utilisée ensemble, le champ du pointeur urgent pour les notifications de données urgentes
dirigées par l'utilisateur, reconnaissance des octets reçus en association avec l'accusé de
reception champ (ACK), la fonction de poussée pour la transmission de données (PSH), la
réinitialisation de la connexion opérations (RST), synchronisation des numéros de séquence
(SYN) et indication qu'il n'y a plus de données à recevoir de l'expéditeur (FIN). Des bits de code
supplémentaires ont été introduits sous la forme ECN-Echo (ECE) et la fenêtre de congestion
Drapeaux réduits (CWR), comme moyen de supporter la notification de congestion pour
Retarder les applications TCP sensibles.
La notification de congestion explicite (ECN) nonce sum (NS) a été introduite comme une
altération de suivi pour éliminer les éventuels abus de l'ECN lorsque les dispositifs le long du
chemin de transmission peut supprimer les marques de congestion ECN. Les Options contient
des paramètres qui peuvent être inclus dans l'en-tête TCP, souvent utilisé lors de l'établissement
de la connexion initiale, comme dans le cas de valeur de taille de segment maximum (MSS), qui
peut être utilisée pour définir la taille de segment que le destinataire devrait utiliser. La taille de
l'en-tête TCP doit être une somme de 32 bits, et là où ce n'est pas le cas, le remplissage de 0
valeurs sera effectué.
Lorsque deux processus souhaitent communiquer, chaque TCP doit d'abord établir une
connexion (initialiser la synchronisation de la communication de chaque cô té).
Lorsque la communication est terminée, la connexion est terminée ou fermée à libérer les
ressources pour d'autres utilisations.
Une connexion progresse à travers une série d'états pendant l'établissement. l'état LISTEN
représente un TCP en attente d'une demande de connexion de tout TCP et port distant. SYN-
SENT se produit après l'envoi d'une demande de connexion et avant qu'une demande
correspondante soit reçue. L'état SYN-RECEIVED se produit en attendant une confirmation de la
demande de connexion, après ayant reçu et envoyé une demande de connexion. L'état ESTABLIÉ
se produit après la poignée de main au moment où une connexion ouverte est créée, et les
données reçues peuvent être livrées à l'utilisateur.
Le mécanisme à trois voies TCP-handshake commence par une séquence initiale nombre généré
par le TCP d'initiation dans le cadre de la synchronization (SYN). Le segment TCP initial est
ensuite défini avec le bit de code SYN et transmis à la destinée destination TCP cible pour obtenir
un état SYN-SENT.
Dans le cadre du processus d'accusé de réception, le TCP peering générera un numéro de
séquence initial de son propre pour synchroniser le flux TCP dans l'autre direction. Ce peering
TCP transmettra ce numéro de séquence, ainsi qu'un numéro d'accusé de réception égal au
numéro de séquence reçu incrémenté par un, avec des bits de code SYN et ACK définis dans le
TCP en-tête pour obtenir un état SYN-RECEIVED.
La dernière étape de la prise de contact de connexion implique le TCP initial reconnaissant le
numéro de séquence du peering TCP en configurant le numéro d'accusé de réception est égal au
numéro de séquence reçu plus un, avec le bit ACK dans l'en-tête TCP, permettant un état
ESTABLIÉ À atteindre.
Puisque la transmission TCP est envoyée en tant que flux de données, chaque octet peut être
séquencé, et donc chaque octet peut être reconnu. le numéro de reconnaissance est utilisé pour y
parvenir en répondant à l'expéditeur omme confirmation de la réception des données,
fournissant ainsi la fiabilité du transport de données. Le processus de reconnaissance est
cependant cumulatif, ce qui signifie qu'une chaîne des octets peuvent être reconnus par un seul
accusé de réception en signalant ource du numéro de séquence qui suit immédiatement le
numéro de sequence qui a été reçu avec succès.
Dans l'exemple, plusieurs octets sont transmis ensemble avant TCP ca reconnaissance est
donnée. Si un octet ne parvient pas à être transmis au destination, la séquence d'octets transmis
ne sera reconnue qu'au point où la perte s'est produite. L'accusé de réception qui en résultera
sera reflètent l'octet qui n'a pas été reçu afin de réinitialiser la transmission de point dans le flux
de données auquel l'octet a été perdu.
Le champ de la fenêtre TCP fournit un moyen de contrô le de flux qui régit le quantité de données
envoyées par l'expéditeur. Ceci est réalisé en renvoyant une "fenêtre" avec chaque segment TCP
pour lequel le champ ACK est défini, indiquant une gamme de nombres de séquences
acceptables au-delà du dernier segment avec succès reçu. La fenêtre indique le nombre d'octets
permis que l'expéditeur peut transmettre avant de recevoir une autorisation supplémentaire.
Une fois que les données équivalentes à la taille de la fenêtre ont été reçues, un accusé de
réception sera retourné, par rapport au nombre d'octets reçus, un de plus. Ensuite, l'hô te A va
procéder à la transmission du prochain lot de données.
Une taille de fenêtre TCP de 0 nierait effectivement le traitement des segments, avec exception
aux segments où les bits de code ACK, RST et URG sont définis pour segments entrants.
Lorsqu'une taille de fenêtre de 0 existe, l'expéditeur doit toujours vérifiez périodiquement l'état
de la taille de la fenêtre de réception de TCP pour vous assurer le changement dans la taille de la
fenêtre est effectivement signalé, la période de retransmission est généralement de deux
minutes. Lorsqu'un émetteur envoie des segments périodiques, la réception de TCP doit encore
confirmer avec une annonce de numéro de sequence de la taille actuelle de la fenêtre de 0.
Dans le cadre du processus de terminaison de la connexion TCP, plusieurs états sont défini par
lequel TCP va se transmettre. Ces états incluent FIN-WAIT-1 cela représente l'attente d'une
demande de terminaison de connexion (FIN) de la TCP à distance, ou un accusé de réception
d'une requête de terminaison de connexion qui a déjà été envoyé. Le FIN-WAIT-2 représente
l'attente d'une connexion demande de résiliation du TCP à distance qui, en général,
Transition vers un état TIME-WAIT. Un état CLOSE-WAIT indique l'attente d'un
Requête de terminaison de connexion définie localement, généralement lorsqu'un serveur
La demande est en cours de fermeture.
L'état LAST-ACK représente l'attente d'une reconnaissance de la demande de terminaison de
connexion précédemment envoyée au TCP distant (qui comprend une reconnaissance de sa
demande de terminaison de connexion). Enfin, un état TIME-WAIT se produit et attend un temps
suffisant pour passer pour s'assurer que le TCP distant a reçu l'accusé de réception de sa
terminaison de connexion demande. Cette période est gérée par la minuterie Max Segment
Lifetime (MSL) qui définit une période d'attente de 2 minutes. Après une période d'attente égale
à deux fois le MSL, la connexion TCP est considérée comme fermée / terminée.
Le protocole User Datagram, ou UDP, représente une alternative au TCP et appliqué où TCP est
considéré comme un mécanisme de transport inefficace, principalement dans le cas d'un trafic
sensiblement différé. Où TCP est considéré un segment, l'UDP est reconnu comme une forme de
datagramme de Protocol Data Unit (PDU), pour lequel un datagramme peut être considéré
comme autonome, entité indépendante de données portant des informations suffisantes pour
être acheminée à partir de Source vers le système final de destination sans dépendre des
échanges antérieurs entre cette source et les systèmes finaux de destination et le transport
Réseau, tel que défini dans la RFC 1594. En effet, cela signifie que le trafic UDP ne fonctionne ne
nécessitent pas l'établissement d'une connexion avant l'envoi de données.
La structure simplifiée et le fonctionnement de UDP le rendent idéal pour l'application
programmes pour envoyer des messages à d'autres programmes, avec un minimum de protocole
mécanisme dans le cas d'accusés de réception et de fenêtres exemple, tel qu'il se trouve dans les
segments TCP. En équilibre cependant, UDP ne garantir la livraison de la transmission de
données, ni la protection contre le datagramme reproduction.
L'en-tête UDP offre une approche minimaliste de la couche de transport, implémentant
uniquement une construction de base pour aider à identifier le port de destination dont le trafic
basé sur UDP est destiné, ainsi qu'un champ de longueur et une valeur de somme de contrô le qui
assure l'intégrité de l'en-tête UDP. En outre, le minimum de frais généraux constitue un moyen
idéal pour permettre l'utilisation de plus de données par paquet, favorisant le trafic en temps
réel comme les communications vocales et video où TCP fournit une surcharge de 20 octets et
des mécanismes qui influencent les retards, comme dans le cas des remerciements, mais le
manque de tells signifie que la livraison des datagrammes n'est pas garantie.
É tant donné que la transmission du datagramme UDP n'est pas envoyée en tant que flux de
données, la transmission des données est susceptible de la duplication du datagramme. En outre,
le manque des numéros de séquence dans UDP signifient que la livraison de transmission de
données différents chemins sont susceptibles d'être reçus à la destination dans une commande
incorrecte et non sélectionnée.
Lorsque les données de flux sont transportées sur UDP, comme dans le cas de la voix et
applications vidéo, des mécanismes de protocole supplémentaires peuvent être appliqués à
améliorer la capacité de UDP, comme dans le cas du transport en temps reel protocole (RTP) qui
contribue à supporter l'incapacité d'UDP en fournissant un mécanisme de séquençage à l'aide de
timestamps pour maintenir l'ordre de tells flux de données audio / vidéo, supportant
efficacement la connexion partielle orientée comportement sur un protocole de transport sans
connexion.
Le comportement général d'acheminement UDP est très bénéfique pour retarder la sensibilité
trafic comme la voix et la vidéo. Il faut comprendre que, lorsqu'un protocole de transport axé sur
la connexion, les données perdues nécessiteraient réplication suite à une période de délai,
période pendant laquelle une reconnaissance par l'expéditeur est attendu. Si l'accusé de
réception n'est pas reçu, les données doivent être retransmises.
Pour les flux de données sensibles au délai, cela entraînerait un audio incomprehensible et les
transmissions vidéo en raison du retard et de la duplication, à la suite de la retransmission du
point où les remerciements sont générés. Dans tels cas, une perte minimale du flux de données
est préférable par rapport à la retransmission, et, en tant que tel, UDP est sélectionné comme
mécanisme de transport, à l'appui du retard trafic sensible.
résumé
Quel est le but du champ d'accusé de réception dans l'en-tête TCP?
Quels bits de code TCP sont impliqués dans une poignée de main TCP à trois voies?
Préface
La suite de protocole TCP / IP fonctionne comme une collection de règles afin de supporter le
bout de bout.
La transmission de données, ainsi que des protocoles de couches inférieures, tels que ceux
définis dans l'IEEE 802 normes. La connaissance du cycle de vie du transfert de données permet
une compréhension plus profonde du comportement du réseau Ip pour une analyse efficace du
fonctionnement du réseau et résolution des défauts de mise en réseau. L'ensemble du processus
d'encapsulation et de decapsulation représente une partie fondamentale de toute connaissance.
objectifs
À la fin de cette section, les stagiaires seront en mesure de:
Explique les étapes du processus pour l'encapsulation et la décapsulation des données.
Résoudre les problèmes de transmission de données
Le transfert de données peut être défini collectivement comme local ou distant pour lequel le
processus de transfert repose sur l'application de la pile de protocoles dans l'ordre pour réaliser
une transmission de bout en bout. Les systèmes finaux peuvent faire partie de la même réseau,
ou situé dans différents réseaux, mais l'acheminement general principe pour permettre la
transmission entre hô tes suit un ensemble clair de protocols qui a été introduit dans le cadre de
l'unité. Comment fonctionnent ces protocols ensemble doivent être renforcés, ainsi que la
relation entre les protocoles TCP / IP de couche supérieure et le protocole Ethernet basé sur la
couche de liaison inférieure normes.
Un système final qui a l'intention de transférer des données vers une destination donnée doit
d'abord déterminer si oui ou non il est possible d'atteindre la destination prévue. Dans
l’atteindre de ses objectif, le système doit passer par un processus de chemin
Découverte. Un système final doit être compris comme capable de supporter
Opération à toutes les couches car sa fonction principale est en tant qu'habitant aux applications.
Dans a ce sujet, il doit également être capable de supporter des opérations de couches
inférieures tels que le routage et le renvoi de la couche de liaison (commutation) afin d'être
capable de supérieur / transfert de données de la couche d'application. Le système final contient
donc un tableau qui représente l'accessibilité de la couche réseau au réseau pour lequel
Les données de la couche supérieure sont destinées.
Les systèmes finaux seront généralement conscients du réseau auquel ils résident, mais peut
être sans chemin d'acheminement dans les cas où la découverte de réseau à distance n'a pas été
réalisé. Dans l'exemple donné, l'hô te A est en possession d'un chemin au réseau destiné par
l'intermédiaire de l'adresse du «réseau» qui a été brièvement introduit dans le cadre de la
section Adressage IP. Le tableau de transfert identifie que le trafic devrait être transmis à la
passerelle comme un prochain bond via l'interface associé à l'adresse logique du 10.1.1.1.
Suite à la découverte d'une route réalisable vers la destination prevue réseau, un prochain bond
physique doit également être découvert pour faciliter l'image expéditeur. La suite de protocole
TCP/IP est responsable de la détermination de cette encapsulation des paquets. La première
étape consiste à determiner si un chemin physique existe pour le prochain saut identifié comme
faisant partie du chemin processus de découverte.
Cela nécessite que la table de cache ARP soit consultée pour identifier si l'association entre le
prochain bond prévu et le chemin physique est connue.
À partir de l'exemple, on peut voir qu'une entrée à la prochaine passerelle de saut l'adresse est
présente dans la table de cache ARP. Lorsqu'une entrée ne peut être trouvée,
Le protocole de résolution d'adresse (ARP) doit être lancé pour effectuer la découverte et
résolution du chemin physique.
Lorsque la découverte de l'acheminement de chemin logique et physique est terminée, c'est
Possibilité d'encapsulation de données pour une transmission réussie sur les réseaux
IP/Ethernet. Processus de couche supérieure en termes de cryptage et la compression peuvent
être effectués après la couche de transport l'encapsulation se produira, en identifiant les ports
source et de destination par lesquels les données de la couche supérieure doivent être
transmises.
Dans le cas de TCP, les champs de séquence et d'accusé de réception seront peuplés, les bits de
code sont définis comme nécessaire avec le bit ACK couramment appliqué. La fenêtre champ
sera rempli avec la taille actuelle de la fenêtre prise en charge, à laquelle l'hô te notifiera le
tampon de données maximum pouvant être pris en charge avant les données est reconnu.
Les valeurs représentant les champs TCP sont incluses dans la somme de contrô le, qui est
calculé en utilisant un processus de calcul de compliment, afin d'assurer l'intégrité du segment
TCP est maintenue une fois que l'en-tête TCP est reçu et traité à la destination finale. Dans le cas
du code TCP de base les opérations, les données de la couche supérieure peuvent ne pas toujours
être portées sur le segment, comme dans le cas de la synchronisation de la connexion et les
remerciements reçus les données.
Après l'encapsulation de la couche de transport, il est généralement nécessaire que des
instructions sont fournies, détaillant comment la transmission sur un ou plusieurs les réseaux
doivent être atteints. Cela implique d'énumérer la source de la propriété intellectuelle ainsi que
destination finale pour laquelle le paquet est destiné. Les paquets IP sont généralement limité à
une taille de 1500 octets par Ethernet, y compris le réseau et transporter les en-têtes de couche
ainsi que toutes les données de la couche supérieure. La taille du paquet initial etre déterminé
par Ethernet comme unité de transmission maximale, ou MTU à quels paquets seront conformes,
la fragmentation ne se produira donc pas à la source.
Dans le cas où le MTU change le long du chemin d'acheminement, seul alors la fragmentation
sera effectuée. Le champ d'affichage du temps sera rempli d'un valeur de consigne en fonction
du système, dans les routeurs de la série ARG3, ceci est défini avec un valeur initiale de 255. Le
champ de protocole est peuplé en fonction du protocole encapsulé avant IP. Dans ce cas, le
protocole en question est TCP pour lequel l'en-tête IP remplit le champ de protocole avec une
valeur de 0x06 en tant qu'enseignement pour le prochain traitement d'en-tête. L'adressage IP
source et destination reflètera la source d'origine et la destination finale.
L'encapsulation de la couche de liaison repose sur les normes Ethernet IEEE 802.3 pour la
physique transmission de données de couche supérieure sur des réseaux Ethernet.
Encapsulationde la couches inférieures sont effectuées en déterminant initialement le type de
trame qui est utilisé.
Lorsque le protocole de couche supérieure est représenté par une valeur de type supérieure à
1536 (0x0600) comme c'est le cas avec IP (0x0800), le type de trame Ethernet II est adopté. Le
champ de type de l'en-tête de trame Ethernet II est rempli avec le tapez la valeur de 0x0800
pour refléter que le prochain protocole à traiter suit le traitement des trames sera IP. L'adresse
MAC de destination détermine la prochaine hop physique, qui dans ce cas représente la
passerelle réseau.
Dans le cadre de l'opération de la couche de liaison, il est impératif de veiller à ce que le support
de transmission est dépourvu de signaux dans le domaine de collision partagée. L'hô te ecoutera
tout le trafic sur le réseau dans le cadre de CSMA / CD et devrait la ligne reste claire, se
préparera à transmettre les données. Il est nécessaire pour réception de l'interface physique
pour être informé du cadre entrant, afin d’evitez la perte de valeurs de bits initiales qui
rendraient les images initiales incomplètes.
Les cadres sont donc précédés d'une valeur de 64 bits indiquant la couche de liaison
Destination de l'arrivée imminente du cadre.
Les 56 bits initiaux représentent un motif alternatif de 1, 0 s'appelle le préambule, et est suivi
immédiatement par un octet interprété comme le début du cadre delimiteur (SFD). Les deux
derniers bits du SFD s'écartent d'une alternance a une combinaison de 1,1 bit qui notifie que les
bits qui suivent représentent les premières valeurs binaires de l'adresse MAC de destination et
donc le début de l'en-tête du cadre.
Comme une trame est reçu par la destination de la couche de lien, il doit passer par un
Nombre de contrô les pour déterminer son intégrité ainsi que sa validité. Si le cadre était
Transmis sur un réseau Ethernet partagé, d'autres stations finales peuvent également
recevoir une instance de la trame transmis, mais depuis la trame l'adresse MAC de destination
est différente de l'adresse MAC de la station d'extrémité, la trame sera rejeté.
Les images reçues à la destination prévue effectueront une vérification des erreurs par en
calculant la valeur de compliment en fonction des champs de trame actuels et comparez ceci
avec la valeur dans le champ Séquence de vérification de trame (FCS). Si les valeurs ne
correspondent pas, le cadre sera rejeté. Intermédiaire de reception et les systèmes finaux qui
reçoivent des images valides devront déterminer si la trame est destiné à leur interface physique
en comparant la destination adresse MAC avec l'adresse MAC de l'interface (ou périphérique
dans certains Cas).
S'il y a une correspondance, la trame est traitée et le champ de type est utilisé pour déterminez
l'en-tête suivant à traiter. Une fois que l'en-tête suivant est déterminé, l'en-tête du cadre et la
bande-annonce sont éliminés.
Le paquet est reçu par la couche réseau, et en particulier IP, à laquelle l'en-tête IP est traité. Une
valeur de somme de contrô le existe à chaque couche de l’empilement de protocole pour
maintenir l'intégrité dans toutes les couches pour tous les protocoles. L'IP de destination est
utilisée pour déterminer si le paquet est arrive destination ultime. Cependant, la passerelle
détermine que ce n'est pas le cas puisque la destination IP et l'IP appartenant à la passerelle ne
correspondent pas.
La passerelle doit donc déterminer la ligne de conduite à prendre avec en ce qui concerne le
routage du paquet vers une autre interface, et envoie le paquet vers le réseau pour lequel il est
destiné. La passerelle doit d'abord assurez-vous que la valeur TTL n'a pas atteint 0 et que la
taille du paquet ne dépasse pas la valeur maximale de l'unité de transmission pour la passerelle.
dans l’evénement que le paquet est plus grand que la valeur MTU de la passerelle, la
fragmentation commencera généralement.
Une fois que la destination d'un paquet a été située dans la table de transmission du passerelle,
le paquet sera encapsulé dans un nouvel en-tête de trame composé de nouvelles adresses MAC
de source et de destination pour le segment de la couche de liaison, lequel le cadre résultant doit
être transmis avant d'être encore une fois transmis au prochain saut physique. Où le prochain
saut physique n'est pas connu, ARP sera de nouveau utilisé pour résoudre l'adresse MAC.
Les cadres reçus à la destination finale détermineront d'abord si
Le cadre est arrivé à l'emplacement prévu. L'exemple montre deux serveurs sur
Un réseau Ethernet partagé sur lequel les deux reçoivent une copie du cadre.
Le cadre est finalement rejeté par le serveur B puisque la valeur MAC de destination
Et l'adresse MAC d'interface du serveur B ne correspond pas. Server A cependant
Reçoit avec succès le cadre et apprend que les champs MAC sont les mêmes,
L'intégrité du cadre basé sur le FCS peut également être comprise comme étant
correct. Le cadre utilisera le champ de type pour identifier 0x0800 comme l'en-tête suivant,
Suite à laquelle l'en-tête et la bande-annonce du cadre sont mis au rebut et le paquet est
Reçu par IP.
En arrivant à la destination finale, l'en-tête du paquet IP doit faciliter nombre de processus. La
première consiste à valider l'intégrité du paquet en-tête dans le champ de somme de contrô le, en
appliquant à nouveau une valeur de compliment comparaison basée sur une somme des champs
d'en-tête IP. Où est-il correct, l'IP l'en-tête sera utilisé pour déterminer si l'IP de destination
corresponds à l'IP adresse de la station d'extrémité actuelle, qui dans ce cas est vraie.
Si une fragmentation s'est produite pendant la transmission entre la source et la destination, le
paquet doit être réassemblé à ce stade. L'identification champ rassemblera les fragments
appartenant à une seule source de données, l’offset déterminera l'ordre et le champ des
drapeaux spécifiera quand ee remontage devrait commencer, car tous les fragments doivent être
reçus d'abord et un fragment avec un drapeau de 0 sera reconnu comme le dernier fragment à
être reçu.
Une minuterie se déroule alors pendant lequel le remontage doit être effectué complété, si le
remontage échoue dans cette période, tous les fragments seront mis au rebut. Le champ de
protocole sera utilisé pour identifier l'en-tête suivant pour le traitement et l'en-tête du paquet
seront éliminés. Il convient de noter que l'en-tête suivant peut ne pas toujours être un en-tête de
couche de transport, un exemple clair d'où cela peut être compris est dans le cas de ICMP, ce qui
est compris comme etre également un protocole de couche réseau avec une valeur de champ de
protocole de 0x01.
Dans le cas où un en-tête de paquet est mis au rebut, le segment ou le datagramme est passé à la
couche de transport pour l'application à l'application en traitement. Les informations d'en-tête
sont reçues dans ce cas par TCP (0x06).
Dans l'exemple, on peut comprendre qu'une connexion TCP a déjà été etabli et le segment
représente une reconnaissance pour la transmission du trafic HTTP du serveur HTTP vers l'hô te
reconnu.
L'hô te est représenté par le port 1027 comme un moyen de distinguer entre plusieurs
connexions HTTP qui peuvent exister entre le même hô te source et serveur de destination. En
recevant cette reconnaissance, le serveur HTTP continuer à transférer vers l'hô te dans les
limites de la taille de la fenêtre de la hô te.
résumé
Quelles informations sont nécessaires avant que les données ne puissent être encapsulées?
Qu'arrive-t-il lorsqu'une image est diffusée vers une destination à laquelle elle n'est pas
proposée?
Comment les données dans le cadre atteignent-elles l'application finalement?
Lorsque plusieurs sessions de la même application sont activées (par exemple, plusieurs
navigateurs Web), comment
Les données de retour arrivent-elles à la bonne session?
Préface
La mise en œuvre des dispositifs huawei dans un réseau d'entreprise nécessite un niveau de
connaissance et capacité dans la navigation de l'interface de ligne de commande VRP, et
configuration des paramètres système. L'architecture principale de la ligne de commande est
donc introduit dans le cadre de cette section avec la navigation, les fonctions d'aide et les
fonctions communes sytem sttigns qui doivent être compris pour la configuration réussie de
tout périphérique géré par VRP.
objectifs
À la fin de cette section, les stagiaires pourront:
Naviguez dans l'interface de ligne de commande VRP
Configurer les paramètres du système VRP basique
Exécuter la configuration et la gestion de l'interface de base
Le processus de démarrage / démarrage est la phase initiale de l'opération pour tout
administrateur ou ingénieur qui accède aux produits basés sur Huawei fonctionnant avec VRP.
Le démarrage l'écran informe les procédures d'opération de démarrage du système ainsi que
version de l'image VRP qui est actuellement implémentée sur l'appareil, avec l'emplacement de
stockage d'où il est chargé. Après l'initiation procédure de démarrage, une option pour la
configuration automatique des paramètres système initiaux demande une réponse, pour laquelle
l'administrateur peut choisir de suivre les étapes de configuration ou configurer manuellement
le système de base paramètres. Le processus de configuration automatique peut être terminé en
sélectionnant l'option oui à l'invite donnée.
La structure de commande hiérarchique de VRP définit un certain nombre de commandes
Vues qui régissent les commandes pour lesquelles les utilisateurs peuvent effectuer opérations.
L'interface de ligne de commande a plusieurs vues de commande, de quelles opinions communes
ont été introduites dans l'exemple. Chaque commande est enregistré pour s'exécuter dans une
ou plusieurs vues de commande, et ces commandes peuvent ne fonctionne qu'après avoir entré
la vue de commande appropriée. La commande initiale la vue de VRP est la vue utilisateur, qui
fonctionne comme une commande d'observation vue pour l'observation des états des
paramètres et des informations statistiques générales. Pour application des modifications aux
paramètres du système, les utilisateurs doivent entrer dans le système vue. Un certain nombre
de niveaux de sous-commande peuvent également être trouvés, sous la forme de vues
d'interface et de protocole par exemple, où les tâ ches de niveau secondaire peuvent être réalisé.
Les vues de la ligne de commande peuvent être déterminées en fonction des parenthèses, et
informations contenues dans ces parenthèses. La présence de chevrons identifie que l'utilisateur
est actuellement dans la vue utilisateur, alors que les crochets montrent qu'une transition vers la
vue système s'est produite.
L'exemple démontre une sélection de raccourci commun défini par le système clés qui sont
largement utilisées pour simplifier le processus de navigation dans le VRP interface de ligne de
commande. Les commandes supplémentaires sont les suivantes:
CTRL + B déplace le curseur vers le bas d'un caractère.
CTRL + D supprime le caractère où se trouve le curseur.
CTRL + E déplace le curseur jusqu'à la fin de la ligne actuelle.
CTRL + F déplace le curseur vers l'avant d'un caractère.
CTRL + H supprime le caractère sur le cô té gauche du curseur.
CTRL + N affiche la prochaine commande dans le tampon de commande historique.
CTRL + P affiche la commande précédente dans le tampon de commande historique.
CTRL + W supprime le mot sur le cô té gauche du curseur.
CTRL + X supprime tous les caractères sur le cô té gauche du curseur.
CTRL + Y supprime tous les caractères sur le cô té droit du curseur.
ESC + B déplace le curseur d'un mot en arrière.
ESC + D supprime le mot sur le cô té droit du curseur.
ESC + F déplace le curseur vers l'avant d'un mot.
Des fonctions clés supplémentaires peuvent être utilisées pour effectuer des opérations
similaires, l'opération de recul a le même comportement que l'utilisation de CTRL + H pour
supprimer a la gauche du curseur. Les touches curseur gauche (←) et droite (→) peuvent
Ê tre utilisé pour effectuer la même opération que le raccourci CTRL + B et CTRL + F fonctions
clés. La touche de curseur vers le bas (↓) fonctionne comme Ctrl + N, et la touche de curseur vers
le haut (↑) agit comme une alternative à l'opération CTRL + P.
En outre, les fonctions de ligne de commande supportent un moyen d'achèvement automatique
où un mot de commande est unique. L'exemple montre comment l'interface de mot de
commande peut être complétée automatiquement par l'achèvement partiel de mot à tel point
que la commande est unique, suivie de la touche de tabulation qui fournira l'achèvement
automatique du mot de commande. Où le mot de commande n'est pas unique, la fonction
d'onglet parcourra le possible options d'achèvement chaque fois que vous appuyez sur la touche
de tabulation.
Il existe deux formes d'aide qui peuvent être trouvées dans le VRP, ces venez sous la forme d'une
aide partielle et complétez les fonctions d'aide. En entrant dans une chaîne de caractères suivie
directement par un point d'interrogation (?), VRP mettra en œuvre la fonction d'aide partielle
pour afficher toutes les commandes qui commencent par ce personage chaîne. Un exemple de
ceci est démontré. Dans le cas de la fonction d'aide complète, un point d'interrogation (?) Peut
être placé sur la ligne de commande à n'importe quelle vue à afficher vous les noms de
commandes possibles, ainsi que des descriptions pour toutes les commandes appartenant à
cette vue. De plus, la fonctionnalité d'aide complète prend en charge l'entrée d'un commande
suivie d'un point d'interrogation (?) Qui est séparé par un espace. Tout les mots clés associés à
cette commande, ainsi que des descriptions simples, sont puis affiché.
Pour la plupart des industries, il est probable que plusieurs dispositifs existent, chacun de
qui doit être géré. En tant que tel, l'une des premières tâ ches importantes de la mise en service
des périphériques implique la définition de noms de périphériques pour identifier
individuellement appareil dans le réseau. Le paramètre de nom de système sur le routeur de la
série AR2200 est configuré comme Huawei par défaut, pour la série S5720 de commuter par
défaut le nom du système est HUAWEI. La mise en œuvre du nom du système prend effet
immédiatement après la configuration.
L'horloge système reflète l'horodatage du système et peut être configure pour se conformer aux
règles d'une région donnée. L'horloge système doit être correctement configuré pour assurer la
synchronisation avec d'autres appareils et est calculé en utilisant la formule: Temps universel
coordonné (UTC) + Décalage du fuseau horaire + décalage de l'heure d'été. La commande
clocktime time est utilisée pour configure horloge système suivant la formule HH: MM: SS AAAA-
MM-DD. CA devrait etre noté cependant que si le fuseau horaire n'a pas été configuré ou est réglé
sur 0, la date et l'heure sont considérés comme UTC, il est donc recommandé que
Le fuseau horaire de l'horloge doit être réglé d'abord avant de configurer l'heure et la date du
système.
Le réglage du fuseau horaire local est réalisé à l'aide de la fuseau horaire ommande et est
implémenté en fonction du fuseau horaire-nom {ajouter | Moins} formule de décalage, où la
valeur ajoutée indique que l'heure du nom de zone horaire est égal à l'heure UTC plus le
décalage horaire et moins indique l'heure du fuseau horaire est égal à l'heure UTC moins le
décalage horaire.
Certaines régions exigent que l'heure d'été soit mise en œuvre pour maintenir la
synchronisation de l'horloge avec toute modification du fuseau horaire pendant périodes
spécifiques de l'année. VRP est capable de prendre en charge les fonctions d'économie de jour
pour les dates fixes et les dates qui sont déterminées en fonction d'un ensemble de règles
prédéterminées. Par exemple, l'heure d'été au Royaume-Uni se produit le dernier dimanche de
mars et le dernier dimanche d'octobre, donc des règles peuvent être appliquées pour s'assurer
que les changements surviennent en fonction de ces fluctuations rendez-vous.
La commande d'en-tête fournit un moyen d'afficher les notifications pendant la connexion à un
périphérique. L'en-tête de connexion indique un en-tête affiché lorsque la connexion du terminal
est activée et que l'utilisateur est authentifié par l'appareil. L'en-tête de la coque indique un en-
tête qui s'affiche lorsque la session est configurée, après que l'utilisateur se connecte au
périphérique. Les informations d'en-tête peut être appliqué en tant que chaîne de texte ou
récupéré à partir d'un fichier spécifié. Où une chaîne de texte est utilisée, un caractère de début
et de fin doit être défini comme un marqueur pour identifiez la chaîne d'information, où dans
l'exemple le "caractère définit la chaîne d'information. La chaîne représente une valeur comprise
entre 1 et 2000 ersonnages, y compris les espaces. La commande d'en-tête basée sur
l'information suit le format de l'en-tête {login | Shell} texte d'information où les informations
représente la chaîne d'informations, y compris les marqueurs de début et de fin.
Dans le cas d'un en-tête basé sur un fichier, l'en-tête de format {login | Shell} le nom du fichier
est appliqué, où file-name représente le répertoire et le fichier à partir duquel la chaîne
d'informations peut être récupérée.
Le système structure l'accès aux fonctions de commande hiérarchiquement pour protéger
sécurité du système. L'administrateur système définit les niveaux d'accès des utilisateurs qui
accordant les utilisateurs spécifiques ont accès à des niveaux de commande spécifiques. Le
niveau de commande d'un utilisateur est une valeur allant de 0 à 3, tandis que le niveau d'accès
de l'utilisateur est une valeur allant de 0 à 15. Le niveau 0 définit un niveau de visite pour lequel
l'accès à des commandes qui exécutent des outils de diagnostic réseau (comme ping et
traceroute), comme ainsi que des commandes telles que les connexions client telnet, et
sélectionnez l'affichage commandes.
Le niveau de surveillance est défini à un niveau utilisateur de 1 pour lequel les niveaux de
commande 0 et 1 peut être appliqué, ce qui permet à la plupart des commandes d'affichage
d'être utilisé, à l'exception des commandes d'affichage montrant le courant et l'enregistrement
configuration. Un niveau d'utilisateur de 2 représente le niveau de configuration pour lequel
Des niveaux de commande allant jusqu'à 2 peuvent être définis, permettant l'accès aux
commandes qui configurer les services réseau fournis directement aux utilisateurs, y compris le
routage et commandes de la couche réseau. Le niveau final est le niveau de gestion qui
Représente un niveau d'utilisateur de 3 à 15 et un niveau de commande allant jusqu'à 3,
Permettant l'accès aux commandes qui contrô lent les opérations système de base et
Fournir un soutien pour les services.
Ces commandes incluent le système de fichiers, FTP, TFTP, le changement de fichier de
configuration, contrô le de l'alimentation, contrô le du panneau de sauvegarde, gestion des
utilisateurs, réglage du niveau,
Le paramétrage interne du système et les commandes de débogage pour la faute
diagnostic. L'exemple donné montre comment un privilège de commande peut être a changé,
dans ce cas, la commande save trouvée sous la vue utilisateur nécessite un niveau de commande
de 3 avant que la commande puisse être utilisée.
Chaque interface utilisateur est représentée par une vue d'interface utilisateur ou une ligne de
commande vue fournie par le système. La vue de ligne de commande est utilisée pour configurer
et gère toutes les interfaces physiques et logiques en mode asynchrone. Utilisateurs désireux
d'interagir avec un périphérique sera nécessaire pour spécifier certains paramètres afin de
permettre à une interface utilisateur de devenir accessible. Deux formes communes d'interface
utilisateur implémentées sont l'interface de la console (CON) et l'interface du terminal télétexte
virtuel (VTY).
Le port de la console est un port série asynchrone fourni par le contrô le principal carte du
périphérique et utilise un nombre relatif de 0. VTY est un terminal logique ligne qui permet de
configurer une connexion lorsqu'un périphérique utilise des services telnet pour se connecter à
un terminal pour un accès local ou distant à un périphérique. Un maximum de 15 utilisateurs
peuvent utiliser l'interface utilisateur logique VTY pour se connecter au périphérique par
etendre la gamme de 0 à 4 obtenue en appliquant l'interface utilisateur commande maximum-
vty 15. Si le nombre maximum défini d'utilisateurs de connexion est 0, non-les utilisateurs
peuvent se connecter au routeur via telnet ou SSH. L'affichage la commande d'interface
utilisateur peut être utilisée pour afficher les informations pertinentes concernant l'interface
utilisateur.
Pour les interfaces de terminal console et VTY, certains attributs peuvent être appliqué pour
modifier le comportement comme un moyen d'étendre les fonctionnalités et améliorer la
sécurité. Un utilisateur permet à une connexion de rester au ralenti pour une donnée la période
de temps présente un risque de sécurité pour le système. Le système attendra un délai avant la
fin de la connexion. Ralenti la durée d'expiration de l'interface utilisateur est définie par défaut à
10 minutes.
Lorsqu'il peut être nécessaire d'augmenter ou de réduire le nombre de lignes affiché sur l'écran
d'un terminal lors de l'utilisation de la commande d'affichage pour par exemple, la commande de
longueur d'écran peut être appliquée. Ceci est par défaut défini pour 24 peut toutefois être
augmenté jusqu'à 512 lignes. Une longueur de l'écran de 0 n'est toutefois pas recommandée car
aucune sortie ne sera affiché.
Pour chaque commande utilisée, un enregistrement est enregistré dans la commande historique
tampon qui peut être récupéré via la navigation en utilisant le (↑) ou CTRL + P et les fonctions de
touches (↓) ou Ctrl + N. Le nombre de commandes enregistrées dans le tampon de commande de
l'historique peut être augmenté à l'aide de la commande maxsize d'historique-commande pour
définir jusqu'à 256 commandes stockées. Le nombre des commandes stockées par défaut sont
10
L'accès aux interfaces des terminaux utilisateurs fournit un point d'entrée clair pour les
utilisateurs non autorisés à accéder à un périphérique et à implémenter des modifications de
configuration.
En tant que tel, la capacité de restreindre l'accès et de limiter les actions peut être exécuté est
nécessaire comme moyen de sécurité du périphérique. La configuration de privilège et
l'authentification de l'utilisateur sont deux moyens par lesquels la sécurité du terminal
peut être amélioré. Le privilège utilisateur permet de définir un niveau utilisateur qui limite la
capacité de l'utilisateur à une gamme de commandes spécifique. Le niveau de l'utilisateur peut
être n'importe quelle valeur dans la gamme de 0 à 15, où les valeurs représentent un niveau de
visite (0), niveau de surveillance (1), niveau de configuration (2) et niveau de gestion (3)
avec respect.
L'authentification limite la capacité des utilisateurs à accéder à une interface de terminal par
demander que l'utilisateur soit authentifié à l'aide d'un mot de passe ou d'une combinaison de
nom d'utilisateur et mot de passe avant accès via l'interface utilisateur est accordée. dans le cas
de connexions VTY, tous les utilisateurs doivent être authentifiés avant l'accès
possible. Pour toutes les interfaces utilisateur, il existe trois modes d'authentification possibles,
la forme de l'AAA, l'authentification par mot de passe et la non-authentification. AAA
Fournit une authentification utilisateur avec une sécurité élevée pour laquelle un nom
d'utilisateur et le mot de passe doit être entré pour la connexion. L'authentification par mot de
passe exige que
Seul le mot de passe de connexion est nécessaire, un mot de passe unique peut être appliqué a
tous les utilisateurs. L'utilisation de la non authentification supprime toute authentification
appliquée a une interface utilisateur. Il convient de noter que l'interface de la console par défaut
Utilise le mode de non-authentification.
Il est généralement recommandé que, pour chaque utilisateur bénéficiant d'un accès Telnet,
l'utilisateur doit être identifié par le biais de noms d'utilisateur et de mots de passe permettant
distinction d'utilisateurs individuels. Chaque utilisateur devrait également se voir accorder un
privilege Niveaux, basés sur le rô le et la responsabilité de chaque utilisateur.
Pour exécuter des services IP sur une interface, une adresse IP doit être configure pour
l'interface. Généralement, une interface n'a besoin que de l'adresse IP principale. Dans
cas spéciaux, une adresse IP secondaire peut être configurée pour l’interface. Par exemple,
lorsqu'une interface d'un routeur tel que l'AR2200 se connecte à un réseau physique, et les hô tes
sur ce réseau physique appartiennent à deux segments de réseau.
Afin de permettre à l'AR2200 de communiquer avec tous les hô tes sur le plan physique réseau,
configurez une adresse IP primaire et une adresse IP secondaire pour interface. L'interface n'a
qu'une seule adresse IP principale. Si une nouvelle IP primaire l'adresse est configurée sur une
interface qui possède déjà une adresse IP principale, la nouvelle adresse IP remplace l'original.
L'adresse IP peut être configuré pour une interface à l'aide de la commande ip address <ip-
address> { Masque | Masque-longueur} où le masque représente le masque de sous-réseau à 32
bits, par ex. 255.255.255.0, et la longueur du masque représente la valeur de longueur de
masque alternative par exemple. 24, qui peuvent être utilisés de façon interchangeable.
L'interface de bouclage représente une interface logique appliquée à représentent un réseau ou
une adresse hô te IP, et est souvent utilisé comme une forme d’interface de gestion à l'appui d'un
certain nombre de protocoles par lesquels la communication est faite à l'adresse IP de l'interface
de bouclage, comme opposition à l'adresse IP de l'interface physique sur laquelle sont données
reçu.
summary
how many users are able to connect via the console interface at any given time?
what is the state of the loopback interface 0 when the command loopback interface 0
is used?
Préface
Le système de fichiers représente la plate-forme sous-jacente sur laquelle fonctionne VRP, et où
le système les fichiers sont stockés dans les périphériques de stockage physique du produit. La
capacité de naviguer et gérer ce système de fichiers est nécessaire pour assurer la gestion
efficace des fichiers de configuration, les mises à niveau du logiciel VRP et veille à ce que les
périphériques physiques contenus dans chaque produit sont bien entretenus.
 objectifs
À la fin de cette section, les stagiaires seront en mesure de:
Naviguez avec succès sur le système de fichiers de l'appareil
Manipuler le système de fichiers et les dossiers
Gérer le routeur huawei et changer les périphériques de stockage
Le système de fichiers gère les fichiers et les répertoires sur les périphériques de stockage. Ça
peut créer, supprimer, modifier ou renommer un fichier ou un répertoire, ou afficher le contenu
de un fichier.
Le système de fichiers comporte deux fonctions: la gestion des périphériques de stockage et la
gestion des fichiers stockés sur ces périphériques. Un certain nombre de répertoires sont définis
dans lequel les fichiers sont stockés dans une hiérarchie logique. Ces fichiers et repertoires peut
être géré par un certain nombre de fonctions qui permettent la modification ou l'affichage des
répertoires, l'affichage des fichiers dans ces répertoires ou sous-répertoires, ainsi que la création
ou la suppression de répertoires.
Des exemples communs de commandes de système de fichiers pour la navigation générale
incluent la commande cd utilisée pour modifier le répertoire actuel, pwd pour afficher le
Répertoire actuel et dir pour afficher le contenu d'un répertoire tel qu'indiqué dans le
Exemple. L'accès au système de fichiers est obtenu à partir de la vue utilisateur.
La modification des répertoires existants du système de fichiers se rapporte généralement à
capacité à créer et à supprimer des répertoires existants dans le système de fichiers. Deux
commandes communes qui sont utilisées dans ce cas. La commande de répertoire mkdir est
utilisé pour créer un dossier dans un répertoire spécifié sur un espace réservé périphérique, où
le répertoire se réfère au nom donné au répertoire et pour lequel le nom du répertoire peut être
une chaîne de 1 à 64 caractères. Pour supprimer dans le système de fichiers, la commande de
répertoire rmdir est utilisée, avec répertoire se référant à nouveau au nom du répertoire. Il
convient de noter qu'un répertoire ne peut être supprimé que si aucun fichier ne contient
annuaire
La modification des fichiers dans un système de fichiers comprend la copie, le déplacement,
renommage, compresser, supprimer, supprimer, supprimer des fichiers dans la corbeille,
l'exécution de fichiers en lots et la configuration des modes d'invite. Création d'un duplicata d’un
fichier existant peut être effectué en utilisant la commande copy source-filename
destinationfilename, où si le nom de destination-fil est le même que celui d'un fichier existant
(source-filename), le système affichera un message indiquant que le fichier existant sera
remplacé. Un nom de fichier cible ne peut pas être identique à celui d'un fichier de démarrage,
sinon le système affiche un message indiquant que l'opération est invalide et que le fichier est un
fichier de démarrage.
La commande move-filename destination-filename peut être utilisée pour déplacer des fichiers
vers un autre répertoire. Après la commande de déplacement a été exécuté avec succès, le fichier
d'origine est coupé et déplacé vers le fichier de destination. Il convient toutefois de noter que la
commande de déplacement peut seulement déplacer des fichiers dans le même périphérique de
stockage.
Pour supprimer des fichiers dans un système de fichiers, la fonction de suppression peut être
appliquée en utilisant la commande delete [/ unreserved] [/ force] {filename | nom de
l'appareil}. Généralement, les fichiers qui sont supprimés sont dirigés vers une corbeille à partir
de laquelle les fichiers peut être récupéré à l'aide de la suppression de {filename | Nom du
périphérique},
Toutefois, si la commande / non réservée est utilisée, le fichier sera définitivement supprimé. Le
système affichera généralement un message demandant confirmation de la suppression des
fichiers, cependant, si le paramètre / force est inclus, non une invite sera donnée. Le paramètre
de nom de fichier se réfère au fichier qui doit être supprimé, tandis que le paramètre device-
name définit l'emplacement de stockage.
Lorsqu'un fichier est dirigé vers la corbeille, il n'est pas définitivement supprimé et peut être
facilement récupéré. Afin de s'assurer que ces fichiers dans la corbeille sont supprimés en
permanence, la commande reset recycle-bin [filename] peut être appliqué, où le paramètre de
nom de fichier peut être utilisé pour définir un fichier spécifique pour suppression permanente.
Lorsqu'il est mis sous tension, le périphérique récupère les fichiers de configuration à partir
d'une sauvegarde par défaut chemin pour l'initialiser lui-même, qui est ensuite stocké dans la
RAM de l'appareil. Si les fichiers de configuration n'existent pas dans le chemin d'enregistrement
par défaut, le routeur utilise par défaut paramètres d'initialisation.
Le fichier de configuration actuel indique les configurations en vigueur sur le fonctionnement
reel. Lorsque la configuration est enregistrée, la configuration en cours est stockée dans un
fichier de configuration enregistré dans l'emplacement de stockage de l'appareil. Si le
périphérique a chargé le fichier de configuration actuel en fonction de paramètres
d'initialisation par défaut, un fichier de configuration sauvegardé n'existera pas dans le
emplacement de stockage du chemin de sauvegarde par défaut, mais sera généré une fois que la
configuration actuelle est enregistrée.
En utilisant la commande de configuration actuelle de l'écran, les paramètres de l'appareil qui
prennent l'effet peut être recherché. Si les valeurs par défaut de certains paramètres sont
utilisées, Ces paramètres ne sont pas affichés. La commande de configuration actuelle comprend
un certain nombre de paramètres permettant de filtrer la liste de commandes pendant
l'utilisation de la fonction d'affichage. La configuration actuelle de l'écran | begin {regular-
expression} est un exemple de la façon dont la configuration actuelle peut etre utilisé pour
afficher les paramètres actifs qui commencent par un mot-clé spécifique ou expressions. Une
alternative à cette commande est la configuration actuelle de l'affichage | Inclure {expression
régulière} qui permet des paramètres qui inclure un mot-clé ou une experssion spécifique dans
le fichier de configuration actuel.
L'affichage a été enregistré-configuration [last | Time] montre la sortie du stockage fichier de
configuration utilisé au démarrage pour générer la configuration actuelle. Où le dernier
paramètre est utilisé, il affiche le fichier de configuration utilisé dans le courant commencez. Le
fichier de configuration est affiché uniquement lorsqu'il est configuré pour le démarrage en
cours. Le paramètre de temps affiche l'heure à laquelle la configuration a été sauvée pour la
dernière fois.
L'utilisation de la commande save [configuration-file] sauvegarde la configuration actuelle sur
un chemin de stockage par défaut. Le paramètre de fichier de configuration permet les
informations de configuration actuelles à enregistrer dans un fichier spécifié. Fonctionnement la
commande save avec le paramètre de fichier de configuration n'affecte pas le fichier de
configuration de démarrage actuel du système. Lorsque le fichier de configuration est l’identique
au fichier de configuration stocké dans le chemin de stockage par défaut du système, la fonction
de cette commande est identique à celle de la commande save.
L'exemple démontre l'utilisation de la commande save pour enregistrer la configuration actuelle,
qui par défaut sera stockée dans le fichier par défaut vrpcfg.zip dans la emplacement de stockage
par défaut de l'appareil.
Le fichier de configuration sauvegardé actuellement utilisé peut être découvert grâ ce à
l'utilisation de la commande de démarrage de l'affichage. En outre, la commande de démarrage
de l'affichage peut etre utilisé pour interroger le nom du fichier logiciel système actuel, le nom
du prochain fichier logiciel système, le nom du fichier logiciel du système de sauvegarde, les
noms des quatre fichiers logiciels système actuellement utilisés (si utilisés) et les noms de la
prochaine quatre fichiers logiciels système. Les quatre fichiers logiciels système sont les
Le fichier de configuration susmentionné, le fichier vocal, le fichier patch et le fichier de licence.
Après la découverte du fichier de configuration enregistré de démarrage, il se peut que
nécessaire de définir un nouveau fichier de configuration à charger au prochain démarrage. Si un
fichier de configuration spécifique n'est pas spécifié, le fichier de configuration par défaut sera
chargé au prochain démarrage.
L'extension de fichier du fichier de configuration doit être .cfg ou .zip, et le fichier doit être
stocké dans le répertoire racine d'un périphérique de stockage. Lorsque le routeur est allumé, il
lit le fichier de configuration de la mémoire flash par défaut pour initialiser. Les données de ce
fichier de configuration sont la configuration initiale. Sinon le fichier de configuration est
enregistré dans la mémoire flash, le routeur utilise par défaut paramètres à initier.
Grâ ce à l'utilisation du démarrage sauvegardé [configuration-file] où le paramètre de fichier de
configuration est le fichier de configuration à utiliser au démarrage, il est possible de définir un
nouveau fichier de configuration à initialiser au prochain système commencez.
Lorsque la commande de comparaison [configuration-file] [current-line-number saveline-
number] est utilisée, le système effectue une comparaison ligne par ligne de la configuration
enregistrée avec la configuration actuelle à partir de la première ligne. Si les paramètres du
numéro de ligne d'enregistrement du numéro de ligne actuel sont spécifiés, le système ignore la
configuration non pertinente avant les lignes comparées et continue de trouver des différences
entre les fichiers de configuration.
Le système procédera alors à la sortie des différences de configuration entre la configuration
enregistrée et les fichiers de configuration actuels. La comparaison les informations de sortie
sont limitées à 150 caractères par défaut. Si la comparaison nécessite moins de 150 caractères,
toutes les variations jusqu'à la fin de deux fichiers sont affiché.
La commande de réinitialisation de la configuration enregistrée est utilisée pour supprimer un
périphérique fichier de configuration de démarrage à partir du périphérique de stockage.
Lorsqu'il est exécuté, le système compare les fichiers de configuration utilisés dans le démarrage
actuel et le prochain démarrage lors de la suppression du fichier de configuration du routeur.
Si les deux fichiers de configuration sont identiques, ils sont supprimés en même temps une fois
cette commande exécutée. Le fichier de configuration par défaut est utilisé lorsque le routeur est
lancé la prochaine fois. Si les deux fichiers de configuration sont différents, le fichier de
configuration utilisé dans le démarrage actuel est supprimé après cette commande est réalisé.
Si aucun fichier de configuration n'est configuré pour le démarrage actuel du périphérique, le
système affiche un message indiquant que le fichier de configuration n'existe pas après cette
commande est exécutée. Une fois la commande de réinitialisation enregistrée est utilisé, une
invite sera donnée pour confirmer l'action, pour laquelle l'utilisateur est devrait confirmer,
comme le montre l'exemple.
Les périphériques de stockage dépendent du produit et comprennent la mémoire flash, SD
Cartes ou lecteurs flash USB. Le routeur AR2200E, par exemple, possède un système intégré
Mémoire flash et une carte SD intégrée (dans la fente sd1). Le routeur fournit deux
Fentes USB réservées (usb0 et usb1) et une fente pour carte SD (sd0). Pour la S5700
Il comprend une mémoire flash intégrée avec une capacité qui varie en fonction de la
Modèle, avec 64 Mo pris en charge dans les S5700C-HI, S5700-LI, S5700S-LI et
Modèles S5710-EI et 32 Mo pour tous les autres. Les détails concernant le Huawei
Les périphériques de stockage de produits peuvent être détaillés en utilisant la version
d'affichage commande comme indiqué.
Le formatage d'un périphérique de stockage entraînera vraisemblablement la perte de tous les
fichiers sur le périphérique de stockage et les fichiers ne peuvent pas être restaurés, il faut donc
Ê tre pris lors de l'exécution d'une commande de format et devrait être évité à moins que
absolument nécessaire. La commande format [périphérique de stockage] est utilisée le long de
paramètre du périphérique de stockage pour définir l'emplacement de stockage qui est doit être
formaté.
Lorsque l'appareil terminal affiche que le système a échoué, le répartiteur la commande peut
être utilisée pour tenter de réparer le système de fichiers anormal dans le stockage mais il ne
garantit pas si le fichier le système peut être restauré avec succès. Puisque la commande est
utilisée pour rectifier problèmes, si aucun problème n'est survenu dans le système, il n'est pas
recommandé que cette commande doit être exécutée. Il convient également de noter que cette
commande ne fonctionne pas rectifier les problèmes de niveau de périphérique.
Résumé
Qu'est-ce que le d dans l'attribut drwx du système de fichiers représente?
Comment un fichier de configuration est-il stocké dans le système de fichiers? Un périphérique
doit-il être mis en place pour être utilisé par le périphérique?
Préface
L'administration et la gestion efficaces du réseau au sein d'un réseau d'entreprise reposent sur
tous les périphériques prenant en charge les fichiers de sauvegarde en cas de panne système ou
d'autres événements cela pourrait entraîner la perte de fichiers et de données importants du
système. Serveurs distants qui utilisent le service de protocole de transfert de fichiers (FTP) est
souvent utilisé pour garantir la maintenance des fichiers a des fins de sauvegarde et de
récupération au besoin. Les moyens d'établir la communication avec de tels services
d'application est présentée dans cette section.
objectifs
À la fin de cette section, les stagiaires seront en mesure de:
Expliquer l'importance de maintenir des versions à jour de VRP
É tablir une relation client avec un serveur FTP
Mettre à niveau avec succès une image système VRP
La plate-forme VRP est constamment mise à jour pour maintenir l'alignement avec les
changements dans la technologie et de soutenir de nouvelles avancées dans le matériel. L'image
VRP est généralement défini par une version VRP et un numéro de version produit.
Les produits Huawei de la série ARG3 et Sx7 s'harmonisent généralement avec VRP version 5 à
laquelle différentes versions de produits sont associées.
À mesure que la version du produit augmente, les fonctionnalités prises en charge par les
version. Le format de version du produit comprend un code de produit Vxxx, Rxxx désigne une
version de version majeure et Cxx une version de version mineure. Si un service pack est utilisé
pour corriger la version du produit VRP, une valeur SPC peut également être inclus dans le
numéro de version du produit VRP. Exemples typiques de la VRP les mises à niveau de version
pour l'AR2200E incluent:
Version 5.90 (AR2200 V200R001C00)
Version 5.110 (AR2200 V200R002C00)
Version 5.160 (AR2200 V200R007C00)
Le transfert de fichier se réfère aux moyens par lesquels les fichiers sont envoyés ou récupérés à
partir d'un serveur distant ou emplacement de stockage. Dans le réseau IP, cette application
peut etre mis en œuvre pour un large éventail d'objectifs. Dans le cadre d'une pratique efficace, il
est commun pour les fichiers importants, être dupliqués et sauvegardés dans une télécommande
emplacement de stockage pour éviter toute perte qui affecterait les systèmes critiques
opérations. Cela comprend des fichiers tels que l'image VRP de produits qui (Si l'image existante
souffre de perte grâ ce à l'utilisation de la commande de format ou autres formes d'erreur), peut
être récupéré à distance et utilisé pour récupérer le système opérations. Des principes similaires
s'appliquent aux fichiers de configuration importants et maintenir les enregistrements d'activité
dans les périphériques stockés dans les fichiers journaux, qui peuvent être stocké à long terme
dans le serveur distant.
FTP est un protocole d'application standard basé sur la suite de protocoles TCP / IP et utilisé
pour transférer des fichiers entre des clients locaux et des serveurs distants. FTP utilise les deux
connexions TCP pour copier un fichier d'un système à un autre. Les connexions TCP sont
généralement établies en mode client-serveur, une pour le contrô le (le numéro de port du
serveur est 21) et l'autre pour la transmission de données (le port de separation est de 20). FTP
comme protocole de transfert de fichiers est utilisé pour contrô ler les connexions par délivrer
des commandes du client (RTA) au serveur et transmettre des réponses du serveur au client,
minimisant le délai de transmission. En terme de la transmission de données, le FTP transmet
des données entre le client et le serveur, maximisant le débit.
Le protocole de transfert de fichiers triviales (TFTP) est un protocole de transfert de fichier
simple qu'un routeur peut fonctionner comme un client TFTP pour accéder aux fichiers sur un
serveur TFTP.
Contrairement à FTP, TFTP n'a pas d'interface d'accès interactif complexe et contrô le
d'authentification. La mise en œuvre de TFTP est basée sur l'utilisateur datagram Protocol
(UDP). Le client lance le transfert TFTP. Télécharger fichiers, le client envoie un paquet de
demande de lecture au serveur TFTP, reçoit paquets du serveur et renvoie une accusé de
réception au serveur. À télécharger des fichiers, le client envoie un paquet de demande
d'écriture au serveur TFTP, envoie paquets au serveur, et reçoit l'accusé de réception du
serveur.
L'exemple montre comment la connexion entre un serveur FTP et un client est établi afin de
récupérer une image VRP qui peut être utilisée dans le cadre de le processus de mise à niveau du
système. Avant tout transfert de données, il est nécessaire d’etablissez la connectivité sous-
jacente sur laquelle les fichiers peuvent être transférés. Ca commence par fournir un adressage
IP approprié pour le client et le serveur. Où les périphériques sont directement connectés, des
interfaces peuvent être appliquées qui appartiennent au même réseau. Où les périphériques
appartiennent à des réseaux situés sur une grand zone géographique, les dispositifs doivent
établir un adressage IP approprié au sein de leur réseaux donnés et pouvoir découvrir un
chemin de réseau pertinent sur IP via quelle connectivité client / serveur peut être établie.
Un utilisateur doit déterminer pour toute mise à niveau du système pour savoir s'il existe
space de stockage adéquat dans lequel stocker le fichier qui doit être récupéré. Les commandes
du système de fichiers peuvent être utilisées pour déterminer l'état actuel du fichier système, y
compris les fichiers actuellement présents dans le stockage de fichiers emplacement de
l'appareil et aussi l'espace disponible actuellement. Où l'espace de stockage n'est pas suffisant
pour le transfert de fichiers, certains fichiers peuvent être supprimés ou téléchargés sur le
serveur FTP dans le cas où ils pourraient encore être requis pour usage futur.
La récupération de fichiers à partir d'un serveur FTP requiert une connexion etabli d'abord
avant que tout transfert de fichier puisse avoir lieu. Au sein du client périphérique, le service ftp
est lancé en utilisant ftp <adresse ip> où adresse IP se rapporte à l'adresse du serveur FTP
auquel le client souhaite relier. Les connexions FTP seront établies à l'aide de TCP et nécessitent
l'authentification sous la forme d'un nom d'utilisateur et d'un mot de passe qui est défini par le
serveur FTP. Une fois l'authentification réussie, le client aura un accès établi au serveur FTP et
pourra utiliser une variété de commandes pour afficher les fichiers existants stockés dans le
courant local répertoire du serveur.
Avant la transmission du fichier, l'utilisateur peut être obligé de définir le type de fichier pour
lequel deux formats existent, ASCII et Binary. Le mode ASCII est utilisé pour le texte, dans lequel
les données sont converties de la représentation du personnage de l'expéditeur vers "ASCII 8
bits" avant la transmission, puis à la représentation du personnage du destinataire.
Le mode binaire, d'autre part, exige que l'expéditeur envoie chaque octet de fichier pour octet.
Ce mode est souvent utilisé pour transférer des fichiers image et des fichiers de programme, et
devrait être appliqué lors de l'envoi ou de la récupération d'un fichier image VRP. Par exemple,
la commande get vrp.cc a été émise pour récupérer le nouveau image VRP située dans le serveur
distant.
Dans le cas où le client souhaite récupérer une image VRP à partir d'un TFTP serveur, une
connexion au serveur ne doit pas nécessairement être établie. Au contraire, le client doit définir
le chemin d'accès au serveur dans la ligne de commande, ainsi que l'opération qui doit être
effectuée. Il convient également de noter que les modèles AR2200E et S5720 servent
uniquement de client TFTP et transfèrent des fichiers uniquement en format binaire. Comme le
montre l'exemple, la commande get est pour la récupération du fichier image VRP à partir du
serveur TFTP suite à la définition de l'adresse de destination du serveur TFTP.
Le transfert du fichier d'image VRP vers le client une fois obtenu avec succès, exige que l'image
soit activée en tant que logiciel de démarrage du système pendant le prochain processus de
démarrage du système. Pour modifier la version du logiciel système, la commande start-up du
system-software doit être exécutée et inclure le système du fichier logiciel est utiliser dans le
prochain démarrage. Un fichier logiciel système doit utiliser .cc comme l'extension de nom de
fichier, et le fichier logiciel système utilisé dans le prochain démarrage ne peut pas être utilisé
dans le démarrage actuel.
De plus, le répertoire de stockage d'un fichier logiciel système doit être la racine dépertoire,
sinon le fichier ne fonctionnera pas. La commande de démarrage de l'affichage devrait être
utilisé pour vérifier que la modification du system-software de démarrage a été effectuée avec
succès. La sortie du logiciel système de démarrage devrait montrer l'image VRP existante, alors
que le prochain logiciel système de démarrage devrait afficher l'image VRP transférée qui est
maintenant présente dans la racine répertoire de l'appareil.
La confirmation du system-software de démarrage permet l'initiation sur system-software
pendant le prochain démarrage du système. Pour appliquer les changements et permettre que le
nouveau logiciel système prenne effet, l'appareil doit être redémarré. La commande de
redémarrage peut être utilisée pour lancer le système redémarrer. Au cours du processus de
redémarrage, une invite s'affiche en demandant confirmation concernant le fichier de
configuration pour le prochain système le démarrage sera sauvegardé.
Dans certains cas, le fichier de configuration enregistré peut être effacé par l'utilisateur dans
l'ordre pour permettre la mise en œuvre d'une nouvelle configuration. Devrait-il avoir s'est
produite, l'utilisateur est censé définir une réponse de «non» au «Continuer»
rapide. Si l'utilisateur choisit «oui» à ce stade, la configuration actuelle sera réécrit au fichier de
configuration sauvegardé et appliqué une fois de plus au cours de la prochaine commencez. Si
l'utilisateur ignore les modifications pour lesquelles l'invite de sauvegarde est fournissant un
avertissement, il est recommandé que l'utilisateur choisisse 'non' ou 'n' et effectuer une
comparaison de la configuration enregistrée et actuelle pour vérifier le changements. Pour
l'invite de redémarrage, une réponse de 'oui' ou 'y' est requise pour complétez le processus de
redémarrage.
résumé
Qu’est ce qui devrait être configuré sur le client afin d'établir une connexion avec un serveur
FTP?
Comment un utilisateur peut-il confirmer que les modifications apportées au logiciel de
démarrage ont pris effet après un redémarrage du périphérique?
Préface
L'introduction d'un dispositif de commutation dans le cadre de l'entreprise networkk démontre
comment les réseaux peuvent étendre les connexions point à point et les réseaux partagés dans
lesquels est présentée au réseau local est détaillée avec une compréhension de la
La manipulation des images de type unicast et broadcast, pour démontrer que les interrupteurs
Ho permettent au réseau de surmonter les obstacles de performance des réseaux partagés
objectifs
À la fin de cette section, les stagiaires seront en mesure de:
Expliquer le processus décisionnel d'un interrupteur de couche de liaison
Configurer les paramètres de négociation sur un interrupteur de couche de liaison
À mesure que le réseau de l'entreprise se développe, plusieurs utilisateurs doivent être établis
comme une partie d'un réseau multi-accès. L'évolution des technologies de réseau a vu un
déplacement des réseaux locaux partagés, vers des réseaux qui soutiennent plusieurs domaines
de collision et supportent l'utilisation de formes de médias 100BaseT qui a isolé la transmission
et la réception des données sur des paires de fils séparées, eliminant ainsi le risque de collision
et permettant une augmentation de la quantité de taux de transmission duplex. L'établissement
d'un commutateur apporte la capacité pour une densité de port accru pour permettre la
connexion d'un plus grand nombre de fin système dans un seul réseau local. Chaque système
final ou hô te dans un réseau local, il faut être connecté dans le même IP éseau afin que la
communication soit facilitée à la couche réseau. l'adresse IP est cependant uniquement
pertinente pour les systèmes hô tes car les périphériques de commutation opérer dans le cadre
de la couche de lien et donc compter sur MAC adressage pour le transfert de trame.
En tant que périphérique de couche de liaison, chaque commutateur repose sur un tableau basé
sur MAC qui fournit association entre une adresse MAC de destination et l'interface de port via
Quel cadre doit être transféré. Ceci est communément appelé MAC table d'adresse.
L'initiation d'un commutateur commence avec le commutateur sans connaissance des systèmes
et la façon dont les images reçues des systèmes finaux devraient être transmises. Il est
nécessaire que les entrées de génération de commutateur dans la table d'adresses MAC à
déterminer le chemin que chaque image reçue devrait prendre pour atteindre une destination
donnée, afin de limiter le trafic de diffusion dans le réseau local.
Ces chemin d'accès sont remplies dans la table d'adresses MAC à la suite des trames reçus des
systèmes finaux. Dans l'exemple, l'hô te A a transmis une frame to Switch A, qui n'a actuellement
aucune entrée dans sa table d'adresses MAC.
La trame qui est transmis à partir de l'hô te A contient une adresse MAC diffuse entrée dans le
champ d'adresse de destination de l'en-tête de trame. L'adresse source contient l'adresse MAC
du périphérique peering, dans ce cas, l'hô te A. Ceci l'adresse MAC source est utilisée par le
commutateur pour remplir le MAC table d'adresse, en associant l'entrée MAC dans le champ
d'adresse source avec l'interface du port de commutation sur laquelle le cadre a été reçu.
L'exemple démontre comment l'adresse MAC est associée à l'interface de port à permettre que
tout trafic de retour vers cette destination MAC soit transmis directement via l'interface
associée.
Le comportement général d'une requête ARP implique que la trame soit inondée toutes les
destinations prévues principalement en raison de la diffusion MAC (FF: FF: FF: FF: FF: FF) qui
représente la destination actuelle. Le commutateur est donc responsable de transférer ce cadre
de chaque interface portuaire avec exception à l'interface de port sur laquelle la trame a été reçu,
dans une tentative pour localiser la destination IP prévue comme indiqué dans l'en-tête ARP
pour lequel une réponse ARP peut être générée. Comme démontré dans l'exemple, individual les
cadres sont inondés du commutateur via les interfaces de port G0 / 0/2 et G0 / 0/3 vers les
hô tes B et l'hô te C respectivement.
À la suite de l'en-tête de requête ARP, l'hô te récepteur est en mesure de determiner que l'en-tête
ARP est destiné à la destination IP 10.1.1.3, avec l'adresse source locale (MAC) à partir de
laquelle l'image est originaire, et utilisez cette des informations pour générer une réponse
unicast. L'information concernant Host A est associé à l'adresse IP 10.1.1.3 et stocké dans
l'adresse MAC table de l'hô te C. Ce faisant, la génération du trafic de diffusion est minimisée,
réduisant ainsi le nombre d'interruptions aux destinations locales ainsi que réduction du
nombre d'images propagant le réseau local.
Une fois que la trame est reçu de l'hô te C par le commutateur A, le commutateur va peupler la
table d'adresses MAC avec l'adresse MAC source de la trame reçue, et associez-le à l'interface de
port sur laquelle le cadre a été reçu. Le passer ensuite à la table d'adresses MAC pour effectuer
une recherche, afin de découvrez l'interface de transfert, en fonction de l'adresse MAC de
destination de le trame. Dans ce cas, l'adresse MAC de trame se réfère à l'hô te A, pour une entrée
existe maintenant via l'interface G0/0/1, ce qui permet à la trame d'être transmis à la
destination connue.
Les systèmes Ethernet précoce fonctionnent selon un mode demi-duplex de 10Mbps et des
mécanismes appliqués tels que CSMA/CD pour assurer la stabilité du système. La transition vers
un moyen de paire torsadée a donné lieu à l'émergence d'un duplex integral ethernet, qui a
considérablement amélioré les performances Ethernet et signifiait deux forms de duplex
pourrait être négocié. La technologie de négociation automatique permet des Nouvelles les
systèmes Ethernet sont compatibles avec les systèmes Ethernet antérieurs.
En mode de négociation automatique, les interfaces aux deux extrémités d'un lien négocient
leurs paramètres de fonctionnement, y compris le mode duplex, le débit et le contrô le de flux. Si
la négociation réussit, les deux interfaces fonctionnent avec le même paramètre. Dans certains
cas, il est nécessaire de définir manuellement paramètres de négociation, tels que les interfaces
gigabit Ethernet qui sont en mode de négociation automatique sont connectés via un réseau de
100 Mbps câ ble. Dans de tels cas, la négociation entre les interfaces échouera.
En raison de différents modèles de produits, les commutateurs HUAWEI peuvent ne pas
supporter le modifiez le mode duplex de port, voir le manuel du produit.
Dans le cas où les paramètres de configuration pour la négociation sont modifies en utilisant la
négociation automatique, les paramètres définis doivent être vérifiés en utilisant la commande
<interface> de l'interface d'affichage pour vérifier que les paramètres permettent de réussir la
négociation de l'interface de la couche de liaison. C’est vérifié par l'état actuel du protocole de
ligne affiché en HAUT. l'information affichée reflète les paramètres actuels des paramètres d'une
interface.
résumé
Si un commutateur enregistre l'adresse MAC source d'un périphérique hô te sur une interface de
port, et la connexion physique de l'hô te est ensuite changée en une autre interface de port sur le
Switch, quelles mesures le commutateur prendrait-il?
Préface
Au fur et à mesure que le réseau d'entreprise se développe, des réseaux multi-commutateurs
sont introduits pour fournir un lien couche de communication entre un nombre croissant et des
systèmes. Comme nouvelles interconnexions sont formés entre plusieurs commutateurs
d'entreprise, de nouvelles opportunités pour construire des réseaux résilients sont rendus
possibles, mais le potentiel de commutation d'échec en tant que le résultat des boucles devient
de plus en plus probable. Il faut que le protocole de l'arborescence (STP) sont donc compris en
termes de comportement dans la prévention des boucles de commutation, et comment Il peut
être maipulé pour s'adapter à la conception et aux performances du réseau d'entreprise.
objectifs
DANS L'EXÉ CUTION DE CETTE SECTION, LES TRAINEES PEUVENT:
Décrivez les problèmes rencontrés lors de l'utilisation d'un réseau multi-commutateur.
Expliquer le processus de prévention de la boucle du protocole de l'arborescence.
Configurez les paramètres pour gérer la conception du réseau STP.
La croissance de l'entreprise entraîne la mise en service de commutateurs multiples afin de
soutenir l'interconnectivité des systèmes finaux et des services requis quotidiennement des
opérations. Cependant, l'interconnexion de plusieurs commutateurs apporte des défis qui
doivent être résolus. Les commutateurs peuvent être établis comme des liaisons point-à -point
par lesquels les systèmes finaux peuvent transférer des images vers destinations situées via
d'autres commutateurs dans le domaine de diffusion. L'échec de n'importe quel lien de
commutation point à point entraîne l'immédiatb isolement de l'interrupteur en aval et tous les
systèmes finaux auxquels le lien est connecté. Pour résoudre ce problème, la redondance est
fortement recommandée dans n'importe quel réseau de commutation.
Les liaisons redondantes sont donc généralement utilisées sur une commutation Ethernet
réseau pour fournir une sauvegarde de lien et améliorer la fiabilité du réseau. L'utilisation des
liens redondants, cependant, peuvent générer des boucles qui provoquent la qualite
communication se détériore considérablement et les interruptions majeures de la
communication service à effectuer.
L'un des effets initiaux des boucles de commutation redondantes se présente sous la forme de
tempêtes de diffusion. Cela se produit lorsqu'un système final tente de découvrir une destination
pour laquelle ni elle-même ni les commutateurs le long du chemin de commutation
sont conscients de sa presence. Une émission est donc générée par le système final qui est
inondé par l'interrupteur de réception.
L'effet d'inondation signifie que la trame est transmis via toutes les interfaces avec exception à
l'interface sur laquelle la trame a été reçu. Dans l'exemple, host A génère une trame, qui est reçu
par Switch B qui est Ultérieurement transmis de toutes les autres interfaces. Une instance de la
trame est reçu par les interrupteurs connectés A et C qui, à leur tour, inoncent la trame de toutes
les autres interfaces. L'effet d'inondation continu entraîne à la fois le Switch A et commutez les
instances d'inondation C du cadre d'un commutateur à l'autre, qui à son tour est inondé vers le
Switch B, et donc le cycle se poursuit. En outre, l'effet d'inondation répété entraîne plusieurs
instances de la trame et etre reçu par les stations finales, causer des interruptions et des
extremes changer la dégradation des performances.
Les commutateurs doivent conserver des enregistrements du chemin par lequel une destination
est accessible. Ceci est identifié par l'association de l'adresse MAC source de trame avec
l'interface sur laquelle la trame a été reçu. Une seule instance d'une adresse MAC peut être
stocké dans la table d'adresses MAC d'un commutateur, et où une deuxième instance de
l'adresse MAC est reçue, la plus récente information prévaut.
Dans l'exemple, le commutateur B met à jour la table d'adresses MAC avec le MAC adresse de
l'hô te A et associe cette source à l'interface G0/0/3, le port interface sur laquelle la trame a été
reçu. Comme les cadres sont incontrô lables inondé dans le réseau de commutation, un cadre est
de nouveau reçu avec la même adresse MAC source comme hô te A, mais cette fois-ci, la trame est
reçu sur interface G0/0/2. Le commutateur B doit donc supposer que l'hô te qui était
initialement accessible via l'interface G0/0/3 est maintenant accessible via G0/0/2 et mettez à
jour la table d'adresse MAC en conséquence. Le résultat de ce processus conduit à l'instabilité du
MAC et continue à se produire sans fin entre le port du commutateur les interfaces se connectant
au commutateur A et au commutateur C car les images sont inondées les deux directions dans le
cadre de l'effet de la tempête de diffusion.
Le défi pour le réseau de commutation réside dans la capacité de maintenir la commutation
redondance pour éviter l'isolement des systèmes finaux en cas de changement de système ou
l'échec de la liaison et la capacité d'éviter les effets néfastes des boucles de commutation dans
une topologie de commutation qui implémente la redondance. La résultante depuis plusieurs
années, la solution a été de mettre en œuvre le protocole de l'arborescence (STP) afin d'éviter les
effets des boucles de commutation. Travaux d'arpentage sur le principe que les liens redondants
soient logiquement désactivés pour fournir une boucle libre la topologie, tout en permettant
d'activer dynamiquement les liens secondaires dans l'événement qu'une erreur se produise le
long du chemin de commutation primaire, ce qui requis pour la redondance du réseau dans une
topologie sans boucle. La commutation des périphériques exécutant STP découvrent des boucles
sur le réseau en échangeant des informations entre eux, et bloquez certaines interfaces pour
couper les boucles. STP a continué d'être un protocole important pour le LAN depuis plus de 20
ans.
L'élimination de tout potentiel pour les boucles sert d'objectif principal de l'extension
arbre pour lequel une architecture de type arbre inversé est formée. À la base de cette
arbre logique est le pont/racine. Le pont racine représente la logique centre mais pas
nécessairement le centre physique du réseau capable de STP.
Le pont racine désigné est capable de changer dynamiquement avec la topologie du réseau,
comme dans le cas où le pont racine existant ne parvient pas à continuer à fonctionner comme
pont racine. Les ponts non racine sont considérés comme étant en aval du pont racine et de la
communication aux flux de ponts non racines du pont racine vers tous les ponts non racine. Seul
un seul pont racine peut existe dans un réseau converti STP-capable à tout moment.
La découverte du pont racine pour un réseau STP est une tâ che principale afin de former l'arbre
d'extension. Le protocole STP fonctionne sur la base de l'élection, par laquelle le rô le de tous les
commutateurs est déterminé. Un ID de pont est défini comme le moyen par lequel le pont racine
est découvert. Cela comprend deux parties, la première étant une priorité de pont de 16 bits et la
seconde, un bit de 48 bits adresse Mac.
Le périphérique qui contient la priorité la plus élevée (l'ID du pont le plus petit) est elu comme
pont racine pour le réseau. La comparaison de l'identification du pont prend en compte
initialement la priorité du pont, et où cette valeur de priorité n'est pas possible pour identifier de
manière unique un pont racine, l'adresse MAC est utilisée comme un disjoncteur.
L'identification du pont peut être manipulée en modifiant la priorité du pont en tant que moyens
de permettre à un commutateur donné d'être élu comme pont racine, souvent en soutien d'une
conception de réseau optimisée.
La topologie de l'arborescence repose sur la communication de spécificités des informations
pour déterminer le rô le et l'état de chaque commutateur dans le réseau. Bridge Data Unit
(BPDU) facilite la communication dans une trame réseau. Deux formes de BPDU sont utilisées
dans STP. Une BPDU de configuration est initialement créé par la racine et propagé en aval pour
s'assurer que tous les ponts non-racine restent conscients de l'état de la topologie de
l'arborescence et important, le pont racine. Le TCD BPDU est une deuxième forme de BPDU, qui
propage l'information en amont vers la racine et doit être introduit plus en détail dans la trame
du processus de changement de topologie.
Les unités de données de protocole Bridge ne sont pas directement transmises par des
commutateurs, mais les informations contenues dans un BPDU sont souvent utilisées pour
générer des commutateurs BPDU pour transmission. Une BPDU de configuration comporte un
certain nombre de paramètres qui sont utilisés par un pont pour déterminer principalement la
présence d'un pont racine et assurez-vous que le pont racine reste le pont le plus élevé priorité.
Chaque segment LAN est considéré comme ayant un commutateur désigné qui est responsable
de la propagation de BPDU en aval vers des sites non désignés commutateurs.
Le champ Bridge ID permet de déterminer le commutateur désigné actuel de quelles BPDU
devraient être reçues. Le BPDU est généré et transmis par le pont racine en fonction d'une
minuterie Hello, qui est réglée sur 2 secondes par défaut. Comme BPDU est reçu par des
commutateurs en aval, une nouvelle BPDU est généré avec des paramètres définis localement et
transmis à toutes les personnes non désignées commute pour le segment LAN.
Une autre caractéristique du BPDU est la propagation de deux paramètres relatifs au coû t du
trajet. Le coû t du chemin d'accès racine (RPC) est utilisé pour mesurer le coû t du chemin vers le
pont racine afin de déterminer le chemin le plus court du spanning tree, et génère ainsi une
topologie sans boucle. Lorsque le pont est le pont racine, le coû t du chemin d'accès racine est 0.
Le coû t du trajet (PC) est une valeur associée au port racine, qui est le port sur un interrupteur
en aval qui se connecte au segment LAN, sur lequel l'interrupteur désigné ou le pont racine
réside. Cette valeur est utilisée pour générer le coû t du chemin d'accès racine pour le
commutateur, en ajoutant le coû t du trajet à la valeur RPC qui est reçu du commutateur désigné
dans un segment LAN, pour définir une nouvelle racine valeur de coû t de chemin. Cette nouvelle
valeur de coû t du chemin d'accès racine est effectuée dans la BPDU de la désigné et est utilisé
pour représenter le coû t du chemin vers la racine.
Les commutateurs de la série Huawei Sx7 prennent en charge un certain nombre de coû ts
alternatifs des normes qui peuvent être mises en œuvre en fonction des exigences de
l'entreprise, comme un réseau de commutation multi-fournisseurs peut exister. La série Huawei
Sx7 des commutateurs utilisent le standard de coû ts de trajet 802.1t par défaut, fournissant un
plus forte précision métrique pour le calcul du coû t du chemin
Un réseau d'arborescence converti définit que chaque interface reçoit un rô le spécifique du port.
Les rô les de port sont utilisés pour définir le comportement des interfaces de port qui
participent à une topologie active de l'arbre d'extension. Pour l'arbre d'extension protocole, les
rô les à trois ports désignés, racine et alternatif sont définis.
Le port désigné est associé à un pont racine ou à un pont désigné un segment LAN et définit le
chemin en aval par lequelle configuration des BPDU sont transmises. Le pont racine est
responsable de la génération de configuration BPDU à tous les commutateurs en aval, et donc
port de pont racine des interfaces adoptent toujours le rô le de port désigné.
Le port racine identifie le port qui offre le chemin du coû t le plus bas vers la racine, en fonction
du coû t du chemin d'accès racine. L'exemple montre le cas où des chemins possibles existent à la
racine, mais seulement le port qui offre le coû t du chemin d'accès racine le plus bas est attribué
comme port racine. Où deux ou plusieurs ports offre des coû ts de chemin d'accès égaux, la
décision de quelle interface de port sera la racine
Le port est déterminé en comparant l'ID du pont dans la BPDU de configuration qui est reçu sur
chaque port.
Tout port qui n'a pas de rô le de port racine ou désigné est considéré comme un
Un autre port, et peut recevoir BPDU à partir du commutateur désigné pour le segment de
réseau local dans le but de surveiller l'état du lien redondant,
Mais ne traitera pas la BPDU reçue. La norme IEEE 802.1D-1990 pour STP a initialement défini
ce rô le de port en tant que sauvegarde, mais cela a été modifié pour devenir le rô le de port
alternatif dans les normes IEEE 802.1D-1998 révision.
L'identification du port représente un moyen final pour déterminer les rô les des ports aux cô tés
des
ID de pont et mécanisme de coû t du chemin d'accès racine. Dans les scénarios où deux ou
plusieurs ports
Offrir un chemin d'accès racine à la racine qui est égale et pour lequel l'amont
Le commutateur est considéré comme ayant une ID de pont égale, principalement en raison de
Le commutateur en amont étant le même commutateur pour les deux chemins, l'ID du port doit
être
Appliqué pour déterminer les rô les de port.
L'ID du port est lié à chaque port et comprend une priorité de port et un port
Qui s'associe à l'interface de port. La priorité du port est une valeur
La plage de 0 à 240, attribuée par incréments de 16, et représentée par un
Valeur de 128 par défaut. Lorsque les deux interfaces de port offrent une priorité de port égale
Valeur, le numéro de port unique est utilisé pour déterminer les rô les de port. Le plus haut
L'identificateur de port (le numéro de port le plus bas) représente le port assigné comme
Port racine, le port restant étant défaillant à un rô le de port alternatif.
Le pont racine est responsable de la génération de configuration basée sur BPDU
Sur un intervalle BPDU défini par une minuterie Hello. Ce minuteur Hello est par défaut
Représente une période de 2 secondes. Un réseau d'arpentage convergé doit
Veillez à ce que, en cas de panne dans le réseau,
Le réseau STP est mis au courant de l'échec. Un minuteur d'â ge maximum est
Associé à chaque BDPU et représente la durée de vie d'un BPDU du point
De conception par le pont racine, et contrô le finalement la période de validité d'un
BDPU avant qu'il ne soit considéré comme obsolète. Ce temporisateur MAX par défaut
Représente une période de 20 secondes.
Une fois qu'une BPDU de configuration est reçue du pont racine, l'aval
Le commutateur prend environ 1 seconde pour générer un nouveau BPDU,
Et propager la BPDU générée en aval. Afin de compenser
Cette fois, une valeur d'â ge de message (â ge de MSG) est appliquée à chaque BPDU à
Représente le décalage entre l'â ge MAX et le délai de propagation, et pour
Chaque commutateur de cette valeur d'â ge de message est incrémenté de 1.
Comme les BPDU sont propagées depuis le pont racine vers les commutateurs en aval,
La minuterie MAX Age est actualisée. Le chronométreur MAX compte à rebours et expire
Lorsque la valeur MAX Age dépasse la valeur de l'â ge du message, afin de garantir
Que la durée de vie d'une BPDU est limitée à l'â ge MAX, tel que défini par la racine
pont. Dans le cas où une BPDU n'est pas reçue avant la minuterie MAX Age
Expire, le commutateur considérera les informations BPDU actuellement détenues comme
Obsolète et supposer une panne du réseau STP s'est produite.

Le processus de convergence de l'arbre d'extension est une procédure automatisée qui


Démarre au point de démarrage du commutateur. Tous les commutateurs au démarrage
assument le rô le
Du pont racine dans le réseau de commutation. Le comportement par défaut d'une racine
Bridge est d'attribuer un rô le de port désigné à toutes les interfaces de port pour
Transmission de BPDU via toutes les interfaces de port connectées. Comme BPDU est reçu
Par des intercepteurs, l'ID du pont sera comparé pour déterminer si un
Il existe un meilleur candidat pour le rô le du pont racine. Dans le cas où le reçu
BPDU contient une identification de pont inférieure par rapport à l'ID de racine, la réception
Switch continuera à annoncer sa propre configuration BPDU aux voisins
commutateur.
Lorsque le BDPU est supérieur, le commutateur reconnaîtra la présence d'un
Meilleur candidat pour le rô le de pont racine, en cessant de propager BPDU dans
La direction à partir de laquelle la BPDU supérieure a été reçue. Le commutateur sera également
Modifiez le champ d'ID de racine de BPDU pour annoncer l'ID de pont de la racine
Pont candidat comme nouveau pont racine actuel.
Un pont racine élu, une fois établi, générera une configuration BPDU pour
Tous les autres commutateurs non-root. Le BPDU portera un coû t de chemin d'accès
Informe les commutateurs en aval du coû t pour la racine, pour permettre le plus court
Chemin à déterminer. Le coû t du trajet de la racine porté dans la BPDU qui est
Généré par le pont racine a toujours une valeur de 0. La réception
Les commutateurs en aval ajouteront alors ce coû t au coû t de trajet du port
Les interfaces sur lesquelles la BPDU a été reçue et à partir de laquelle un commutateur est
capable
Pour identifier le port racine.
Dans le cas où des coû ts de parcours racine égaux existent sur deux ou plusieurs segments LAN
Le même commutateur en amont, l'identification du port est utilisée pour découvrir les rô les des
ports.
Lorsqu'il existe un coû t de chemin d'accès égal entre deux commutateurs, comme dans le cas
donné
Par exemple, l'ID de pont est utilisé pour déterminer quel interrupteur représente le
Commutateur désigné pour le segment LAN. Lorsque le port de commutation n'est ni un
Port racine ou port désigné, le rô le de port est affecté comme alternative.

Dans le cadre du pont racine et de l'établissement du rô le, chaque commutateur


Progresser à travers un certain nombre de transitions d'état du port. Tout port qui est
Désactivé administrativement sera considéré comme étant dans l'état désactivé.
L'activation d'un port dans l'état désactivé verra une transition d'état vers le
É tat de blocage ①.
Tout port considéré comme bloquant est incapable de transmettre un utilisateur
Trafic, mais est capable de recevoir des images BPDU. Toute BPDU reçue sur un port
L'interface dans l'état de blocage ne sera pas utilisée pour remplir l'adresse MAC
Tableau du commutateur, mais plutô t pour déterminer si une transition vers le
L'état d'écoute est nécessaire. L'état d'écoute permet la communication de
Informations BPDU, suite à la négociation du rô le du port dans STP ②, mais
Maintient la restriction sur le remplissage de la table d'adresses MAC avec le voisin
information.
Une transition vers l'état de blocage de l'écoute ou d'autres états ③ peut
Se produisent dans le cas où le port est changé en un autre rô le de port. le
La transition entre l'écoute de l'apprentissage et l'apprentissage des états de transfert ④ est
Dépend grandement de la minuterie de délai avant, qui existe pour s'assurer que tout
Propagation de l'information BDPU à tous les commutateurs dans la topologie de l'arborescence
Est réalisable avant l'apparition de la transition d'état.
L'état d'apprentissage maintient la restriction du transfert de trafic utilisateur pour assurer
La prévention de toutes les boucles de commutation permet néanmoins à la population de
Table d'adresses MAC dans toute la topologie de l'arbre d'extension pour assurer une stabilité
Réseau de commutation. Après une période de retard vers l'avant, l'état de transfert est
atteint. L'état désactivé s'applique à tout moment pendant l'état
Période de transition par intervention manuelle (c'est-à -dire la commande d'arrêt) ⑤.

Les événements qui provoquent une modification de la topologie d'arborescence étendue


peuvent
Se produisent de diverses manières, pour lesquelles le protocole de l'arbre d'extension doit
réagir
Rétablissez rapidement une topologie stable et sans boucle. L'échec de la racine
Le pont est un exemple primordial où la ré-convergence est nécessaire. Non racine
Les commutateurs reposent sur la pulsation intermittente de BPDU du pont racine vers
Maintiennent leurs rô les individuels en tant que commutateurs non-root dans la topologie STP.
dans le
Si le pont racine échoue, les commutateurs en aval ne parviendront pas à recevoir un
BPDU à partir du pont racine et, en tant que tel, cessera également de propager
BPDU en aval. La minuterie MAX Age est généralement réinitialisée à la valeur définie (20
Secondes par défaut) suite à la réception de chaque BPDU en aval.
Avec la perte de toute BPDU cependant, la minuterie MAX Age commence à compter
La durée de vie de l'information BPDU actuelle de chaque commutateur non-root, basée
Sur la formule (â ge MAX - â ge MSG). Au moment où l'â ge MSG
La valeur est supérieure à la valeur de la minuterie MAX, les informations BPDU reçues
De la racine devient invalide, et les commutateurs non-root commencent à assumer le
Rô le du pont racine. Les BPDU de configuration sont à nouveau transmis de tous les éléments
actifs
Interfaces dans le but de découvrir un nouveau pont racine. L'échec du pont racine
Invoque une durée de récupération d'environ 50 secondes en raison de l'â ge maximum
+ 2x délai de convergence de délai d'avancement.

Dans le cas d'une défaillance de liaison indirecte, un commutateur perd la connexion avec la
racine
Pont en raison d'une défaillance du port ou du support, ou éventuellement d'un manuel
Désactivation de l'interface agissant comme port racine. L'interrupteur lui-même deviendra
Immédiatement conscient de l'échec, et puisqu'il ne reçoit que BPDU de la
Dans une direction, supprimera la perte immédiate du pont racine et affirmera
Sa position comme nouveau pont racine.
À partir de l'exemple, l'interrupteur B commence à avancer BPDU pour commuter C pour aviser
de
La position du commutateur B comme nouveau pont racine, cependant, le commutateur C
continue à
Recevoir BPDU à partir du pont racine d'origine et donc ignorer toute BPDU
De l'interrupteur B. Le port alternatif commencera à vieillir son état par le MAX
Temporisateur d'â ge, puisque l'interface ne reçoit plus de BPDU contenant l'ID de racine
Du pont racine.
À la suite de l'expiration de la minuterie MAX Age, le commutateur C modifie le rô le du port
Du port alternatif à celui d'un port désigné et procéder à l'avancement de BPDU
De la racine vers l'interrupteur B, ce qui amènera le commutateur à concéder sa
Assertion en tant que pont racine et converger son interface de port au rô le de racine
Port. Cela représente un échec de topologie partielle en raison de la nécessité d'attendre
Pour une période équivalente à l'â ge MAX + 2x délai avant, récupération complète de la
La topologie STP nécessite environ 50 secondes.
Un scénario final impliquant la récupération de la convergence de l'arborescence se produit là

Plusieurs segments LAN sont connectés entre deux dispositifs de commutation pour lesquels
L'un est actuellement le lien actif tandis que l'autre fournit un autre chemin vers le
racine. Si un événement provoque le changement de BPDU
Pour détecter une perte de connexion sur son port racine, par exemple dans le cas où une racine
Une panne de port se produit ou une erreur de liaison se produit, pour laquelle l'interrupteur en
aval est
Immédiatement informé, le commutateur peut transmettre instantanément le port alternatif.
Cela commencera la transition par l'écoute, l'apprentissage et la transmission
Indique et réalise la récupération dans une période de délai de 2x avant. Dans le cas où
Toute défaillance, où le lien qui fournit un meilleur chemin est réactivé, le
La topologie de l'arbre d'extension doit redevenir converti afin d'appliquer l'optimum
Topologie de l'arborescence.
Dans un réseau d'arborescence convertie, les commutateurs maintiennent les bases de données
des filtres, ou
Tables d'adresses MAC pour gérer la propagation des images à travers le
Topologie de l'arborescence. Les entrées qui fournissent une association entre un
La destination MAC et l'interface du port de renvoi sont stockées pour une période finie
De 300 secondes (5 minutes) par défaut. Un changement dans la topologie de l'arborescence
Signifie toutefois que toutes les entrées de la table d'adresses MAC existantes sont susceptibles
de
Deviennent invalides en raison de la modification du chemin de commutation et doivent donc
Ê tre renouvelé.
L'exemple illustre une topologie d'arborescence existante pour laquelle
Le commutateur B a des entrées qui permettent à l'hô te A d'être atteint via l'interface Gigabit
Ethernet 0/0/3 et Host B via l'interface Gigabit Ethernet 0/0/2. Un échec est
Simulé sur le commutateur C pour lequel le port racine actuel est devenu inactif.
Cet échec provoque le recalcul de la topologie de l'arborescence et
L'activation du lien redondant entre le commutateur C et le commutateur B.
À la suite de la ré-convergence cependant, on trouve que les images de l'hô te A vers
L'hô te B ne parvient pas à atteindre leur destination. Puisque la table d'adresses MAC
Les entrées doivent encore expirer en fonction de la règle de 300 secondes, les cadres atteignant
Le commutateur B destiné à l'hô te B continue d'être transmis via le port
Interface Gigabit Ethernet 0/0/2, et deviennent effectivement noirs comme des cadres
Sont transmis vers l'interface de port inactif du commutateur C.

Un mécanisme supplémentaire doit être introduit pour gérer les entrées MAC
Problème de délai d'attente qui entraîne l'absence de chemin d'accès incorrect
Suite à la convergence de l'arbre d'extension. Le processus mis en œuvre est mentionné
Comme le processus de notification de changement de topologie (TCN), et introduit un nouveau
Forme de BPDU à l'opération de protocole d'arbre d'extension.
Cette nouvelle BPDU est appelée BPDU TCN et se distingue de la
Configuration BPP originale BPDU par le réglage de la valeur de type BPDU
À 128 (0x80). La fonction de TCD BPDU est d'informer la racine en amont
Pont de toute modification de la topologie actuelle, permettant ainsi à la racine d'envoyer
Une notification dans la configuration BPDU à tous les commutateurs en aval, à
Réduire la durée de délai pour les entrées de la table d'adresses MAC à l'équivalent de
La temporisation de retard vers l'avant, ou 15 secondes par défaut.
Le champ des drapeaux de la configuration BPDU contient deux champs pour la topologie
Changer (TC) et Remettre le changement de topologie (TCA). Sur réception
Une BPDU TCN, le pont racine générera une BPDU à la fois avec TC et TCA
Bits définis, pour notifier le changement de topologie et pour informer le
Les interrupteurs en aval que le pont racine a reçu le TCD BPDU, et
Par conséquent, la transmission du BPDU TCN devrait cesser.
Le bit TCA doit rester actif pendant une période égale à la minuterie Hello (2
Secondes), suite à la configuration BPDU générée par le pont racine
Ne conservera que le bit TC pendant une durée de (MAX age + forward delay), ou 35
Secondes par défaut.

L'effet du TCD BPDU sur le processus de modification de la topologie garantit que le


Le pont racine est informé de toute défaillance dans la topologie de l'arborescence, pour laquelle
Le pont racine est capable de générer les drapeaux nécessaires pour rincer le courant
Entrées de la table d'adresse MAC dans chacun des commutateurs. L'exemple
Démontre les résultats du processus de changement de topologie et l'impact sur
La table d'adresses MAC. Les entrées relatives au commutateur B ont été rincées,
Et de nouvelles entrées mises à jour ont été découvertes pour lesquelles il est déterminé que
L'hô te B est maintenant accessible via l'interface de port Gigabit Ethernet 0/0/1.
Les variantes de la série Huawei Sx7 auxquelles appartient le modèle de la série S5700 sont
Capable de supporter trois formes de protocole d'arborescence. Utilisation de la stp
Commande de mode, un utilisateur est capable de définir le mode de STP qui devrait être
Appliqué à un commutateur individuel. Le mode STP par défaut pour les commutateurs série
Sx7
Est MSTP, et doit donc être reconfiguré avant que STP puisse être utilisé.
Dans le cadre d'une bonne pratique de conception de commutateurs, il est recommandé que le
pont racine
Ê tre défini manuellement. Le positionnement du pont racine garantit que
L'acheminement optimal du trafic dans le réseau de l'entreprise peut être réalisé
À travers la configuration de la valeur de priorité du pont pour le protocole de l'arbre
d'extension.
La commande priorité stp [priorité] peut être utilisée pour définir la valeur de priorité,
Lorsque la priorité se réfère à une valeur entière comprise entre 0 et 61440,
Incréments de 4096. Cela permet un total de 16 incréments, avec un défaut
Valeur de 32768. Il est également possible d'attribuer le pont racine pour l'extension
Arbre à travers la commande principale stp root.

Il a été compris que la série de commutateurs Huawei Sx7 prend en charge trois
Formes de norme de coû t de chemin pour assurer la compatibilité lorsque cela est requis,
Cependant, les valeurs par défaut sont compatibles avec la norme de coû ts de trajet 802.1t. Le
chemin coû te
Standard peut être ajusté pour un commutateur donné en utilisant le stp pathcost-standard {
Dot1d-1998 | Dot1t | Legacy}, où dot1d-1998, dot1t et l'héritage
Se référer aux normes de coû ts de chemin décrites plus haut dans cette section.
En outre, le coû t de trajet de chaque interface peut également être affecté manuellement à
Appuient un moyen de manipulation détaillée du coû t du trajet stp. Cette méthode de
La manipulation des coû ts de cheminement devrait être utilisée avec beaucoup de soin
cependant, comme le chemin
Les normes de coû ts sont conçues pour implémenter la topologie optimale de l'arbre d'extension
Pour un réseau de commutation donné et la manipulation du coû t du pétrole peut entraîner
La formation d'une topologie d'arborescence sous-optimale.
Le coû t de coû t de la commande [coû t] est utilisé, pour lequel la valeur du coû t devrait suivre
La gamme définie par la norme de coû t de trajet. Si un standard hérité de Huawei est
Utilisé, le coû t du trajet varie de 1 à 200000. Si la norme IEEE 802.1D est
Utilisé, le coû t du chemin varie de 1 à 65535. Si la norme IEEE 802.1t est
Utilisé, le coû t du trajet varie de 1 à 200000000.
Si le commutateur racine sur un réseau est mal configuré ou attaqué, il peut
Recevoir une BPDU avec une priorité plus élevée et donc le commutateur racine devient un
commutateur non-root, ce qui provoque un changement de la topologie du réseau. Par
conséquent, la circulation
Peut être basée sur des liens à grande vitesse vers des liens à faible vitesse, ce qui provoque un
réseau
congestion.
Pour résoudre ce problème, le commutateur fournit la fonction de protection racine. le
La fonction de protection racine protège le rô le du commutateur racine en conservant le rô le
Du port désigné. Lorsque le port reçoit une BPDU avec une priorité plus élevée,
Le port arrête de transférer des paquets et se tourne vers l'état d'écoute, mais il reste
Conserve un rô le de port désigné. Si le port ne reçoit aucun BPDU avec un
Priorité élevée pour une certaine période, l'état du port est restauré à partir de l'écoute
Etat.
La protection racine configurée n'est valable que lorsque le port est désigné
Le port et le port maintient le rô le. Si un port est configuré comme un port de bord, ou
Si une commande connue sous le nom de protection en boucle est activée sur le port, la
protection racine
Ne peut pas être activé sur le port.
En utilisant la commande stp d'affichage, la configuration STP actuelle peut être
déterminé. Un certain nombre de temporisations existent pour la gestion de l'arbre d'extension
La convergence, y compris la minuterie hello, la minuterie d'â ge maximale et le délai
d'avancement, pour
Quelles valeurs affichées représentent les paramètres de la minuterie par défaut, et sont
Recommandé d'être maintenu.
L'ID du pont actuel peut être identifié pour un changement donné via le CIST
Configuration du pont, composée de l'ID du pont et de l'adresse MAC du
commutateur. Les statistiques fournissent des informations concernant le fait que le
commutateur a
Changements de topologie expérimentés, principalement par TC ou TCN reçus
Valeur ajoutée avec la dernière occurrence comme indiqué dans le temps écoulé depuis la
dernière entrée TC.
Pour les interfaces individuelles sur un commutateur, il est possible d'afficher ces informations
via
La commande stp d'affichage pour répertorier toutes les interfaces ou utiliser l'interface stp
d'affichage
<Interface> pour définir une interface spécifique. L'état de l'interface
Suit les états des ports MSTP et s'affiche donc comme rejet,
Apprendre ou transférer. D'autres informations valides telles que le rô le et le coû t du port
Pour le port sont également affichés, ainsi que tous les mécanismes de protection appliqués.
résumé
Dans le cas où un pont racine (le commutateur échoue temporairement dans le réseau STP,
Le prochain commutateur viable prendra en charge le pont racine. Ce qui se produira une fois
que l'échec
Le pont racine devient de nouveau actif dans le réseau?
Quelle est la dégradation entre le coû t du chemin et le coû t du chemin d'accès racine /
Préface
La norme STP originale a été définie en 1998 pour laquelle un certain nombre de limitations
étaient
Découvert, en particulier dans le temps nécessaire pour que la convergence se produise. a la
lumiere de ceci,
Le protocole d'arborescence rapide (RSTP) a été introduit. Les caractéristiques fondamentales
de RSTP sont
Compris pour suivre la base de STP, donc la différence caractéristique trouvée dans
RSTP sont soulignés dans cette section.
objectifs
À la fin de cette section, les stagiaires pourront;
Décrivez les caractéristiques associées au RSTP.
Configurer les paramètres RSTP
STP assure un réseau sans boucle mais a une topologie de réseau lente
La vitesse de convergence, entraînant une détérioration du service. Si la topologie du réseau
Change fréquemment, les connexions sur le réseau capable STP sont
Souvent déchiré, provoquant une interruption régulière du service.
RSTP utilise une proposition et un processus d'accord qui permet une immédiate
La négociation des liens se déroule, en supprimant effectivement le temps pris pour
Les temporisateurs basés sur la convergence expirent avant que la convergence de
l'arborescence
se produire. Le processus de proposition et d'accord tend à suivre un effet en cascade
Du point du pont racine via le réseau de commutation, comme chaque
Le commutateur aval commence à apprendre du véritable pont racine et le chemin via
Dont le pont racine peut être atteint.

Les commutateurs fonctionnant en mode RSTP implémentent deux rô les de port distincts pour
redondance. Le port alternatif représente un chemin redondant vers le pont racine
Dans le cas où le chemin d'accès actuel au pont racine échoue. Le rô le du port de sauvegarde
Représente une sauvegarde pour le chemin du segment LAN dans la direction qui conduit
Loin du pont racine. On peut comprendre qu'un port de sauvegarde représente
Une méthode pour fournir une redondance au rô le de port désigné de manière similaire
Qu'un autre port fournit une méthode de redondance au port racine.
Le rô le du port de sauvegarde est capable d'exister lorsqu'un commutateur a deux ou plus
Les connexions à un périphérique multimédia partagé tel que celui d'un concentrateur ou un
seul
Le lien point à point est utilisé pour générer une connexion de bouclage physique entre
Ports sur le même commutateur. Dans les deux cas cependant, le principe d'une sauvegarde
Port existant où deux ou plusieurs ports sur un seul commutateur se connectent à un seul
Le segment LAN s'applique toujours.
Dans RSTP, un port désigné sur le bord du réseau s'appelle un port de bordure. Un
Le port de bord se connecte directement à un terminal et ne se connecte à aucun autre
Dispositifs de commutation. Un port de bord ne reçoit pas de configuration BPDU, donc
Ne participe pas au calcul du RSTP.
Il peut passer directement de l'état désactivé à l'état de transfert sans
Tout retard, tout comme un port incapable de STP. Si un port de bord reçoit des faux
BPDU de configuration des attaquants, il est privé des attributs du bord du port
Et devient un port STP commun. Le calcul STP est à nouveau implémenté,
Provoquant des battements de réseau.
RSTP introduit un changement dans les états portuaires qui sont simplifiés de cinq à trois
les types. Ces types de ports sont basés sur la question de savoir si un port transmet le trafic et
Apprend les adresses MAC. Si un port ne transmet pas le trafic utilisateur ni apprend MAC
Adresses, le port est dans l'état de défaillance. Le port est considéré comme étant dans un
É tat d'apprentissage où un port ne transmet pas le trafic utilisateur mais apprend MAC
Adresses. Enfin, où un port transmet le trafic utilisateur et apprend MAC
Adresses, le port se trouve dans l'état de transfert.
Le format BPDU utilisé dans STP est également appliqué à RSTP avec une variance dans
Certains paramètres généraux. Afin de distinguer la configuration STP
BPDU de Rapid Spanning Tree BPDU, connu sous le nom de RST BPDU, le
Le type BPDU est défini. STP définit une configuration BPDU type de 0 (0x00) et
Une BPDU de notification de changement de topologie (TCD BPDU) de 128 (0x80), RST
BPDU sont identifiés par la valeur de type BPDU 2 (0x02). Dans le champ des drapeaux de
La BPDU de RST, des désignations de paramètres supplémentaires sont attribuées à la BPDU
des champs.
Le champ des drapeaux dans STP n'a implémenté que l'utilisation du changement de topologie
(TC) et les paramètres d'accusé de réception (TCA) dans le cadre de la topologie
Modifiez le processus alors que d'autres champs étaient réservés. La BPDU de la TVD a
Ont adopté ces champs pour prendre en charge les nouveaux paramètres. Ils incluent des
drapeaux
Indiquant le processus de proposition et d'accord employé par RSTP pour une utilisation rapide
La convergence, la définition du rô le du port et l'état du port.
Dans STP, après la stabilisation de la topologie, le pont racine envoie la configuration
BPDU à un intervalle défini par la minuterie Hello. Un pont non-root n'émet pas
Configuration BPDU jusqu'à ce qu'il reçoive la configuration BPDU envoyée depuis le
Dispositif en amont. Cela rend le calcul STP compliqué et temporel. Dans RSTP, après la
stabilisation de la topologie, un pont non-root
Envoie une configuration BPDU aux intervalles de Bonjour, que ce soit
A reçu la configuration BPDU envoyée depuis le pont racine; Ces opérations
Sont implémentés sur chaque dispositif indépendamment.
La convergence de RSTP suit certains des principes fondamentaux de STP dans
Déterminant d'abord que tous les commutateurs lors de l'initialisation affirment le rô le de la
racine
Pont et, en tant que tel, assigner chaque interface de port avec un rô le de port désigné. le
L'état du port est toutefois réglé sur un état de rejet jusqu'à ce que le peering
Les commutateurs peuvent confirmer l'état du lien.
Chaque interrupteur proclamant être le pont racine négociera les états des ports pour
Un segment LAN donné en générant un BPDU RST avec le bit de proposition défini dans
Le champ des drapeaux. Lorsqu'un port reçoit un BPDU RST de l'amont
Pont désigné, le port compare le BPDU RST reçu avec son propre
RST BPDU. Si sa propre BPDU RST est supérieure à celle reçue, le port
Rejette la BPDU reçue de la TVD et répond immédiatement à l'interrogation
Périphérique avec sa propre BPDU RST qui inclut un bit de proposition fixe.
Puisque les chronométreurs ne jouent pas un rô le dans une grande partie de la convergence de
la topologie RSTP
Processus tel que trouvé avec STP, il est important que le potentiel de boucles de commutation
Pendant la négociation du rô le de port soit restreinte. Ceci est géré par le
Mise en œuvre d'un processus de synchronisation qui détermine que suivant la
Réception d'une BPDU supérieure contenant le bit de proposition, l'interrupteur de réception
Doit définir tous les ports désignés en aval pour se déconnecter dans le cadre de la
synchronisation
processus.
Lorsque le port en aval est un autre port ou un port de bord, le
Le statut du rô le du port demeure inchangé. L'exemple montre la
Transition temporaire du port désigné sur le segment LAN descendant
À un état de rejet, et donc bloquer tout transfert de trame pendant la
Proposition en amont et processus d'accord.

La transition confirmée du port désigné en aval vers un rejet


L'état permet d'envoyer un BPDU de la TVD en réponse à la proposition envoyée par
Le commutateur en amont. Au cours de cette étape, le rô le du port de l'interface a été
Déterminé à être le port racine et donc le drapeau de l'accord et le rô le du port
De racine sont définis dans le champ de drapeaux de la BPDU de RST qui est retourné en réponse
À la proposition.
Au cours de la phase finale du processus de proposition et d'accord, la BPDU de la TVD
Contenant le bit d'accord est reçu par le commutateur en amont, ce qui permet
Port désigné pour passer immédiatement d'un état de rejet à un renvoi
Etat. Suite à cela, le (s) segment (s) LAN en aval commenceront à négocier
Les rô les de port des interfaces utilisant la même proposition et accord
processus.
Dans STP, un appareil doit attendre une période d'â ge maximum avant de déterminer un
É chec de la négociation. Dans RSTP, si un port ne reçoit pas de BPDU de configuration
Envoyé depuis l'appareil en amont pour trois intervalles successifs Hello, le
La communication entre l'appareil local et son pair échoue, provoquant la
Processus de proposition et d'accord à initialiser afin de découvrir le port
Rô les pour le segment LAN.

Les changements de topologie affectent le RSTP de manière similaire à la manière dont le STP
est affecté, cependant
Il y a des différences mineures entre les deux. Dans l'exemple, un échec de
Le lien s'est produit sur le commutateur C. Le commutateur A et le commutateur C détectent le
lien
É chec immédiatement et évacuer les entrées d'adresse pour les ports connectés à cette
lien. Un BPDU de la TVM commencera à négocier les états portuaires dans le cadre de la
Processus de proposition et d'accord, après quoi un changement de topologie
Une notification se produira, ainsi que la transmission de la BPDU de la TVD
Contenant l'accord.
Cette RST BPDU aura à la fois le bit Accord et aussi le bit TC réglé sur 1,
Pour informer les commutateurs en amont de la nécessité de rincer leurs entrées MAC sur tous
les ports
Interfaces à l'exception de l'interface de port sur laquelle la BPDU RST contenant l'ensemble
TC bit a été reçu.
Le bit TC sera défini dans le BPDU RST envoyé périodiquement et transmis
En amont pour une période équivalente à Hello Time + 1 seconde, pendant laquelle tous
Les interfaces pertinentes seront rincées et procéderont à relarger MAC
Entrées basées sur la nouvelle topologie RSTP. Le «x» rouge (plus foncé) dans l'exemple
Met en évidence quelles interfaces seront rincées à la suite du changement de topologie.
La mise en œuvre de STP dans une topologie de commutation basée sur RSTP est
Possible, cependant, n'est pas recommandé car toute limitation concernant STP
Devient évident dans la plage de communication du STP activé
commutateur. Un port impliqué dans le processus de négociation pour établir son rô le au sein de
STP doit attendre une période allant jusqu'à 50 secondes avant que la convergence ne soit
possible
Complété, en tant que tel, les bénéfices de RSTP sont perdus.
La configuration du mode arborescence des commutateurs Sx7 nécessite que le
La commande mode stp est utilisée pour régler le mode sur RSTP. Ce faisant, le Sx7
Le commutateur en série génèrera des BPDU RST par rapport à RSTP, par opposition à
Autres implémentations de l'arbre d'extension. Cette commande est configurée à partir de
Vue système et devrait être appliquée à tous les commutateurs participant à la vitesse
Topologie de l'arborescence.
La commande stp d'affichage fournira des informations relatives à RSTP
La configuration de nombreux paramètres suit l'architecture STP principale.
L'information de mode déterminera si un commutateur est actuellement
En utilisant RSTP.
Une interface de bord définit un port qui ne participe pas à l'arborescence
Topologie. Ces interfaces sont utilisées par les systèmes finaux pour se connecter au
Réseau de commutation dans le but de transférer des cadres. Depuis cette fin
Les systèmes ne nécessitent pas de négocier l'état de l'interface du port, il est préférable que
Le port doit être transféré directement vers un état de transfert pour permettre aux images
d'être
Transmis sur cette interface immédiatement.
La commande de validation de port stp edged est utilisée pour changer de port pour devenir un
Bord, car tous les ports sont considérés comme des ports non-bordaux sur un commutateur par
défaut. Dans
Afin de désactiver le port de bord, la commande de désactivation du port stp est utilisée.
Ces commandes s'appliquent uniquement à une interface à port unique sur un commutateur
donné. C'est
Il est important de noter que le comportement du port de bord est associé à RSTP comme
Définie dans la documentation sur les normes IEEE 802.1D-2004, mais en raison de
L'application spécifique VRP de la machine d'état RSTP sous-jacente à STP
(Ce qui entraîne également l'apparition des états du port RSTP dans STP), c'est aussi
Possibilité d'appliquer les paramètres du port de bord RSTP à STP dans Huawei Sx7
Produits en série.
Dans le cas où plusieurs ports d'un commutateur doivent être configurés comme ports de bord,
La commande par défaut du port forcé est appliquée qui impose que tous les ports
Les interfaces sur un commutateur deviennent des ports de bordure. Il est important d'exécuter
la commande stp edgedport disable sur les ports qui doivent participer au calcul STP
Entre les périphériques, afin d'éviter toute boucle possible qui peut être provoquée
Résultat des calculs de topologie STP.
Le port qui est directement connecté à un terminal utilisateur tel qu'un PC ou un fichier
Serveur, est censé être configuré comme un port de bord pour assurer une transition rapide
Du statut du port. Habituellement, aucun BPDU n'est envoyé aux ports de bord, cependant si
Le commutateur est attaqué par pseudo BPDU, le commutateur définit les ports de bord comme
non-bord
Ports. Après que ces ports de bord reçoivent une BPDU, la topologie de l'arborescence est
Recalculé, et en conséquence, le flapping du réseau se produit.
Pour se défendre contre les pseudo attaques BPDU, RSTP fournit une protection BPDU.
Une fois que la protection BPDU est activée, le commutateur coupe le port de bord
Reçoit BPDU et informe toute station de gestion de réseau active (NMS).
Les ports de bord qui sont fermés par le commutateur peuvent être démarrés manuellement
uniquement
Par l'administrateur réseau. La commande stp bpdu-protection devrait être
Utilisé pour activer la protection bpdu et est configuré globalement dans la vision système.
Le commutateur maintient l'état du port racine et des ports bloqués par
Reçoit continuellement BPDU du commutateur en amont. Si le commutateur racine ne peut pas
Recevoir BPDU du commutateur amont en raison de la congestion des liens ou
L'échec du lien unidirectionnel, le commutateur ré-sélectionne un port racine. La racine
précédente
Le port devient alors un port désigné et les ports bloqués changent
É tat de transfert. Par conséquent, des boucles peuvent survenir sur le réseau.
Le commutateur fournit une protection en boucle pour empêcher les boucles de réseau. Après la
boucle
La fonction de protection est activée, le port racine est bloqué s'il ne peut pas recevoir
BPDU à partir du commutateur en amont. Le port bloqué reste bloqué
Indique et ne renvoie pas de paquets. Cela empêche les boucles sur le réseau. Si un
L'interface est configurée comme interface de bord ou la protection racine est activée sur
L'interface, la protection en boucle ne peut pas être activée sur l'interface. La commande stp
loopprotection doit être appliquée pour permettre cette fonctionnalité dans la vue d'interface

La validation de la configuration RSTP pour une interface donnée est atteinte à travers
La commande interface interface stp <interface>. L'information associée
Identifier l'état du port de l'interface en tant que rejet, apprentissage ou
Expéditeur. Informations pertinentes pour l'interface portuaire, y compris le port
La priorité, le coû t du port, l'état du port en tant que port de bord ou le support point-à -point
Etc, sont définis.
résumé
Quel est le but de la synchronisation qui se produit au cours de la proposition RSTP et du
processus d'accord?
La transmission des cadres et la commutation a introduit les opérations de la couche de liaison
de données,
Et en particulier le rô le des normes basées sur IEEE 802 en tant que support sous-jacent
Mécanisme de cumulation, sur lequel les suites de protocole de couche supérieure fonctionnent
généralement.
Avec l'introduction du routage, la physique qui définit les protocoles de couche supérieure et
La communication entre réseaux est établie. Un domaine de réseau d'entreprise se compose
généralement
De plusieurs réseaux pour lesquels des décisions de routage sont nécessaires pour assurer
l'utilisation de routes optimales,
Afin de transférer des paquets IP (ou des datagrammes) vers les destinations de réseau prévues.
Cette section présente
Les fondations o que ce routage IP a basé.
objectifs
À la fin de cette section, les stagiaires seront en mesure de:
Expliquez les principes qui gouvernent les décisions de routage IP
Expirer les exigences basci de l'acheminement de paquets
Un réseau d'entreprise peut généralement être compris comme une instance d'un
système autonome. Tel que défini dans RFC 1030, un système autonome ou
AS, comme il est aussi communément connu, est un groupe connecté d'une ou de plusieurs IP
Les préfixes gérés par un ou plusieurs opérateurs de réseau qui ont un SINGLE et
Une politique de routage CLAIREMENT DÉ FINIÈ RE.
La notion de systèmes autonomes considérait à l'origine l'existence d'un
Protocole de routage unique, cependant, comme les réseaux ont évolué, il est possible de
Prendre en charge plusieurs protocoles de routage qui interfèrent à travers l'injection de
Des itinéraires d'un protocole à l'autre. Une politique de routage peut être comprise comme
étant
Un ensemble de règles qui déterminent comment le trafic est géré au sein d'un système
autonome
Système auquel un ou plusieurs opérateurs doivent adhérer.
Les principes de la commutation ont principalement porté sur la transmission de
Trafic dans le cadre d'un réseau local et de la passerelle, qui a
Jusqu'à maintenant défini la limite du domaine de diffusion. Les routeurs sont les
Forme primaire du périphérique de couche réseau utilisé pour définir la passerelle de chaque
local
Réseau régional et permettent la segmentation du réseau IP. Les routeurs fonctionnent
généralement
Comme un moyen de routage de paquets d'un réseau local à l'autre, en s'appuyant sur
Adresse IP pour définir le réseau IP auquel les paquets sont destinés.
Le routeur est responsable de déterminer le chemin d'acheminement via lequel
Les paquets doivent être envoyés en route vers une destination donnée. C'est la responsabilité
de
Chaque routeur pour prendre des décisions quant à la façon dont les données sont transmises.
Où un routeur
A plusieurs chemins vers une destination donnée, oriente les décisions en fonction de
Des calculs sont faits pour déterminer le meilleur bond suivant à l'intention
destination. Les décisions régissant l'itinéraire qui doit être pris peuvent varier
Selon le protocole de routage en cours d'utilisation, en fin de compte en s'appuyant sur les
paramètres de chaque
Protocole pour prendre des décisions en fonction de facteurs variés tels que la bande passante
Et le nombre de sauts.
Les routeurs envoient des paquets basés sur des tables de routage et des informations de renvoi
Base (FIB), et maintenir au moins une table de routage et une FIB. Routeurs
Sélectionnez des itinéraires en fonction des tables de routage et des paquets avant en fonction
de la FIB. UNE
Le routeur utilise une table de routage local pour stocker les routes de protocole et les
itinéraires préférés.
Le routeur envoie ensuite les itinéraires préférés à la FIB pour guider le paquet
expéditeur. Le routeur sélectionne les routes en fonction des priorités des protocoles
Et les coû ts stockés dans la table de routage. Un tableau de routage contient des données clés
pour
Chaque paquet IP.
La destination et le masque sont utilisés en combinaison pour identifier l'IP de destination
L'adresse ou le segment de réseau de destination où l'hô te de destination ou
Le routeur réside. Le champ protocole (Proto), indique le protocole par lequel
Les routes sont apprises. La préférence (Pré) spécifie la valeur de préférence qui est
Associé au protocole, et est utilisé pour décider quel protocole est appliqué à
La table de routage où deux protocoles offrent des itinéraires similaires. Le routeur sélectionne
L'itinéraire avec la préférence la plus élevée (la plus petite valeur) en tant que voie optimale.
Une valeur de coû t représente la métrique utilisée pour distinguer quand plusieurs
Les itinéraires vers la même destination ont la même préférence, l'itinéraire avec le
Le coû t le plus bas est sélectionné comme voie optimale. Une valeur de saut suivant indique l'IP
Adresse du prochain périphérique de couche réseau ou passerelle qu'un paquet IP passe
par. Dans l'exemple donné un prochain saut de 127.0.0.1 se réfère au local
L'interface de l'appareil est le prochain bond. Enfin, le paramètre d'interface
Indique l'interface sortante par laquelle un paquet IP est transmis.

Afin de permettre aux paquets d'atteindre leur destination prévue, les routeurs doivent
Prendre des décisions précises concernant les itinéraires qui sont appris et
Ces routes sont appliquées. Un routeur est susceptible d'apprendre sur le chemin vers un donné
Destination du réseau via l'information de routage qui est publiée par un voisin
Routeurs, en variante, il est possible que les routes appliquées de manière statique soient
Mis en œuvre manuellement par l'intervention de l'administrateur.
Chaque entrée dans la table FIB contient l'interface physique ou logique à travers
Quel paquet est envoyé afin d'atteindre le prochain routeur. Une entrée indique également
Si le paquet peut être envoyé directement à un hô te de destination directement
Réseau connecté. Le routeur effectue une opération "AND" sur le
L'adresse de destination dans le paquet et le masque de réseau de chaque entrée dans le
Table FIB.
Le routeur compare ensuite le résultat de l'opération "AND" avec les entrées dans
La table FIB pour trouver une correspondance. Le routeur choisit la voie optimale pour avancer
Paquets selon la meilleure ou la plus longue correspondance. Dans l'exemple, deux entrées
Au réseau 10.1.1.0 existe avec un prochain saut de 20.1.1.2. Envoi vers le
La destination du 10.1.1.1 donnera lieu à l'application du principe de la partie la plus longue,
Pour lequel l'adresse du réseau 10.1.1.0/30 fournit la correspondance la plus longue.

Un tableau de routage peut contenir les itinéraires provenant de plusieurs protocoles à un


Destination donnée. Tous les protocoles de routage ne sont pas considérés égaux et où
La plus longue correspondance pour plusieurs voies de différents protocoles de routage à la
même
La destination est égale, une décision doit être prise concernant le routage
Le protocole (y compris les itinéraires statiques) aura priorité.
Un seul protocole de routage détermine à chaque fois l'itinéraire optimal vers un
destination. Pour sélectionner l'itinéraire optimal, chaque protocole de routage (y compris le
Route statique) est configuré avec une préférence (plus la valeur, la plus élevée
La préférence). Lorsque plusieurs sources d'informations de routage coexistent, l'itinéraire
La préférence la mieux choisie est la route optimale et ajoutée à la
Table de routage locale.
Dans l'exemple, deux protocoles sont définis qui fournissent un moyen de découverte de
Le réseau 10.1.1.0 via deux chemins différents. Le chemin défini par le RIP
Le protocole semble fournir une route plus directe vers la destination prévue,
Toutefois, en raison de la valeur de préférence, l'itinéraire défini par le protocole OSPF
Est préféré et donc installé dans la table de routage comme itinéraire préféré.
Un résumé des valeurs de préférence par défaut d'un routage commun
Des mécanismes sont fournis pour donner une idée de la préférence par défaut
commande.

Lorsque l'itinéraire ne peut être distingué par une valeur de correspondance la plus longue
Ou la préférence, le coû t métrique est pris comme décideur pour identifier les
Route qui devrait être installée dans la table de routage. Le coû t représente la durée de
Un chemin vers un réseau de destination.
Chaque segment fournit une valeur métrique de coû t le long d'un chemin combiné à
Identifiez le coû t de l'itinéraire. Un autre facteur commun est la bande passante réseau, sur
Dont le mécanisme des coû ts est parfois basé. Un lien avec une vitesse plus élevée
(Capacité) représente une valeur de coû t moindre, permettant la préférence d'un chemin sur
Un autre à faire, tandis que les liens de même vitesse ont un coû t équilibré pour
É quilibrage de charge efficace. Une métrique inférieure a toujours priorité
Et donc la métrique de 50 comme indiqué dans l'exemple, définit l'optimum
Route vers la destination donnée pour laquelle une entrée peut être trouvée dans le routage
table.

La capacité d'un routeur à transférer un paquet IP vers une destination donnée


Exige que certaines informations de renvoi soient connues. Tout routeur souhaitant
L'envoi d'un paquet IP doit d'abord être attentif à une adresse de destination valide
Que le paquet doit être transféré, cela signifie qu'une entrée doit exister dans le
Table de routage que le routeur peut consulter. Cette entrée doit également identifier les
Interface par laquelle les paquets IP doivent être transmis et le prochain bond le long de la
Chemin, auquel le paquet devrait être reçu avant la consultation pour le
La prochaine décision d'acheminement est effectuée.

résumé
Quel est l'ordre dans lequel les décisions de routage sont prises?
Que représente la préférence?
Préface
La mise en œuvre des itinéraires dans la table de routage IP d'un routeur peut être définie
manuellement
En utilisant des itinéraires statiques ou par l'utilisation de protocoles de routage dynamique. La
configuration manuelle
Des itinéraires permet un contrô le direct sur la table de routage, mais peut entraîner un échec de
l'itinéraire
Si le prochain saut d'un routeur échoue. La configuration des itinéraires statiques est cependant
souvent utilisée
Pour compléter les protocoles de routage dynamique pour fournir des itinéraires alternatifs
dans l'événement découvert dynamiquement
Les itinéraires ne fournissent pas un prochain bond valide. Connaissance des différentes
applications des itinéraires statiques et
La configuration est nécessaire pour une administration efficace du réseau.

objectifs
À la fin de cette section, les stagiaires seront en mesure de:
Expliquer les différentes applications pour les itinéraires statiques
Configurez correctement les itinéraires statiques dans la table de routage Ip.
Une route statique est un itinéraire spécial configuré manuellement par un réseau
administrateur. L'inconvénient des itinéraires statiques est qu'ils ne peuvent pas s'adapter à
La modification d'un réseau automatiquement, donc les changements de réseau nécessitent un
manuel
Reconfiguration. Les itinéraires statiques sont adaptés aux réseaux de manière relativement
simple
Structures. Il n'est pas conseillé de configurer et de maintenir des itinéraires statiques pour un
Réseau avec une structure complexe. Les routes statiques réduisent néanmoins l'effet
De la bande passante et de la consommation de ressources CPU qui survient lorsque d'autres
Les protocoles sont mis en œuvre.
Les routes statiques peuvent être appliquées aux réseaux qui utilisent à la fois des serveurs série
et Ethernet
Les médias basés, cependant, dans chaque situation, les conditions d'application de la statique
La route varie dans laquelle l'interface sortante ou l'adresse IP suivante
Doit être défini.
Le support série représente une forme d'interface point à point (P2P) pour
L'interface sortante doit être configurée. Pour une interface P2P,
L'adresse suivante est spécifiée après l'indication de l'interface sortante. C'est,
L'adresse de l'interface distante (interface sur l'appareil pair) connectée à
Cette interface est l'adresse next-hop.
Par exemple, le protocole utilisé pour encapsuler sur le support série est le
Protocole point à point (PPP). L'adresse IP distante est obtenue à la suite
PPP, il est donc nécessaire de préciser uniquement les
Interface. L'exemple définit également une forme d'Ethernet point à point
Connexion, mais Ethernet représente une technologie de diffusion dans la nature
Et donc les principes de la technologie point à point ne s'appliquent pas.
Dans le cas d'interfaces de diffusion telles que Ethernet, le prochain saut doit être
Défini. Lorsque l'interface Ethernet est spécifiée comme interface sortante,
Plusieurs bonds successifs sont susceptibles d'exister et le système ne pourra pas décider
Le prochain saut doit être utilisé. Pour déterminer le prochain saut, un routeur est capable de
Identifiez la connexion locale sur laquelle le paquet doit être reçu.
Dans l'exemple, les paquets destinés à la destination de 192.168.2.0/24 devraient
Ê tre transmis au prochain saut du 10.0.123.2 pour assurer la livraison. Alternativement
Atteindre la destination de 192.168.3.0 exige que le prochain saut de
10.0.123.3 soit défini.
La configuration de la route statique est obtenue à l'aide de ip route-static ipaddress {mask |
Mask-length} interface-type interface-number [nexthopaddress] où l'adresse IP se réfère à la
destination du réseau ou de l'hô te
adresse. Le champ de masque peut être défini comme une valeur de masque ou sur la base de
Le numéro de préfixe. Dans le cas d'un média de diffusion tel que Ethernet, le
L'adresse suivante est utilisée. Lorsqu'un support série est utilisé, le type d'interface
Et le numéro d'interface sont attribués (par exemple série 1/0/0) à la commande à
Définissez l'interface sortante
Lorsque des chemins de coû ts égaux existent entre les réseaux source et destination,
L'équilibrage de charge peut être implémenté pour permettre le trafic sur les deux liens.
Pour ce faire, en utilisant des itinéraires statiques, les deux routes doivent
Paramètres pour une correspondance plus longue, une préférence et une valeur métrique égales.
le
Configuration de plusieurs itinéraires statiques, une pour chaque saut ou sortie
Une interface dans le cas d'un support série est nécessaire.
L'exemple montre comment deux commandes ip route-static sont
Mis en œuvre, définissant chacun la même adresse et masque de destination IP, mais
Alterner les points de départ suivants. Cela garantit que la correspondance la plus longue (/ 24)
est égale,
Et naturellement, c'est la valeur de préférence, puisque les deux routes sont des itinéraires
statiques
Qui portent une préférence par défaut de 60. Le coû t des deux chemins est également égal
Permettant l'équilibrage de charge.
La table de routage peut être interrogée pour vérifier les résultats en exécutant l'affichage ip
Commande de la table de routage après la configuration des routes statiques. La route statique
Est affiché dans la table de routage, et les résultats montrent deux entrées à la même
Destination, avec des préférences de correspondance et des valeurs métriques. Les différents
prochains
Les adresses de sauts et la variation de l'interface sortante identifient les deux chemins
Qui sont prises, et confirme que l'équilibrage de charge a été atteint.
L'application d'itinéraires statiques permet un certain nombre de façons dont les routes peuvent
être
Manipulé pour atteindre les exigences de routage. Il est possible pour la préférence
D'une route statique à modifier afin de permettre la préférence de
Une route statique par rapport à une autre, ou utilisée avec d'autres protocoles, pour assurer
La route statique est préférée ou la préférence est donnée à l'alternative
Protocole de routage.
La valeur de préférence par défaut d'une route statique est de 60, donc en ajustant ceci
Valeur de préférence, une route statique donnée peut être traitée avec une préférence inégale
Sur toute autre route, y compris d'autres itinéraires statiques. Dans l'exemple donné, deux
Des itinéraires statiques existent sur deux segments de LAN physiques, alors qu'ils sont à la fois
statiques
Les itinéraires seraient considérés comme égaux, la deuxième route a été réduite
Préférence (valeur supérieure), ce qui provoque sa suppression de la table de routage. le
Le principe d'une route statique flottante signifie que l'itinéraire avec une préférence moindre
Sera appliqué à la table de routage, si l'itinéraire principal échoue.

En utilisant la commande table de routage ip d'affichage, il est possible que les résultats de
La modification de la valeur de préférence qui aboutit à la route statique flottante, à être
observé. Normalement, deux itinéraires à coû t égal seraient affichés dans le routage
Table définissant la même destination, mais ayant un autre départ
Les valeurs et les interfaces sortantes. Dans ce cas cependant, une seule instance peut
Ê tre visible, contenant la valeur de préférence de la route statique par défaut de 60. Puisque la
La deuxième route statique a maintenant une valeur de préférence de 100, elle n'est pas
immédiatement
Inclus dans la table de routage car il n'est plus considéré comme un itinéraire optimal.

Dans le cas où la route statique primaire échouerait à la suite d'un lien physique
L'échec ou la désactivation d'une interface, la route statique ne sera plus
Capable de fournir un itinéraire vers la destination prévue et sera donc
Retiré de la table de routage. La route statique flottante est susceptible de devenir la
La meilleure option pour atteindre la destination prévue, et sera ajoutée à la
Table de routage pour permettre la transmission des paquets sur un deuxième chemin alternatif
À la destination prévue, permettant une continuité à la lumière de toute défaillance.
Lorsque la connexion physique pour l'itinéraire d'origine est restaurée, l'original
La route statique prend également en charge la route statique flottante actuelle, pour laquelle
La route sera restaurée dans la table de routage, ce qui entraînera la route statique flottante vers
Encore une fois, attendez votre demande.

L'itinéraire statique par défaut est une forme spéciale de route statique appliquée à
Réseaux dans lesquels l'adresse de destination est inconnue, afin de permettre une
Chemin d'acheminement à mettre à disposition. Cela fournit un moyen efficace de
Routage du trafic pour une destination inconnue vers un routeur ou une passerelle qui peut
avoir
Connaissance du chemin d'acheminement dans un réseau d'entreprise.
L'itinéraire par défaut repose sur l'adresse "n'importe quel réseau" de 0.0.0.0 pour correspondre
à n'importe quelle
Réseau auquel une correspondance n'a pas pu être trouvée dans la table de routage et fournit
Un chemin d'acheminement par défaut vers lequel les paquets pour tous les réseaux inconnus
Les destinations devraient être acheminées. Dans l'exemple, une route statique par défaut a été
Mis en œuvre sur RTA, en identifiant que les paquets pour un réseau qui est
Inconnu soit reçu, ces paquets devraient être transmis à destination
10.0.12.2.
En ce qui concerne la prise de décision du tableau de routage, en tant que route statique,
l'itinéraire par défaut
Maintient une préférence de 60 par défaut, mais fonctionne en dernier recours dans
Termes de la règle de match plus longue dans le processus d'alignement d'itinéraire.
La configuration de l'itinéraire statique une fois configuré apparaîtra dans le
Table de routage du routeur. La commande table d'itinéraire IP d'affichage est utilisée pour
Voir ce détail. Par conséquent, toutes les routes dans l'exemple où elles ne sont pas associées
Avec tout autre itinéraire dans la table de routage sera transmis au prochain saut
Destination du 10.0.12.2 via l'interface Gigabit Ethernet 0/0/0.

Résumé
Que faut-il modifier pour permettre à une route statique de devenir une route statique flottante?
Quelle adresse réseau doit être définie pour permettre une route statique par défaut
Mis en œuvre dans la table de routage?
Préface

Les protocoles de routage des vecteurs de distance sont une forme de protocole de routage
dynamique qui fonctionne sur
Le principe de l'algorithme de Bellman-Ford pour définir l'itinéraire que les paquets devraient
Prendre pour atteindre d'autres destinations de réseau. L'application des informations de
routage
Porotocol (RIP) est souvent appliqué dans de nombreux petits réseaux et reste donc un
Protocole populaire même si le protocole lui-même existe depuis beaucoup plus longtemps que
D'autres protocoles de routage dynamique utilisés aujourd'hui. Les caractéristiques d'une telle
détresse
Les protocoles vectoriels sont représentés dans cette section à travers le protocole
d'information de routage.
objectives
Upon completion of this section, trainees will be able to:
Describe the behavior of the Routing Information Protocol.
Successfully configure RIP routing and associated attributes
Le protocole d'information de routage ou RIP tel qu'il est communément connu, représente
L'une des formes de protocole de routage les plus simples appliquées à l'entreprise
Réseaux. RIP fonctionne comme un protocole de passerelle intérieure (IGP) basé sur le
Principes de l'algorithme Bellman-Ford qui fonctionne sur la base de
Vecteur de distance, définissant le chemin que le trafic devrait prendre par rapport à
Distance optimale mesurée à l'aide d'une valeur métrique fixe.
Le protocole RIP contient un nombre minimal de paramètres et nécessite
La bande passante limitée, la configuration et le temps de gestion, ce qui le rend idéal pour
Petits réseaux. RIP n'a cependant pas été conçu avec la capacité de gérer
Sous-réseaux, interagissent avec d'autres protocoles de routage et ne fournissent pas
Moyens d'authentification, puisque sa création est antérieure à la période où ces
Les principes ont été introduits.
Les routeurs RIP activés participent à la publicité du routage
Des informations aux routeurs voisins. Les publicités d'itinéraires sont générées
Contiennent des informations concernant les réseaux connus de l'envoi
Routeur, et la distance pour atteindre ces réseaux. Routeurs activés par RIP
Se diffuser mutuellement, mais lorsqu'ils font de la publicité, ils ne portent que le meilleur
Les informations de routage dans leurs publicités d'itinéraire.
Chaque annonce de routeur contient plusieurs routes, chacune associée à
Une métrique donnée. La métrique permet de déterminer la distance entre un routeur
Et la destination avec laquelle l'annonce d'itinéraire est associée. Dans RIP
La métrique est associée à un mécanisme de comptage de sauts où chaque saut
Entre les routeurs représente un nombre de sauts fixe, généralement d'un. Cette métrique
Ne prend pas en compte d'autres facteurs tels que la bande passante pour chaque
Lien ou tout retard qui peut être imposé au lien. Dans l'exemple, le routeur RTB
Découvre un réseau via deux interfaces différentes, chacune fournissant une métrique de saut
À travers lequel, la meilleure route vers la destination peut être découverte.
Lorsque chaque routeur traite une publicité d'itinéraire, la valeur métrique est
Augmenté avant de transmettre la publicité au routeur voisin.
Lorsque les routes deviennent inaccessibles, il existe un potentiel pour
Les occurrences qui donnent lieu à l'infini.
Afin de résoudre le problème avec des mesures infinies de l'itinéraire, une valeur qui
Représente l'infini a été défini qui a permis le nombre de sauts possibles pour être
Limité à une limite de 15 sauts. Cette métrique suppose une taille de réseau qui est
Jugé approprié pour tenir compte de la taille des réseaux pour lesquels le RIP
Le protocole de routage est adapté, et aussi au-delà de l'échelle que l'on s'attend à
Un réseau de ce type devrait atteindre.
Un nombre de sauts de 16 supposerait que la route serait inaccessible et provoquerait
L'état du réseau pour le réseau donné doit être modifié en conséquence. Boucles de routage
Peut se produire à travers un routeur en train d'envoyer des paquets, entre les routeurs de
peering
Ou à la suite d'un flux de trafic entre plusieurs routeurs.

L'exemple démontre comment une boucle peut potentiellement se former où RIP est le
Protocole de routage. Un réseau (10.0.0.0/8) a été appris à travers l'envoi
Des publicités de route de RTA à RTC, pour lesquelles RTC aura mis à jour son
Table de routage avec le réseau et la métrique de 1, afin d'atteindre le
destination.
En cas d'échec de la connexion entre le routeur RTA et le réseau
Auquel il est directement connecté, le routeur détectera immédiatement la perte de
Itinéraire et considérer l'itinéraire inaccessible. Comme RTC possède
Connaissance du réseau, une publicité d'itinéraire est transmise contenant
Informations concernant le réseau 10.0.0.0/8. À la réception de cela, RTA
Apprendre une nouvelle entrée de route pour 10.0.0.0/8 avec une métrique de 2. Depuis RTC
A initialement appris la route de RTA, tout changement devra être mis à jour dans
RTC également, avec une publicité d'itinéraire envoyée à RTC avec une métrique de 3.
Cela se répétera pendant une période infinie de temps. Une mesure de 16 permet à un plafond
d'être
Placé à l'infini, permettant ainsi à toute route d'atteindre un nombre de sauts de 16 ans
Jugé inaccessible.

Des mécanismes ont été mis en œuvre dans le cadre du protocole de routage RIP
Adressez-vous aux problèmes de boucle de routage qui se produisent lorsque les routes
deviennent inaccessibles.
L'un de ces mécanismes est connu sous le nom d'horizon divisé et fonctionne sur le
Principe selon lequel un itinéraire qui est appris sur une interface ne peut pas être annoncé
Sur cette même interface. Cela signifie que le réseau 10.0.0.0/8 annoncé à
Le routeur RTC ne peut pas être annoncé à RTA sur la même interface,
Mais seront annoncés aux voisins connectés via toutes les autres interfaces.

La mise en œuvre du mécanisme anti-poison permet la vitesse à


Quelles routes erronées ont été expirées pour être augmentées presque instantanément
Résultant de la restitution des routes au routeur d'origine, contenant un
Métrique de 16, afin d'échouer efficacement toute considération pour une meilleure route où
La route devient invalide.
Dans l'exemple, RTA annonce une métrique de 1 pour le réseau vers RTC, alors que
RTC publie le même réseau sur RTA pour s'assurer que si 10.0.0.0/8
Réseau échoue, RTA ne découvrira pas un meilleur chemin vers ce réseau via un autre
Routeur. Cela implique cependant une augmentation de la taille du routage RIP
Message, car les routes contenant les informations du réseau reçues doivent maintenant
Transportent également la mise à jour du réseau, considérant que la route n'est pas accessible,
Routeur voisin à partir duquel la publicité est originaire. À Huawei
Les routeurs de la série AR2200, l'horizon divisé et l'inversion empoisonnée ne peuvent pas être
appliqués
En même temps, si les deux sont configurés, l'inverse seulement empoisonné sera
activée.
Le comportement par défaut de RIP implique des mises à jour de la table de routage envoyée
Périodiquement aux voisins comme publicité d'itinéraire, qui par défaut est fixé à
Se produisent approximativement toutes les 30 secondes. Où les liens échouent cependant, il
aussi
Exige que cette période expire avant d'informer les voisins
Routeurs de l'échec.
Les mises à jour déclenchées se produisent lorsque les informations de routage locales changent
et que les
Le routeur local avertit immédiatement ses voisins des changements de routage
Informations, en envoyant le paquet de mise à jour déclenché. Mises à jour déclenchées
Raccourcir le temps de convergence du réseau. Lorsque l'information de routage local
Les changements, le routeur local informe immédiatement ses voisins des changements dans
Informations de routage, plutô t que d'attendre une mise à jour périodique.
RIP est un protocole basé sur UDP. Chaque routeur qui utilise RIP utilise un routage
Processus impliquant toutes les communications dirigées vers un autre routeur envoyé
Au port 520, y compris tous les messages de mise à jour de routage. RIP transmet généralement
Routage des messages de mise à jour en tant que messages de diffusion, destinés à la diffusion
Adresse du 255.255.255.255, se référant à tous les réseaux. Chaque routeur cependant
Générera sa propre diffusion de mises à jour de routage après chaque mise à jour
période.
Les champs de commande et de version sont utilisés une fois par paquet, avec la commande
Champ précisant si le paquet est un message de demande ou de réponse, pour lequel
Tous les messages de mise à jour sont considérés comme des messages de réponse. La version se
réfère
À la version de RIP, qui dans ce cas est la version 1. Les champs restants sont
Utilisé pour supporter les publicités du réseau pour lesquelles jusqu'à 25 entrées d'itinéraires
Peuvent être annoncés dans un seul message de mise à jour RIP.
L'identifiant de la famille d'adresses répertorie le type de protocole supporté par
RIP, qui dans cet exemple est IP. Les champs restants sont utilisés pour transporter l'IP
L'adresse réseau et la métrique de saut qui contient une valeur comprise entre 1 et 15
(Inclus) et spécifie la métrique actuelle pour la destination; Ou la valeur 16
(L'infini), ce qui indique que la destination n'est pas accessible.
L'introduction d'une nouvelle version de RIP, connue sous le nom de RIP version 2, ne
Modifier le RIP en tant que tel, mais fournit plutô t des extensions au protocole RIP actuel
Pour permettre de résoudre un certain nombre d'ambiguïtés. Le format du RIP
Le datagramme applique les mêmes principes du protocole RIP original avec le
Mêmes paramètres de commande. Le champ de la version met en évidence les champs étendus
Font partie de la version 2.
L'identifiant de la famille d'adresses continue de se référer au protocole pris en charge
Et peut également être utilisé à l'appui d'informations d'authentification comme expliqué
prochainement. L'étiquette d'itinéraire est une autre fonctionnalité qui est introduite pour
résoudre les limitations
Qui existe avec le soutien de l'interaction entre les systèmes autonomes dans RIP, le
Dont les détails échappent toutefois à la portée de ce cours. Supplémentaire
Les extensions de paramètres ont fait partie de l'entrée de route, y compris les
Champ masque de sous-réseau qui contient le masque de sous-réseau appliqué à l'IP
Adresse, pour définir la partie réseau ou sous-réseau de l'adresse.
Le champ Next Hop permet maintenant l'adresse IP du prochain départ,
Quels paquets destinés à l'adresse de destination spécifiée dans une entrée de route,
Devrait être transmis. Afin de réduire la charge inutile d'hô tes qui sont
N'écoute pas les paquets RIP version 2, une adresse IP multicast est utilisée pour
Faciliter les émissions périodiques, pour lesquelles l'adresse de multidiffusion IP utilisée est
224.0.0.9.
L'authentification représente un moyen par lequel les paquets malveillants peuvent être filtrés,
En veillant à ce que tous les paquets reçus puissent être vérifiés à partir d'un certificat valide
Par l'utilisation d'une valeur clé. Cette valeur clé représente à l'origine une
Chaîne de mot de passe en clair qui peut être configurée pour chaque interface, comme
Reconnu par le type d'authentification de 2. L'authentification configurée
Entre les pairs doivent correspondre avant que les messages RIP puissent être réussis
traité. Pour le traitement d'authentification, si le routeur n'est pas configuré pour
Authentifiez les messages RIP version 2, puis RIP version 1 et non authentifiés
Les messages RIP version 2 seront acceptés; Authentification RIP version 2
Les messages doivent être mis au rebut.
Si le routeur est configuré pour authentifier les messages RIP version 2, alors RIP
Les messages de la version 1 et les messages RIP version 2 qui passent l'authentification
Les tests sont acceptés; Authentification non authentifiée et échouée RIP
Les messages de la version 2 doivent être supprimés.
RIP version 2 ne supporte à l'origine que l'authentification simple en texte clair que
Fourni uniquement une sécurité minimale car la chaîne d'authentification pourrait facilement
être
Capturé. Avec le besoin accru de sécurité pour le RIP, cryptographique
L'authentification a été introduite, initialement avec le support d'un MD5 à clé
L'authentification (RFC 2082) et une amélioration supplémentaire grâ ce au support de
HMAC-SHA-1 authentification, introduit à partir de RFC 4822. Alors que Huawei
Les routeurs de la série AR2200 sont capables de supporter toutes les formes d'authentification
Mentionné, l'exemple donné démontre l'authentification d'origine pour
simplicité.

Si un réseau a plusieurs liens redondants, un nombre maximum de coû ts égaux


Les itinéraires peuvent être configurés pour implémenter l'équilibrage de charge. De cette
manière, le réseau
Les ressources sont plus pleinement utilisées, les situations où certains liens sont surchargés
Tandis que d'autres sont inactifs peuvent être évités et de longs retards dans les transmissions
par paquets
Peut être évitée. Le nombre par défaut et le nombre maximum d'itinéraires à coû t égal
Soutenu par RIP est 8 à tout moment.
Il est nécessaire pour tous les routeurs prenant en charge le processus de routage RIP d'abord
activer
Le processus sur chaque routeur. La commande rip [process-id] est utilisée pour activer
Ceci, avec le identifiant de processus identifiant un identifiant de processus spécifique auquel le
routeur est
associé. Si l'identification du processus n'est pas configurée, le processus sera par défaut
ID du processus de 1.Lorsque la variation de l'ID du processus existe, le routeur local
Créez des entrées de table de routage RIP séparées pour chaque processus défini.
La commande version 2 permet à l'extension RIP version 2 de RIP permettant
Pour une capacité supplémentaire pour les sous-réseaux, l'authentification, le système inter-
autonome
Communication, etc. La commande <network-address> du réseau spécifie
L'adresse réseau pour laquelle RIP est activé et doit être l'adresse du
Segment de réseau naturel.
RIP est également capable de supporter la manipulation de métriques RIP pour contrô ler la
Flux de trafic dans un domaine de routage RIP. Un moyen pour y parvenir est de
Ajustez la métrique associée à l'entrée de l'itinéraire lorsqu'elle est reçue par un routeur.
Lorsqu'une interface reçoit une route, RIP ajoute la métrique supplémentaire de la
Interface avec l'itinéraire, puis installe l'itinéraire dans la table de routage,
En augmentant la métrique d'une interface qui augmente également la métrique du RIP
Voie reçue par l'interface.
La commande rip metricin <métric value> permet la manipulation de la
Métrique, où la valeur métrique se réfère à la métrique qui doit être appliquée. Il
Il convient également de noter que pour la commande rip metricin, la valeur métrique est
Ajouté à la valeur métrique actuellement associée à l'itinéraire. Dans l'exemple,
L'entrée de route pour le réseau 10.0.0.0/8 contient une métrique de 1, et est
Manipulé lors de l'arrivée à l'interface de RTC, ce qui entraîne la valeur métrique
De 3 étant associé à l'itinéraire

La commande rip metricout permet de manipuler la métrique pour la


Lorsqu'une route RIP est annoncée. Augmenter la métrique d'une interface aussi
Augmente la métrique de la route RIP envoyée sur l'interface mais n'affecte pas
La métrique de la route dans la table de routage du routeur à laquelle la déchirure
La commande metricout est appliquée.
Dans sa forme la plus élémentaire, la commande rip metricout définit la valeur qui doit
Ê tre adopté par l'entrée de la route transmise, mais est également capable de soutenir
Mécanismes de filtrage pour déterminer de manière sélective à quelles routes la métrique
Devrait être appliqué. Le comportement général de RIP consiste à incrémenter la métrique par
Un avant de transférer l'entrée de l'itinéraire vers le prochain bond. Si le métier d'extraction
La commande est configurée, seule la valeur métrique référencée dans la commande est
appliqué.

La configuration de l'horizon divisé et de l'inversion empoisonnée est effectuée sur


Par interface, la commande rip split-horizon étant activée par
Par défaut (avec exception aux réseaux NBMA) afin d'éviter de nombreux
Problèmes de boucle de routage qui ont été abordés dans cette section. le
La mise en œuvre de l'horizon divisé et de l'inversion empoisonnée n'est pas autorisée sur
Le routeur de la série AR2200, donc où l'inversion empoisonnée est configurée sur
L'interface à l'aide de la commande anti-déchirure-déchirure, l'horizon divisé sera
désactivée.

La configuration du protocole d'information de routage sur une base par interface


Peut être vérifié via l'affichage rip <process_id> interface <interface>
Commande verbose. Les paramètres RIP associés peuvent être trouvés dans
La sortie affichée, y compris la version RIP appliquée avec d'autres
Des paramètres tels que si le poison-reverse et l'horizon divisé ont été
Appliqué à l'interface. Lorsque la commande d'affichage fait référence à la fois
Poison-reverse et split-horizon à la fois activés, seulement le poison-reverse
La commande entrera en vigueur.

La commande rip output est appliquée à l'interface d'un routeur participant à


Routage RIP et permet à RIP de transmettre les messages de mise à jour à partir du
Interface. Lorsque la commande de sortie d'annulation d'annulation est appliquée à une
interface, la
Le message de mise à jour RIP cessera d'être transmis à partir d'une interface donnée. Ses
L'application est valable dans les cas où un réseau d'entreprise souhaite
Ne partage pas ses itinéraires internes via une interface qui se connecte à un externe
Réseau afin de protéger le réseau, en appliquant souvent une route par défaut
Interface à la place pour les itinéraires qui souhaitent accéder à des réseaux externes.
La commande d'annuler l'entrée de déchirement permet à une interface de rejeter toute la mise
à jour RIP
Messages et empêcher les informations RIP d'être ajoutées à la table de routage
Pour une interface donnée. Cela peut être appliqué dans les situations où le flux de trafic
Peut être commandé uniquement par certaines interfaces ou empêcher le RIP de
É tant complètement reçu par le routeur. En tant que tel, tous les messages de mise à jour RIP
L'envoi vers l'interface sera immédiatement mis au rebut. La commande rip input peut
Ê tre utilisé pour réactiver une interface pour reprendre la réception des mises à jour RIP.
L'interface d'affichage rip <process_id> interface <interface> verbose peut également
Ê tre utilisé pour confirmer la mise en œuvre des restrictions à l'interface. Où
L'interface a été configurée avec l'entrée de défilement, la capacité à
Les itinéraires RIP seront considérés comme désactivés comme indiqué sous la rubrique Entrée
paramètre.
L'interface silencieuse permet de recevoir des mises à jour de route RIP et d'utiliser
Mettre à jour la table de routage du routeur, mais ne permettra pas une interface
Participer à la RIP. En comparaison, la commande de l'interface silencieuse a une
Préséance que les deux commandes de saisie et de déchirure. Lorsque l'interface silentinterface
est appliquée, la commande prend la plus haute priorité,
Ce qui signifie qu'aucune interface unique ne peut être activée. La commande silent-interface
Doit être appliqué par interface pour permettre une combinaison active et silencieuse
Interfaces.
Une application commune de l'interface silencieuse est pour un accès multiple non diffusé
Réseaux. Les routeurs peuvent être tenus de recevoir des messages de mise à jour RIP mais
souhaitent
Ne pas diffuser / multicast ses propres mises à jour, exigeant plutô t qu'une relation
Avec le routeur peering être fait par l'utilisation de l'adresse <adresse ip <
commander.
La commande rip d'affichage fournit une sortie basée sur le routeur plus complète
Pour lequel les paramètres mondiaux peuvent être vérifiés avec certaines interfaces basées sur
l'interface
paramètres. La mise en œuvre de la commande silent-interface sur une donnée
L'interface par exemple peut être observée par cette commande.
Résumé
À quel moment la métrique est-elle augmentée pour les routes annoncées?
Quelle configuration est nécessaire pour annoncer les itinéraires RIP?
foreword
OSPF is an interior gateway protocol (IGP) designed for IP networks.
Of link state routing. The link state provides many alternative advantages for medium and even
Large enterprise networks applications as an is introduced along with information revelant to
the
OSPF convergence and implementation, for supporting OSPF in enterprise networks.
objective
Upon completion of this section,
Explain the ospf convergence process
DesCribe the different network types supported by OSPF
Successfully configure single area OSPF networks
Ouvrir le chemin le plus court d'abord ou OSPF est considéré comme un protocole d'état de
liaison qui est
Capable de détecter rapidement les changements topologiques au sein de l'autonomie
Système et établir des itinéraires sans boucle dans un court laps de temps, avec un minimum
Frais généraux de communication supplémentaires pour négocier des changements de topologie
entre
Des routeurs interrogateurs. OSPF traite également des problèmes d'évolutivité qui surviennent
lorsque
La communication entre un nombre croissant de routeurs devient
Extrême qu'il commence à conduire à une instabilité au sein du système autonome. Ce
Est géré par l'utilisation de zones qui limitent la portée du routeur
Communication à un groupe isolé dans le système autonome permettant
Les réseaux petits, moyens et même importants sont pris en charge par OSPF. le
Protocole est également capable de travailler sur d'autres protocoles tels que MPLS, une
étiquette
Protocole de commutation, pour assurer l'évolutivité du réseau même sur une base
géographique
Disperser les emplacements. En termes de découverte optimale du chemin, OSPF fournit des
richesses
Les métriques de route qui fournissent plus de précision que les métriques d'itinéraire
appliquées à
Des protocoles tels que RIP pour s'assurer que les itinéraires sont optimisés, en fonction non
seulement
Distance mais aussi vitesse de liaison.

La convergence de OSPF exige que chaque routeur active


L'exécution du protocole OSPF a une connaissance de l'état de toutes les interfaces et
Adjacences (relation entre les routeurs auxquels ils sont connectés), en
Afin d'établir le meilleur chemin pour chaque réseau. Ceci est initialement formé
Grâ ce à l'inondation de Publicités d'état de liaison (LSA) qui sont des unités de
Des données contenant des informations telles que des réseaux connus et des états de liaison
pour chaque
Interface dans un domaine de routage. Chaque routeur utilisera le LSA reçu pour
Construire une base de données d'état de liaison (LSDB) qui fournit les bases pour établir
L'arbre de chemin le plus court à chaque réseau, dont les routes sont finalement
Incorporé dans la table de routage IP.

L'ID du routeur est une valeur de 32 bits attribuée à chaque routeur exécutant l'OSPF
protocole. Cette valeur identifie de manière unique le routeur dans une zone autonome
Système. L'ID du routeur peut être attribuée manuellement, ou elle peut être prise à partir d'un
Adresse configurée. Si une interface logique (bouclage) a été configurée,
L'ID du routeur sera basée sur l'adresse IP de la logique configurée la plus élevée
Interface, si plusieurs interfaces logiques existent.
Si aucune interface logique n'a été configurée, le routeur utilisera la plus haute IP
Adresse configurée sur une interface physique. Tout routeur exécutant OSPF peut être
Redémarré à l'aide de la fonctionnalité de redémarrage gracieuse pour renouveler
l'identification du routeur devrait être une nouvelle
L'ID du routeur doit être configurée. Il est recommandé de configurer l'ID du routeur
Manuellement pour éviter les modifications inattendues de l'identifiant du routeur en cas de
Changements d'adresse de l'interface.
OSPF prend en charge différents types de réseau et, dans chaque cas, appliquera un autre
Comportement en termes de relations de voisin et comment
La communication est facilitée. Ethernet représente une forme de réseau de diffusion
Cela implique plusieurs routeurs connectés au même segment de réseau. Un des
Les principaux problèmes auxquels est confrontée la communication entre les
Les routeurs voisins afin de minimiser les frais généraux d'acheminement OSPF. Si un
Le réseau Ethernet est établi, le type de réseau de diffusion sera appliqué
Automatiquement dans OSPF.
Lorsque deux routeurs sont établis dans une topologie point à point, la méthode appliquée
Le type de réseau varie en fonction du moyen et de la technologie de la couche de liaison
appliqué. Comme mentionné, l'utilisation d'un support Ethernet entraînera
Type de réseau de diffusion pour que OSPF soit affecté automatiquement. Où le
Le support physique est en série, le type de réseau est considéré point à point.
Les formes communes de protocoles qui fonctionnent sur des supports série à la couche de
liaison
Comprennent le protocole point à point (PPP) et le contrô le de liaison de données de haut
niveau (HDLC).
OSPF peut fonctionner sur des réseaux multi-accès qui ne prennent pas en charge les émissions.
Ces réseaux comprennent Frame Relay et ATM qui fonctionnent généralement en utilisant
Topologies de type hub et spoke, qui reposent sur l'utilisation de circuits virtuels pour
Pour que la communication soit atteinte. OSPF peut spécifier deux types de réseaux
Qui peut être appliqué aux liens liés à de tels environnements. The Non
Le type de réseau Broadcast Multi Access (NBMA) émule un réseau de diffusion
Et exige donc que chaque interface peering fasse partie du même réseau
segment. Contrairement à un réseau de radiodiffusion, le NBMA transmet les paquets OSPF en
tant que
Unicast, nécessitant ainsi la génération de plusieurs instances du même paquet
Pour chaque destination.
Point-à -multipoint peut également être appliqué comme type de réseau pour chaque interface,
Auquel cas un comportement de type point à point est appliqué. Cela signifie que chacun
Le peering doit être associé à différents segments de réseau. Désigné
Les routeurs sont associés à des réseaux de diffusion et sont donc
Mis en œuvre par les réseaux NBMA. Le plus important est le positionnement d'un DR
Qui doit être affecté sur le nœud central de l'architecture hub et spoke à
Assurez-vous que tous les nœuds peuvent communiquer avec le DR.
Afin d'aborder et d'optimiser la communication d'OSPF par diffusion
Réseaux, OSPF implémente un routeur désigné (DR) qui agit comme un centre
Point de communication pour tous les autres routeurs associés à une diffusion
Réseau sur au moins une interface. Dans un réseau de diffusion théorique qui
Ne pas appliquer un DR, on peut comprendre que la communication suit une formule n (n-1) / 2,
où n représente le nombre d'interfaces de routeur participant
Dans OSPF. Dans l'exemple donné, cela renvoie à 6 adjacences entre tous
Les routeurs. Lorsque le DR est appliqué, tous les routeurs établissent une relation avec le
DR à qui est chargé d'agir comme point central de communication pour
Tous les routeurs voisins dans un réseau de diffusion.
Un routeur nommé de sauvegarde (BDR) est un routeur élu à prendre en charge
De la DR devrait-il échouer. En tant que tel, il est nécessaire que le BDR établisse un lien
Base de données d'état comme celle de la DR pour assurer la synchronisation. Ceci veut dire cela
Tous les routeurs voisins doivent également communiquer avec le BDR dans une émission
réseau. Avec l'application du DR et du BDR, le nombre d'associations
Est réduit de 6 à 5 puisque RTA et RTB doivent seulement communiquer avec le
DR et BDR. Cela peut sembler avoir un effet minimal mais là où il s'agit
Appliqué à un réseau contenant par exemple 10 routeurs, c'est-à -dire (10 * 9) / 2 le
L'efficacité de communication résultante devient évidente.
OSPF crée des adjacences entre les routeurs voisins dans le but de
É change d'informations de routage. Pas tous les deux routeurs voisins deviendront
Adjacent, en particulier lorsque l'un des deux routeurs établit une adjacence
Est considéré comme ne pas être le DR ou le BDR. Ces routeurs sont connus sous le nom
DROther
Et reconnaissent seulement la présence du DROther mais n'établissent pas pleinement
la communication; Cet état est connu comme l'état voisin. DROther routeurs font
Cependant, forme une adjacence complète avec les routeurs DR et BDR pour permettre
Synchronisation de la base de données d'état de liaison des routeurs DR et BDR avec
Chacun des routeurs DROther. Cette synchronisation est réalisée en établissant
Un état adjacent avec chaque DROther.
Une adjacence est liée au réseau que les deux routeurs ont en commun. Si
Deux routeurs ont plusieurs réseaux en commun, ils peuvent avoir plusieurs
Adjacences entre eux.
Chaque routeur participant à OSPF va passer par un certain nombre de liens
É tats pour atteindre un état voisin ou un état adjacent. Tous les routeurs commencent
Dans l'état descendant lors de l'initialisation et passer par une découverte voisine
, Ce qui implique d'abord de faire connaitre une présence de routeurs dans
Réseau OSPF via un paquet Hello. En effectuant cette action, le routeur
Transition vers un état init.
Une fois que le routeur reçoit une réponse sous la forme d'un paquet Hello contenant
L'ID du routeur du routeur recevant la réponse, un état à 2 voies sera
Atteint et une relation de voisin s'est formée. Dans le cas des réseaux NBMA,
Un état de tentative est atteint lorsque la communication avec le voisin a
Deviennent inactifs et une tentative est faite de rétablir la communication
Par l'envoi périodique de paquets Hello. Les routeurs qui n'atteignent pas un
La relation adjacente restera dans un état voisin avec un état à 2 voies de
la communication.
Les routeurs tels que DR et BDR construisent un état voisin adjacent avec tous
Autres routeurs voisins, et doit donc échanger des informations d'état de liaison
Afin d'établir une base de données complète d'état de liaison. Cela exige que le peering
Les routeurs qui établissent une adjacence négocient d'abord pour échanger de l'état de liaison
Informations (ExStart) avant d'échanger des informations récapitulatives
En ce qui concerne les réseaux qu'ils connaissent. Les voisins peuvent identifier les itinéraires
qu'ils
Ne sont pas au courant ou n'ont pas d'informations à jour, et donc
Demandez des détails supplémentaires pour ces routes dans le cadre de l'état de chargement.
Complètement
La relation synchronisée entre voisins est déterminée par l'état complet à
À ce moment-là , les deux routeurs peering peuvent être considérés comme adjacents.

La découverte de voisin est obtenue grâ ce à l'utilisation de paquets Hello qui sont
Généré à intervalles basés sur une minuterie Hello, qui par défaut est tous les 10
Secondes pour la diffusion et les types de réseau point à point; Alors que pour NBMA
Et Pointer vers les types de réseau multipoint, l'intervalle de hello est de 30 secondes. le
Bonjour le paquet contient cette période d'intervalle, avec un champ de priorité de routeur qui
Permet aux voisins de déterminer le voisin avec l'ID de routeur le plus élevé
Identification du DR et du BDR dans les réseaux de diffusion et NBMA.
Une période spécifiant combien de temps un paquet hello est valide avant que le voisin ne soit
Considéré comme perdu doit également être défini, et cela est porté lorsque le routeur est mort
Intervalle dans le paquet hello. Cet intervalle mort est défini par défaut pour quatre
Fois l'intervalle hello, soit 40 secondes pour diffusion et point à point
Réseaux et 120 secondes pour les réseaux NBMA et Point vers Multipoint.
De plus, l'ID du routeur du DR et du BDR est transporté, où
Applicable, basé sur le réseau pour lequel le paquet hello est généré

Après la découverte du voisin, l'élection du DR peut se produire selon les


Type de réseau du segment de réseau. Les réseaux Broadcast et NMBA
Effectuer une élection DR. L'élection de la DR repose sur une priorité qui est
Attribué pour chaque interface qui participe au processus électoral DR. Ce
La valeur de priorité est définie comme 1 par défaut et une priorité plus élevée représente un
meilleur DR
candidat.
Si une priorité de 0 est définie, l'interface du routeur ne participera plus à la
L'élection pour devenir DR ou BDR. C'est peut-être là où point à point
Les connexions (utilisant Ethernet comme moyen physique) sont configurées pour supporter un
Type de réseau de diffusion, une élection DR inutile se produira, qui génère
Trafic de protocole excessif. Il est donc recommandé que le type de réseau
Ê tre configuré en tant que type de réseau point à point.

Afin d'améliorer l'efficacité de la transition vers une nouvelle désignation


Routeur, un routeur désigné de sauvegarde est affecté à chaque diffusion et
Réseau NBMA. Le routeur désigné par la sauvegarde est également adjacent à tous les routeurs
Sur le réseau, et devient le routeur désigné lorsque le précédent
Le routeur désigné échoue. S'il n'y avait pas de présentateur de sauvegarde désigné,
De nouvelles adjacences devraient être formées entre les nouveaux
Routeur et tous les autres routeurs connectés au réseau.
Une partie du processus de formation d'adjacence implique la synchronisation de l'état de
liaison
Bases de données, qui peuvent potentiellement prendre beaucoup de temps. Pendant ce temps,
le
Le réseau ne serait pas disponible pour le transit des données. La sauvegarde désignée
Le routeur évite le besoin de former ces adjacences, car elles existent déjà .
Cela signifie que la période de perturbation du trafic de transit dure seulement tant qu'elle
Prend pour inonder les nouveaux LSA (qui annoncent le nouveau routeur désigné).
Le routeur nommé de sauvegarde est également élu par le paquet Hello. Chacun Hello
Paquet a un champ qui spécifie le routeur désigné de sauvegarde pour le réseau.

Dans un algorithme de routage d'état de liaison, il est très important pour l'état de liaison de
tous les routeurs
Bases de données pour rester synchronisé. OSPF simplifie cela en exigeant seulement
Les routeurs adjacents restent synchronisés. Le processus de synchronisation commence
comme
Dès que les routeurs tentent d'ouvrir la contiguïté. Chaque routeur décrit
Sa base de données en envoyant une séquence de paquets de description de base de données à
son
voisin. Chaque paquet de description de base de données décrit un ensemble de LSA
Appartenant à la base de données du routeur.
Lorsque le voisin voit un LSA plus récente que sa propre base de données
Copie, il note que cette nouvelle LSA devrait être demandée. Cet envoi
Et la réception des paquets de description de base de données s'appelle la "Base de données
Processus d'échange ". Pendant ce processus, les deux routeurs forment un maître / esclave
relation. Chaque paquet de description de base de données a un numéro de séquence.
Les paquets de description de la base de données envoyés par le maître sont reconnus par
Esclave en faisant écho au numéro de séquence.
Pendant et après le processus d'échange de base de données, chaque routeur a une liste de
Ces LSA pour lesquels le voisin a des cas plus récents. Le lien
Le paquet de demande d'état est utilisé pour demander les pièces de la base de données du
voisin
Qui sont plus à jour. Plusieurs paquets de demande d'état de liaison peuvent être nécessaires
utilisé.
Les paquets de mise à jour de l'état du lien implémentent l'inondation des LSA. Chaque état de
liaison
Le paquet de mise à jour porte une collection de LSAs un peu plus loin de leur origine.
Plusieurs LSA peuvent être inclus dans un seul paquet. Sur les réseaux de diffusion, les
Les paquets de mise à jour de l'état du lien sont multicast. L'adresse IP de destination spécifiée
Pour le paquet de mise à jour de l'état du lien dépend de l'état de l'interface. Si la
L'état de l'interface est DR ou Backup, l'adresse AllSPFRouters (224.0.0.5) devrait
être utilisé. Sinon, l'adresse AllDRouters (224.0.0.6) devrait être utilisée. Sur
Les réseaux non diffusés, les paquets séparés de mise à jour de l'état du lien doivent être
envoyés,
Unicast, à chaque voisin adjacent (c'est-à -dire ceux en état d'échange ou
plus grand). Les adresses IP de destination pour ces paquets sont l'IP des voisins
Adresses.
Lorsque le processus de description de la base de données a été complété et que tous les états du
lien
Les demandes ont été satisfaites, les bases de données sont jugées synchronisées et
Les routeurs sont marqués entièrement adjacents. À cette époque, la contiguïté est entièrement
Fonctionnel et est annoncé dans le routeur-LSA des deux routeurs.
OSPF calcule le coû t d'une interface en fonction de la bande passante de l'interface.
La formule de calcul est: coû t de l'interface = valeur de référence de
Bande passante / bande passante. La valeur de référence de la bande passante est configurable
pour
Dont la valeur par défaut est de 100 Mbps. Avec la formule 100000000 / bande passante, ceci
Donne une métrique de coû t de 1562 pour un port série de 64 kbit / s, 48 pour un E1 (2.048
Mbit / s) et un coû t de 1 pour Ethernet (100 Mbit / s) ou supérieur.
Pour pouvoir distinguer les interfaces à vitesse supérieure, il est impératif que
La mesure du coû t doit être ajustée pour correspondre aux vitesses actuellement prises en
charge. le
Les commandes de référence de bande passante permettent de modifier la métrique en
changeant
La valeur de référence de la bande passante dans la formule de coû t. Plus la valeur est élevée,
Plus la métrique est précise. Lorsque les vitesses de 10Gb sont supportées,
Est recommandé que la valeur de référence de bande passante soit augmentée à '10000'
Ou 10
dix
/ Bande passante pour fournir des mesures de 1, 10 et 100 pour 10Gb, 1Gb et
100Mb de liens de bande passante respectivement.
Alternativement, le coû t peut être configuré manuellement en utilisant le coû t OSPF
Commande de définir une valeur de coû t pour une interface donnée. La gamme de coû ts
Du 1 au 65535 avec une valeur de coû t par défaut de 1.
Un routeur qui a atteint un état complet est considéré comme ayant reçu tout le lien
Publicités d'état (LSA) et synchronisé sa base de données d'état de liaison (LSDB)
Avec celle des voisins adjacents. L'information d'état de liaison recueillie dans
La base de données d'état de liaison est ensuite utilisée pour calculer le chemin le plus court
pour chaque réseau.
Chaque routeur ne repose que sur les informations contenues dans la LSDB afin de
Calculer indépendamment le chemin le plus court vers chaque destination, par opposition à
En s'appuyant sur des informations sur les itinéraires sélectionnés des pairs qui sont considérés
comme les meilleurs
Route vers une destination. Le calcul de l'arbre du chemin le plus court signifie cependant
Que chaque routeur doit utiliser des ressources supplémentaires pour réaliser cette opération.
Les réseaux plus petits peuvent impliquer un certain nombre de routeurs qui fonctionnent
comme
Une partie du domaine OSPF. Ces routeurs sont considérés comme faisant partie d'une zone
Qui est représenté par une base de données d'état de liaison identique pour tous les routeurs au
sein
le domaine. En tant que zone unique, OSPF peut recevoir n'importe quel numéro de zone,
Toutefois, dans l'intérêt de la mise en œuvre de conception future, il est recommandé que
Cette zone sera attribuée comme zone 0
La nécessité de transférer des publicités d'état de liaison et le calcul ultérieur de
Le chemin le plus court basé sur la base de données de l'état du lien devient de plus en plus
Complexe car de plus en plus de routeurs deviennent une partie du domaine OSPF. Comme
Ainsi, OSPF est capable de supporter une structure hiérarchique pour limiter la taille de
La base de données d'état de liaison et le nombre de calculs à effectuer
Lors de la détermination du chemin le plus court vers un réseau donné.
La mise en œuvre de plusieurs zones permet à un domaine OSPF de
Compartimenter le processus de calcul basé sur une base de données d'état de liaison, que
Est seulement identique pour chaque zone, mais fournit l'information pour atteindre tous
Destinations dans le domaine OSPF. Certains routeurs connus sous le nom de bordure de zone
Les routeurs (ABR) fonctionnent entre les zones et contiennent un état de liaison multiple
Bases de données pour chaque zone à laquelle l'ABR est connecté. La zone 0 doit être
Configuré où existe l'OSPF multi-zones et pour lequel tout le trafic a été envoyé
Entre les zones est généralement nécessaire pour traverser la zone 0, afin d'assurer
Les boucles de routage ne se produisent pas.

L'établissement d'OSPF dans un domaine AS exige que chaque routeur soit


Participez à OSPF d'abord activez le processus OSPF. Ceci est réalisé en utilisant le
La commande ospf [process id], où l'identification du processus peut être affectée et
Représente la procédure avec laquelle le routeur est associé. Si les routeurs sont
Ont attribué différents numéros d'identification de processus, des bases de données distinctes
seront
Créé en fonction de chaque ID de processus individuel. Où aucun ID de processus n'est
Assigné, l'ID de process par défaut de 1 sera utilisé. L'ID du routeur peut également être
Assigné en utilisant la commande ospf [process id] [router-id <router-id>], où
<Routeur-id> se réfère à l'ID qui doit être affecté au routeur, en tenant compte
Qu'une valeur d'ID plus élevée représente le DR dans les réseaux de radiodiffusion et NBMA.
Les informations parenthèses reflètent le processus et le niveau de l'ospf à laquelle ospf
Les paramètres peuvent être configurés, y compris la zone à laquelle chaque lien (ou
Interface) est associée. Les réseaux qui doivent être annoncés dans une zone donnée
Sont déterminés par l'utilisation de la commande réseau. Le masque est
Représenté comme un masque générique pour lequel une valeur de bit de 0 représente les bits
Qui sont corrigés (par exemple, identifiant réseau) et où les valeurs de bits dans le masque
représentent
Une valeur de 1, l'adresse peut représenter n'importe quelle valeur.

La configuration de la relation de voisin entre les pairs OSPF est vérifiée


À travers l'affichage de la commande peer ospf. Les attributs associés à la
La connexion par les pairs est répertoriée pour fournir une explication claire de la configuration.
Les attributs importants incluent la zone dans laquelle l'association de pairs est
L'état de l'établissement par les pairs, l'association maître / esclave
Pour la négociation d'adjacence afin d'atteindre l'état complet, et aussi la DR et
Attributions BDR qui souligne que le lien est associé à une diffusion
type de réseau.

OSPF est capable de supporter l'authentification pour s'assurer que les routes sont
Protégé des actions malveillantes pouvant résulter d'une manipulation ou d'un dommage
À la topologie OSPF et aux itinéraires existants. OSPF permet l'utilisation de simples
L'authentification ainsi que l'authentification cryptographique, qui fournit
Protection améliorée contre les attaques potentielles.
L'authentification est attribuée par interface avec la commande pour
Authentification simple du mode d'authentification ospf {simple [[plain] <plaintext> |
Chiffrement <chiffrement-texte>] | Null} où plainte un mot de passe de texte clair
Changer un mot de passe de texte chiffré pour cacher le contenu original et nul pour indiquer
Une authentification nulle.
L'authentification cryptographique est appliquée en utilisant le mode d'authentification ospf {
Md5 | Hmac-md5} [key-id {plain <plain-text> | [Chiffrement] <chiffrement-texte>}]
commander. MD5 représente un algorithme cryptographique pour sécuriser
L'authentification sur le lien, sa configuration étant démontrée dans le
Exemple donné. La clé identifie une clé unique d'authentification ID du chiffre
Authentification de l'interface. L'identifiant de clé doit être conforme à celui de la
pair.

Lorsque l'authentification est appliquée, il est possible d'implémenter le débogage sur le


Terminal pour afficher le processus d'authentification. É tant donné que le débogage peut
impliquer
De nombreux événements, la commande debugging ospf packet devrait être utilisée pour
spécifier
Ce débogage ne doit être effectué que pour les paquets spécifiques aux OSPF. Comme un
Le processus d'authentification peut être considéré pour valider que le
La configuration d'authentification a été mise en œuvre avec succès.
Il est souvent nécessaire de contrô ler le flux d'informations de routage et de limiter
Gamme pour laquelle de tels protocoles de routage peuvent s'étendre. C'est particulièrement le
cas
Où se connecter à des réseaux externes dont la connaissance de l'interne
Les routes doivent être protégées. Pour ce faire, l'interface silencieuse
La commande peut être appliquée comme un moyen de restreindre toute communication OSPF
via
L'interface sur laquelle la commande est implémentée.
Une fois qu'une interface OSPF est configurée dans l'état silencieux, l'interface peut encore
Annoncer ses itinéraires directs. Bonjour les paquets sur l'interface, cependant, seront
Bloqué et aucune relation de voisin ne peut être établie sur l'interface. le
L'interface silencieuse [interface-type interface-number] peut être utilisée pour
Définir une interface spécifique qui consiste à restreindre l'opération OSPF ou, en variante, à
La commande silent-interface peut être utilisée pour garantir que toutes les interfaces
Dans un processus spécifique, il est interdit de participer à OSPF.
La mise en œuvre de l'interface silencieuse sur une base par interface signifie que
L'interface spécifique doit être observée pour valider l'application réussie
De la commande d'interface silencieuse. À travers l'affichage ospf <process_id>
Interface <interface>, où l'interface représente l'interface pour
Que la commande d'interface silencieuse a été appliquée, il est possible de valider
La mise en œuvre de l'interface silencieuse
résumé
Quel est le but de l'intervalle mort dans l'en-tête OSPF?
Dans un réseau de diffusion, quelle est l'adresse de multidiffusion utilisée par le routeur désigné
(DR)
Et le routeur nommé de sauvegarde (BDR) si vous écoutez l'état de la liaison Informations de
mise à jour?
Avant-propos
Un réseau d'entreprise peut consister souvent en un nombre important de dispositifs hô tes,
chacun nécessitant
Paramètres de réseau sous forme d'adressage IP et d'informations supplémentaires de
configuration réseau.
L'allocation manuelle est souvent une activité fastidieuse et inexacte qui peut conduire à de
nombreuses stations finales face à
La duplication d'adresse ou la faillure pour atteindre les services nécessaires à un
fonctionnement en réseau sans heurts.
DHCP est un protocole de couche d'application conçu pour automatiser le processus de
fourniture
  Ces informations de configuration aux clients d'un réseau TCP / IP. Le DHCP aide donc à
La répartition correcte est allouée et réduit le fardeau de l'administration pour toutes les
entreprises
Réseaux. Cette section présente l'application de DHCP dans le réseau de l'entreprise.
objectifs
À la suite de cette section, les stagiaires seront en mesure de:
Décrivez la fonction de DHCP dans le réseau d'entreprise
Expliquer le processus de location de DHCP
Configurer les pools DHCP pour la location d'adresse
Les réseaux d'entreprise sont souvent constitués de systèmes à plusieurs
Attribution d'adresse IP pour se connecter au segment de réseau auquel
Le système final est joint. Pour les petits réseaux, un nombre minimal de fin
Les systèmes attachés au réseau permettent une gestion simple de la
Adressage pour tous les systèmes finaux.
Pour les réseaux à moyen et à grande échelle, il devient de plus en plus
Difficile de configurer manuellement les adresses IP avec une probabilité accrue de
La duplication de l'adressage, ainsi que la mauvaise configuration en raison d'une erreur
humaine, et
Donc la nécessité de mettre en place une solution de gestion centralisée sur
Tout le réseau devient de plus en plus important. L'hô te dynamique
Le protocole de configuration (DHCP) est implémenté comme une solution de gestion pour
Autoriser l'attribution dynamique des adresses pour la fin fixe et temporaire existante
Systèmes d'accès au domaine réseau.
Dans les cas, il est également possible qu'il y ait plus d'hô tes que d'IP disponibles
Adresses sur un réseau. Certains hô tes ne peuvent pas recevoir une adresse IP fixe
Et doivent obtenir des adresses IP dynamiquement à l'aide du serveur DHCP. Seulement un
Quelques hô tes sur un réseau nécessitent des adresses IP fixes.

DHCP prend en charge trois mécanismes pour l'allocation d'adresse IP. La méthode de
L'allocation automatique implique un DHCP assignant une adresse IP permanente à un
client. L'utilisation de l'allocation dynamique utilise DHCP pour attribuer une adresse IP
À un client pour une période de temps limitée ou au moins jusqu'à ce que le client soit
explicitement
Renonce à l'adresse IP.
Le troisième mécanisme est appelé allocation manuelle, pour laquelle l'IP d'un client
L'adresse est attribuée par l'administrateur réseau, et DHCP est utilisé uniquement pour
Gérer l'affectation de l'adresse définie manuellement au client. Dynamique
L'allocation est le seul des trois mécanismes permettant la réutilisation automatique
D'une adresse qui n'est plus nécessaire pour le client auquel elle a été affectée.
Ainsi, l'allocation dynamique est particulièrement utile pour affecter une adresse à un
Client qui ne sera connecté au réseau que temporairement ou pour partager un
Pool limité d'adresses IP parmi un groupe de clients qui n'ont pas besoin
Adresses IP permanentes.
L'allocation dynamique peut aussi être un bon choix pour affecter une adresse IP à
Un nouveau client connecté en permanence à un réseau, où les adresses IP
Sont suffisamment rares pour que les adresses puissent être récupérées lorsqu'elles sont
anciennes
Les clients sont à la retraite. L'allocation manuelle permet au DHCP d'être utilisé pour éliminer
les
Processus propice aux erreurs de configuration manuelle des hô tes avec adresses IP dans
Les environnements où il est plus souhaitable de gérer de manière méticuleuse IP
Affectation d'adresse.

Un serveur DHCP et un client DHCP communiquent entre eux par


É change d'une gamme de types de messages. La communication initiale repose sur
Transmission d'un message DHCP Discover. Ceci est diffusé par un DHCP
Client pour localiser un serveur DHCP lorsque le client tente de se connecter à un serveur DHCP
Réseau pour la première fois. Un message d'offre DHCP est ensuite envoyé par un DHCP
Serveur pour répondre à un message DHCP Discover et porte la configuration
information.
Un message de demande DHCP est envoyé après la initialisation d'un client DHCP, dans lequel il
Diffuse un message de demande DHCP pour répondre à l'offre DHCP
Message envoyé par un serveur DHCP. Un message de demande est également envoyé après un
Le client DHCP est redémarré, date à laquelle il diffuse une demande DHCP
Message pour confirmer la configuration, telle que l'adresse IP attribuée. UNE
Le message de demande DHCP est également envoyé après qu'un client DHCP obtient une
adresse IP
Adresse, afin d'étendre la location d'adresse IP.
Un message DHCP ACK est envoyé par un serveur DHCP pour confirmer le DHCP
Demandez un message à partir d'un client DHCP. Après avoir reçu un DHCP ACK
Message, le client DHCP obtient les paramètres de configuration, y compris les
Adresse IP. Cependant, tous les cas ne concernent pas l'adresse IP attribuée
À un client. Le message DHCP NAK est envoyé par un serveur DHCP dans l'ordre
Rejeter le message de demande DHCP d'un client DHCP lorsque l'adresse IP
Attribué au client DHCP expire, ou dans le cas où le client DHCP
Se déplace vers un autre réseau.
Un message DHCP Decline est envoyé par un client DHCP, pour avertir le serveur DHCP
Un message DHCP Release est envoyé par un client DHCP pour publier son adresse IP.
Après avoir reçu un message DHCP Release, le serveur DHCP attribue cette IP
Adresse à un autre client DHCP.
Un type de message final est le message DHCP Inform et est envoyé par un DHCP
Client pour obtenir d'autres informations de configuration réseau telles que la passerelle
L'adresse et l'adresse du serveur DNS après que le client DHCP a obtenu une IP
adresse.
Les périphériques de la série AR2200 et S5700 peuvent fonctionner en tant que serveur DHCP
Assigner des adresses IP aux utilisateurs en ligne. Les piscines d'adresses sont utilisées pour
définir
Les adresses qui devraient être attribuées aux systèmes finaux. Il y a deux généralités
Formes de piscines d'adresses pouvant être utilisées pour l'attribution des adresses, les
Le pool d'adresses et le pool d'adresses d'interface.
L'utilisation d'une piscine d'adresses d'interface permet uniquement aux systèmes finaux
connectés à
Le même segment de réseau que l'interface à l'attributaire aux adresses IP de
Cette piscine. Le pool d'adresses global une fois configuré permet à tous les systèmes finaux
Associé au serveur pour obtenir des adresses IP à partir de la piscine d'adresses et
Est implémenté en utilisant la commande dhcp sélectionnez global pour identifier le global
Pool d'adresses. Dans le cas du pool d'adresses d'interface, le dhcp
La commande d'interface identifie l'interface et le segment de réseau
Le pool d'adresses d'interface est associé.
Le pool d'adresses d'interface à priorité sur le pool d'adresses global. Si
Un pool d'adresses est configuré sur une interface, les clients connectés à la
Interface, obtenez les adresses IP du pool d'adresses d'interface, même si
Le pool d'adresses est configuré. Sur le commutateur S5700, seul VLANIF logique
Les interfaces peuvent être configurées avec les pools d'adresses d'interface.
L'acquisition d'une adresse IP et d'autres informations de configuration requiert
Que le client entre en contact avec un serveur DHCP et qu'il récupère par demande
Les informations d'adressage pour faire partie du domaine IP. Ce processus
Commence par le processus de découverte IP dans lequel le client DHCP recherche un
Serveur DHCP. Le client DHCP diffuse un message DHCP Discover et
Les serveurs DHCP répondent au message Discover.
La découverte d'un ou plusieurs serveurs DHCP résulte de chaque serveur DHCP
Offrant une adresse IP au client DHCP. Après avoir reçu le DHCP Discover
, Chaque serveur DHCP sélectionne une adresse IP non assignée à partir de l'IP
Pool d'adresses et envoie un message d'offre DHCP avec l'adresse IP attribuée
Et d'autres informations de configuration au client.
Si plusieurs serveurs DHCP envoient des messages d'offre DHCP au client, le client
Accepte le premier message d'offre DHCP reçu. Le client diffuse alors un
Message de demande DHCP avec l'adresse IP sélectionnée. Après avoir reçu le
Message de demande DHCP, le serveur DHCP qui offre l'adresse IP envoie un
Message DHCP ACK au client DHCP. Le message DHCP ACK contient
L'adresse IP proposée et d'autres informations de configuration.
Lors de la réception du message DHCP ACK, le client DHCP diffuse
Paquets ARP gratuits pour détecter si un hô te utilise l'adresse IP
Attribué par DHCP sever. Si aucune réponse n'est reçue dans un délai spécifié
Temps, le client DHCP utilise cette adresse IP. Si un hô te utilise cette adresse IP,
Le client DHCP envoie le paquet DHCP Decline au serveur DHCP,
Déclarant que l'adresse IP ne peut pas être utilisée, après quoi le client DHCP
S'applique à une autre adresse IP.

Après avoir obtenu une adresse IP, le client DHCP entre dans l'état de liaison. Trois
Les temporisateurs sont définis sur le client DHCP pour contrô ler la mise à jour de la location, le
relèvement de la location,
Et l'expiration du bail. Lors de l'attribution d'une adresse IP à un client DHCP,
Le serveur DHCP spécifie des valeurs pour les temporisateurs.
Si le serveur DHCP ne définit pas les valeurs pour les minuteries, le client DHCP
Utilise les valeurs par défaut. Les valeurs par défaut définissent que lorsque 50% du bail
La période demeure, le processus de renouvellement de la publication devrait commencer, pour
lequel un DHCP
Le client devrait renouveler son bail d'adresse IP. Le client DHCP
Envoie automatiquement un message de demande DHCP au serveur DHCP qui a
A attribué une adresse IP au client DHCP.
Si l'adresse IP est valide, le serveur DHCP répond avec un message DHCP ACK
Pour donner au client DHCP un nouveau bail, puis le client rentre dans le
É tat de liaison. Si le client DHCP reçoit un message DHCP NAK de la
Le serveur DHCP, il entre dans l'état d'initialisation.
Une fois que le client DHCP envoie un message de demande DHCP pour étendre le bail,
Le client DHCP reste dans un état de mise à jour et attend une réponse. Si la
Le client DHCP ne reçoit pas de message de réponse DHCP du serveur DHCP
Après la expiration de la temporisation de rappel du serveur DHCP qui se produit par défaut
lorsque
12,5% de la période de location reste, le client DHCP suppose que l'original
Le serveur DHCP n'est pas disponible et commence à diffuser une demande DHCP
Message, pour lequel tout serveur DHCP sur le réseau peut répondre avec un DHCP
Message ACK ou NAK.
Si le message reçu est un message DHCP ACK, le client DHCP retourne à
L'état de liaison et réinitialise la minuterie de renouvellement de bail et la temporisation de
liaison du serveur.
Si tous les messages reçus sont des messages DHCP NAK, le client DHCP
Retourne à l'état d'initialisation. À ce moment, le client DHCP doit arrêter
En utilisant cette adresse IP immédiatement et demande une nouvelle adresse IP.
Le temporisateur de bail est la minuterie finale dans le processus d'expiration, et si le DHCP
Le client ne reçoit pas de réponse avant l'expiration du délai d'expiration du bail,
Le client DHCP doit cesser d'utiliser l'adresse IP actuelle immédiatement et
Retourner à l'état d'initialisation. Le client DHCP envoie alors un DHCP
DÉ COUVRIR le message pour postuler à une nouvelle adresse IP, redémarrant ainsi le DHCP
cycle.
Il existe deux formes de configuration de pool prises en charge dans DHCP, ces
Inclure la définition d'un pool global ou d'un pool basé sur l'interface. Le dhcp select
La commande d'interface est utilisée pour associer une interface à l'adresse de l'interface
Pool afin de fournir des informations de configuration aux hô tes connectés. le
Exemple montre comment l'interface Gigabit Ethernet 0/0/0 a été
Assigné dans le cadre d'un pool d'adresses d'interface.
Chaque serveur DHCP définira un ou plusieurs pools qui peuvent être associés
Globalement ou avec une interface donnée. Pour déterminer les attributs de la piscine
Associé à une interface, l'interface d'affichage ip pool <interface>
La commande est utilisée. Le pool DHCP contiendra des informations incluant le bail
Période pour chaque adresse IP qui est louée, ainsi que la plage de pool qui est
prise en charge. Dans le cas où d'autres attributs sont pris en charge pour DHCP
Propagation vers des clients tels que la passerelle IP, le masque de sous-réseau et le DNS
Serveur, ceux-ci seront également affichés.
L'exemple démontre la configuration DHCP pour un pool d'adresses global
Qui est affecté au réseau 10.2.2.0. La commande dhcp enable est la
Prérequis pour configurer les fonctions liées au DHCP et ne prend effet qu'après
La commande dhcp enable est exécutée. Un serveur DHCP requiert le pool ip
La commande doit être configurée dans la vue système pour créer un pool d'adresses IP et
Définir les paramètres du pool d'adresses IP, y compris une adresse de passerelle, l'adresse IP
La période de location, etc. Le serveur DHCP configuré peut alors attribuer des adresses IP
Dans le pool d'adresses IP aux clients.
Un serveur DHCP et son client peuvent résider sur différents segments de réseau. À
Permettre au client de communiquer avec le serveur DHCP, la liste des passerelles
La commande est utilisée pour spécifier une adresse de sortie de la passerelle pour l'adresse
globale
Pool du serveur DHCP. Le serveur DHCP peut alors affecter à la fois une IP
L'adresse et l'adresse de la passerelle de sortie spécifiée au client. L'adresse
Est configuré en notation décimale en pointillés pour laquelle un maximum de huit passerelles
Les adresses, séparées par des espaces, peuvent être configurées.

L'information concernant un pool peut également être observée par l'utilisation de


Afficher la commande ip pool. Cette commande fournira un aperçu de la
Paramètres de configuration généraux pris en charge par un pool configuré, y compris
La passerelle et le masque de sous-réseau pour le pool, ainsi que des statistiques générales qui
permettent
Un administrateur pour surveiller l'utilisation actuelle du pool, pour déterminer le nombre de
Les adresses attribuées, ainsi que d'autres statistiques d'utilisation.
résumé
Quelle adresse IP devrait généralement être exclue du pool d'adresses?
Quelle est la période de location d'adresse IP par défaut?
Préface
Le développement précoce des normes a introduit les bases d'un protocole de transfert de
fichier, avec le
Vise à promouvoir le partage de fichiers entre des sites distants qui n'ont pas été touchés par des
variations
Dans les systèmes de stockage de fichiers parmi les hô tes. La demande FTP résultante a
finalement été adoptée en tant que partie
De la suite de protocoles TCP / IP. Le service FTP reste une partie intégrante du réseautage en
tant qu'application
Pour assurer le transfert de données fiable et efficace, généralement mis en œuvre pour une
sauvegarde efficace
Et la récupération des fichiers et des journaux, améliorant ainsi la gestion globale du réseau
d'entreprise.
Cette section présente donc les moyens pour les moteurs et les administrateurs d'implémenter
des services FTP
Dans les produits HUAWEI.
objectifs
À la fin de cette section, les stagiaires seront en mesure de:
Expliquer le transfert de fichier de FTP
Configurez le service FP sur le support des périphériques Huawei
La mise en place d'un serveur FTP dans le réseau de l'entreprise permet
Une sauvegarde et une récupération efficaces de fichiers système et utilisateurs importants, qui
peuvent
Ê tre utilisé pour maintenir l'exploitation quotidienne d'un réseau d'entreprise. Typique
Des exemples de la façon dont un serveur FTP peut être appliqué comprennent le sauvegarde et
Récupération d'images et de fichiers de configuration VRP. Cela peut également inclure le
La récupération des fichiers journaux du serveur FTP pour surveiller l'activité FTP qui a
eu lieu.
Le transfert de fichiers FTP repose sur deux connexions TCP. Le premier d'entre eux est un
Connexion de contrô le qui est configurée entre le client FTP et le serveur FTP.
Le serveur active le port commun 21 et attend une demande de connexion
Du client. Le client envoie ensuite une demande pour configurer une connexion à
le serveur. Une connexion de contrô le attend toujours la communication entre les
Client et le serveur, transmet les commandes liées du client à la
Serveur, ainsi que les réponses du serveur au client.
Le serveur utilise le port TCP 20 pour les connexions de données. Généralement, le serveur peut
Ouvrez ou fermez une connexion de données activement. Pour les fichiers envoyés par le client à
Le serveur sous la forme de flux, cependant, seul le client peut fermer une donnée
connexion. Le FTP transfère chaque fichier dans les flux, à l'aide d'une fin de fichier (EOF)
Indicateur pour identifier la fin d'un fichier. Une nouvelle connexion de données est donc
Requis pour chaque fichier ou liste d'annuaire à transférer. Lorsqu'un fichier est en cours
Transféré entre le client et le serveur, il indique qu'une donnée
La connexion est configurée.
Il existe deux modes de transmission FTP supportés par Huawei,
Ce sont le mode ASCII et le mode binaire. Le mode ASCII est utilisé pour le texte, dans lequel
Les données sont converties de la représentation du personnage de l'expéditeur vers "ASCII 8
bits"
Avant transmission. Autrement dit, les caractères ASCII sont utilisés pour séparer
Le retour de chariot à partir des flux de ligne. En mode binaire, l'expéditeur envoie chaque
fichier
Octet pour octet. Ce mode est souvent utilisé pour transférer des fichiers image et des fichiers de
programme
Pour lequel les caractères peuvent être transférés sans conversion de format.
La mise en œuvre du service FTP est réalisable sur le routeur de la série AR2200
Et le commutateur série S5700, pour lequel le service peut être activé via le ftp
Commande d'activation du serveur. Une fois que la fonction du serveur FTP est activée, les
utilisateurs peuvent
Gérer les fichiers en mode FTP. La commande set ftp-directory par défaut définit
Répertoire de travail par défaut pour les utilisateurs FTP. Où aucun FTP par défaut fonctionne
Le répertoire est défini, l'utilisateur ne pourra pas se connecter au routeur et
Ê tre invité à signaler qu'un utilisateur n'a pas le droit d'accéder
Tout répertoire de travail.
L'accès au service FTP peut être réalisé en assignant une connexion utilisateur individuelle
Pour gérer l'accès par utilisateur. AAA sert à configurer les paramètres locaux
Authentification et autorisation. Une fois que la vue AAA est entrée, l'utilisateur local
Peut être créé en définissant un compte d'utilisateur et un mot de passe. Le compte est
Capable d'associer à une variété de services, qui sont spécifiés à l'aide de la
Commande de type service, pour permettre le support du type de service ftp
AAA.
Si le répertoire ftp de l'utilisateur doit varier du répertoire par défaut, la commande ftpdirectory
peut être utilisée pour spécifier le répertoire de l'utilisateur. Si la
Nombre de connexions actives possibles avec un compte d'utilisateur local doit être
Limité, la commande limite d'accès peut être appliquée. Cela peut aller de 1 à
800 ou illimité lorsqu'une limite d'accès n'est pas appliquée.
La configuration d'un délai d'inactivité aide à empêcher l'accès non autorisé dans
L'événement qu'une fenêtre de session est laissée inactive pendant une période de temps par un
utilisateur. le
La commande timeout inactive est définie en minutes et en secondes, avec un ralenti
Délai de 0 0 représentant que aucune période de temporisation n'est appliquée. Enfin, le
Le niveau de privilège définit le niveau autorisé de l'utilisateur en termes de
Commandes qui peuvent être appliquées lors de l'établissement de la session ftp. Cela peut être
Réglé pour n'importe quel niveau de 0 à 15, avec une valeur supérieure indiquant un niveau plus
élevé
Niveau de l'utilisateur.

Après la configuration du service FTP sur le serveur FTP, il est possible


Utilisateurs pour établir une connexion entre le client et le serveur. En utilisant le
La commande ftp sur le client établira une session par laquelle l'AAA
L'authentification sera utilisée pour valider l'utilisateur en utilisant un mot de passe AAA
authentification. Si correctement authentifié, le client pourra configurer comme
Ainsi que d'envoyer / récupérer des fichiers vers et depuis le serveur FTP.
résumé
Quels projets doivent être ouverts afin d'autoriser le fonctionnement du service FTP?
Un utilisateur est considéré comme n'ayant aucun pouvoir d'accéder à un répertoire de travail.
Quelles étapes sont nécessaires
Pour résoudre ce problème?
Avant-propos
À mesure que le réseau de l'entreprise se développe, les périphériques pris en charge peuvent
exister sur une plus grande
Distance due à la présence de succursales qui sont considérées comme faisant partie de
l'entreprise
Domaine, et nécessitent une administration à distance. De plus, l'administration du réseau
Est souvent géré sous la forme d'un emplacement de gestion centralisée où tous les
périphériques sont surveillés et
Administré. Afin de faciliter cette administration, le protocole telnet, l'un des premiers
Protocoles à développer, est appliqué aux périphériques gérés. Les principes entourant le
protocole
Et cette mise en œuvre est présentée dans cette section.
objectifs
À la fin de cette section, les stagiaires seront en mesure de:
Expliquer l'application et le telnet environnant
É tablir le service telnet sur le support des appareils Huawei.
Le protocole de réseau de télécommunication (Telnet) permet à un terminal de se connecter
À distance à tout périphérique capable de fonctionner en tant que serveur telnet, et
Fournit une interface opérationnelle interactive par laquelle l'utilisateur peut effectuer
Opérations, de la même manière que par voie locale via une console
connexion. Les hô tes distants ne doivent pas être connectés directement à un matériel
Terminal, permettant aux utilisateurs de profiter de l'omniprésent
Les capacités d'IP afin de gérer à distance les périphériques à partir de presque tous les
Emplacement dans le monde.
Telnet fonctionne selon un principe de modèle client / serveur pour lequel un telnet TCP
La connexion est établie entre un port utilisateur et le port Telnet du serveur,
Qui par défaut est attribué comme port 23. Le serveur écoute ce bien connu
Port pour de telles connexions. Une connexion TCP est en duplex intégral et identifiée par
Les ports source et de destination. Le serveur peut s'engager dans plusieurs
Des connexions simultanées impliquant son port bien connu et ses ports utilisateurs qui sont
Attribué d'une gamme de ports non connue.
Les drivers du terminal telnet interprètent les frappes des utilisateurs et les traductions
À une norme de caractère universel, basée sur un terminal virtuel réseau
(NVT) qui fonctionne comme une forme d'intermédiaire virtuel entre les systèmes,
Suite à laquelle la transmission via la connexion TCP / IP au serveur est
Réalisé. Le serveur décode les caractères NVT et passe le décodé
Caractères à un pilote pseudo-terminal qui existe pour permettre l'utilisation
Système pour recevoir les caractères décodés.

L'accès au service telnet implique souvent l'authentification de l'utilisateur


Avant que l'accès ne soit accordé. Il existe trois modes principaux définis pour
Authentification telnet.
L'établissement sur un dispositif fonctionnant en tant que serveur telnet utilise généralement un
Schéma d'authentification par mot de passe général qui est utilisé pour tous les utilisateurs
Se connectant à l'interface utilisateur vty. Une fois la connectivité IP établie
Grâ ce à la mise en place d'un système d'adressage approprié,
Le jeu de commandes de mot de passe en mode d'authentification est implémenté pour la
gamme vty,
Ainsi que le mot de passe à utiliser.
Suite à la configuration de l'appareil distant qui doit fonctionner comme telnet
Serveur, le client peut établir une connexion telnet via le telnet
Commandez et recevez l'invite d'authentification. L'authentification
Le mot de passe doit correspondre au mot de passe mis en œuvre sur le serveur telnet comme
Une partie de la configuration d'authentification par mot de passe précédente. L'utilisateur sera
alors
Pouvoir établir une connexion à distance via telnet à l'appareil distant
En tant que serveur telnet et émuler l'interface de commande sur le telnet local
client

Résumé
Si le service telnet a été activé, mais un utilisateur est incapable d'établir une connexion telnet,
Quelles sont les conditions possibles pour cela?

Vous aimerez peut-être aussi