Vous êtes sur la page 1sur 125

ENSEIGNEMENT SUPERIEUR ET UNIVERSITAIRE

INSTITUT SUPERIEUR DE STATISTIQUE DE LUBUMBASHI


B.P.2471
DEPARTEMENT D’INFORMATIQUE
LUBUMBASHI
1. INTITULE DU COURS

Questions spéciales de réseau informatique


Promotion première licence Réseaux informatiques
Nombre d’heures : 15 + 15
2. TITULAIRE DU COURS

TSHOMBA KEPANGE Joseph licencié en Informatique ISS, Assistant


Mail : lwkakaj2018@jmail.com

3. METHODE

La méthode utilisée est celle participative

4. CONTENU
CHAPITRE 1 : CHAPITRE I : PRESENTATION DES CONCEPTS DE BASE ET
CONNEXES AUX RESEAUX
CHAPITRE 2 : NOTIONS DE SWITCHING ET ROUTING
5. STRATEGIE D’EVALUATION
 TD
 TP
 INTERROGATION
 EXAMEN

RESSOURCES
MATERIELLES :
 Ordinateur, projecteur, routeur, switch
 Support de cours et cahier de manipulation

LOGICIELLES
 Packet Tracer
 Wireshark
6. BIBLIOGRAOPHIE ET WEBOGRAPHIE
1. André VAUCAMPS; Protocoles, concepts de routage et sécurité - CCNA 640-802, édition éni
2. Claude Servin ; Aide-mémoire de réseaux et télécoms ; Dunod ; 2012.
3. Claude Servin ; Réseaux et Télécoms ; Dunod ; 2003.
4. cisco, CCNA routing and switching, 200-301
5. cisco, CCNA(Cisco Certified Network Associate). routing and switching, 2000-125
6. Guy Pujolle ; Les Réseaux, Eyrolles, 2e édition 2008.
7. Patient KABAMBA BAMWELA, Cours de Questions Spéciales de Reseau Informatique, ISS 2020-2021

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


CHAPITRE I : PRESENTATION DES CONCEPTS DE BASE ET CONNEXES AUX
RESEAUX
I.1. Définition :
Dans les technologies de l’information et de la communication, un réseau est défini par la mise
en relation d’au moins deux systèmes informatiques (équipement électronique) au moyen d’un câble ou
sans fil (support de transmission) dans le but de communiquer ou de partager les ressources.
Un réseau est constitué de périphériques, de supports et de services reliés par des règles et qui
collaborent pour envoyer des messages. Le terme messages sert à désigner : des pages Web, des
courriels, des messages instantanés, des appels téléphoniques et toutes autres formes de
communication prises en charge par le réseau.

Pour les systèmes à plus de mille participants, on utilise habituellement une configuration de
type systémique pour la centralisation des informations.
I.2. Les éléments du réseau :
On distingue deux types de périphériques:
 Les périphériques terminaux

Serveurs, Ordinateurs de bureau, Ordinateurs portables, Imprimantes, Téléphones IP, ….


 Les périphériques intermédiaires
 Commutateur (périphérique le plus couramment utilisé pour interconnecter des réseaux
locaux),

 Pare-feu (assure la sécurité du réseau),

 Routeur (contribue à orienter les messages transitant sur un réseau),

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


 Routeur sans fil (type particulier de routeur souvent présent dans les réseaux familiaux),
 Nuage (sert à représenter un groupe de périphériques réseaux).

Les connexions / Les supports de transmission :


 Les câbles en cuivres
 Sans-fil - ondes électromagnétiques
 Les câbles en verre (fibre monomode, multimode, ...)

Pour envoyer et recevoir des messages divers et variés on utilise des applications informatiques qui ont
besoin que le réseau leur fournisse certains services. Ces services sont régis par des règles, ou protocoles.
Aujourd'hui, la norme en matière de réseaux est un ensemble de protocoles appelé TCP/IP (Transmission
Control Protocol/Internet Protocol). Le protocole TCP/IP est non seulement utilisé dans les réseaux
privés et professionnels, mais il est aussi le principal protocole d'Internet. C'est en effet le protocole
TCP/IP qui définit les règles de formatage, d'adressage et de routage utilisés pour veiller à ce que les
messages soient livrés aux destinataires appropriés.
Les services
Les services de haut niveau tels que le World Wide Web, les messageries électroniques, les messageries
instantanées et la téléphonie sur IP répondent à des protocoles normalisés.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Avant d'être envoyés vers leurs destinations, tous les types de messages doivent être convertis en bits,
c'est-à-dire en signaux numériques codés en binaire. Ceci est obligatoire quel que soit le format d'origine
du message : texte, vidéo, audio ou données informatiques, et quel que soit le service sollicité.
I.3 Classification de reseaux
 Selon l’Envergure/ Dimension
PAN
Un réseau personnel (PAN : Personnal Area Network) est un réseau qui interconnecte les équipements
d’un même utilisateur (souvent par des liaisons sans fil) comme un ordinateur portable, un smartphone,
smart Watch..., voir les connectiques d’un PC : souris, clavier, imprimante… Il s’étend sur 1 mètre carré
environ.

Le LAN
Le LAN (Local Area Network) est comme vous pouvez le comprendre un réseau LOCAL. Il s’étend en
moyenne de 10 mètres à 1 kilomètre environ. Il permet de connecter plusieurs pc d’une même « entité
» ensembles ! Souvent le réseau LAN se définie dans un type de zone : une salle, un immeuble, un
campus.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Le MAN
Le MAN (Métropolitain Area Network) est un réseau métropolitain. Il s’étend sur environ 10 kilomètres.
Il permet de relier plusieurs réseaux LAN entre eux. Les réseaux des FAI/ISP est bel exemple de ce type
de réseau. Le réseau métropolitain (MAN) s’étend sur une région métropolitaine. Généralement, un
réseau métropolitain s’étend sur une région géographique plus vaste que celle d’un réseau « local »,
mais plus petite que celle d’un réseau « longue distance ». C’est un réseau à l’étendue d’une ville.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Le WAN

Selon l’ouverture
 Intranet
Un réseau informatique privé utilisé par les employés d'une entreprise ou de toute autre entité
organisationnelle. Ce type de réseau utilise les mêmes protocoles qu'Internet (TCP, IP, HTTP, SMTP,
IMAP, etc.). Un Intranet est une configuration de réseau local très répandue. Les serveurs Web Intranet
diffèrent du serveur web public en ce sens que les utilisateurs du précédent doivent posséder des
privilèges et mots de passe pour accéder à l’Intranet d’une Organisation. Au sein d’un Intranet, le

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


navigateur sert de frontal commun pour accéder aux informations, telles que les données financières,
graphiques ou textuelles.

Extranet
L’extranet est basé sur Intranet, et qui utilise un accès étendu et sécurisé pour les utilisateurs ou
entreprises externes. Cet accès s’effectue habituellement au travers de mots de passe, ID utilisateur et
autre dispositif de sécurité au niveau applicatif. Un extranet est une extension de deux stratégies Intranet
au moins avec architecture participante de leurs Intranets respectifs.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


L’Internet
Nous avons coutume de le définir comme le réseau des réseaux, reposant sur architecture généralisée du
protocole de communication TCP/IP. Internet permet aujourd’hui interconnecter des millions
d’utilisateurs, de serveurs Web et des dizaines de millions d’utilisations d’un protocole unique et
standard. Il s’agit d’un réseau grand public.

Différence entre Intranet, Extranet et Internet : La communauté d’utilisateur.

 Selon le mode communication


Les réseaux poste à poste (peer to peer, ou égal à égal) :
Les réseaux « postes à postes » sont également appelés des réseaux « Peer to Peer » en anglais, ou «égal
à égal ». Les réseaux postes à postes ne comportent en général que peu de postes, moins d'une dizaine

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


de postes, parce que chaque utilisateur fait office d'administrateur de sa propre machine, il n'y a pas
d'administrateur central, ni de super utilisateur, ni de hiérarchie entre les postes, ni entre les utilisateurs.
Dans ces réseaux, chaque poste est à la fois client et serveur. Toutes les stations ont le même rôle, et il
n'y a pas de statut privilégié pour l'une des stations (comme c'est le cas avec le Contrôleur Principal de
Domaine dans un réseau client-serveur).
Les réseaux Postes à Postes permettent de travailler en équipe, ou en « groupe de travail », et il peut
coexister plusieurs groupes de travail au sein d'un même réseau (ce qui permet de constituer une
segmentation logique des machines du réseau).

Les réseaux Client – Serveur


Les réseaux Client/Serveur comportent en général plus de dix postes. La plupart des stations sont des «
postes clients », c'est à dire des ordinateurs dont se servent les utilisateurs, les autres stations sont dédiées
à une ou plusieurs tâches spécialisées, on dit alors qu'ils sont des clients. Les « postes serveurs » sont en
général de puissantes machines, elles fonctionnent à plein régime et sans discontinuité.
Les serveurs peuvent être réservés ou dédiés à une certaine tâche :
 Les serveurs de fichiers et d'impression
 Les serveurs d'applications (applications de base de données par exemple)
 Les serveurs de messagerie
 Les serveurs PROXY pour accéder aux services de l'Internet
 Les serveurs web pour publier le site Internet et servir les internautes
 Les serveurs DHCP pour l’attribution automatique des adresses IP….
Dans une organisation client-serveur, les clients ne « voient » que le serveur. Le système d'exploitation
du serveur peut être différent de celui des stations clientes. En tout cas, le système d'exploitation du
serveur doit être véritablement multitâche afin de pouvoir servir un grand nombre de requêtes en même
temps et de façon équitable, c'est à dire en octroyant le même temps processeur à chaque client.
L'avantage des réseaux Client/Serveur est de réunir deux avantages complémentaires, l'indépendance
et la centralisation :

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Dans un réseau client-serveur, avec des serveurs d'applications et de fichiers, et une configuration
standardisée pour les stations clientes, il est très facile de changer une machine en panne. C'est «
l'interchangeabilité » qui limite la durée d'une panne pour l'utilisateur (malheureusement
l'environnement de l'utilisateur et sans doute les procédures de son activité sont relativement
uniformisés). Toutefois, une organisation en client-serveur requiert des machines dédiées et très
performantes. Les serveurs deviennent les points faibles du réseau et doivent être protégés
rigoureusement, avec un système RAID par exemple.

Les serveurs peuvent être virtualisée

 Les clients
Ce sont des terminaux qui accèdent aux ressources partagées fournies par un serveur du réseau.
Caractéristiques d'un client: Le client à son tour possède des caractéristiques parmi lesquelles nous
citons :

 C’est un consommateur de service.


 Il établit une connexion au serveur.
 Il envoie des requêtes au serveur.
 Il attend et reçoit les réponses du serveur.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


 Une requête
Message transmis par un client à un serveur décrivant l’opération à exécuter pour le compte du client.
 Réponse
Message transmis par un serveur à un client suite à l’exécution une opération, contenant le résultat de
l’opération. Le client et le serveur doivent bien sûr utiliser le même protocole de communication. Dans
une architecture client-serveur on trouve d’un côté le client et de l’autre le serveur. Cette d’architecture
peut se faire sur tout type d’architecture matérielles interconnectées. Concrètement, Le client demande
un service au serveur, le serveur reçoit cette requête effectue un traitement, et renvoie la ressource
demandée par le client.
 Avantages de l'architecture client/serveur
Le model client-serveur fournit un grand niveau de fiabilité, ses principaux atouts sont :
 Une administration centralisée : l’administration de tout le système est centralisée au niveau du
serveur. La sécurité : car le nombre de points d'entrée permettant l'accès aux données est moins
important.
 Une gestion au niveau serveur : les clients sont administrés par le serveur, ce dernier est le seul
responsable de leur gestion.
Inconvénients du modèle client/serveur
L'architecture client/serveur a tout de même quelques lacunes parmi lesquelles :

 La pane : une panne au niveau du serveur paralyse tout le réseau.


 Un coût élevé : dû à la technicité du serveur.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


 Selon la topologie
La topologie est une représentation d'un réseau. Cette représentation peut être considérée du point de
vue de l'emplacement des matériels (câbles, postes, dispositifs de connectivité,...), alors on parle de «
topologie physique», ou du point de vue du parcours de l'information entre les différents matériels, alors
on parle de « topologie logique ». La topologie logique détermine la manière dont les stations se
partagent le support et dépend de la méthode d'accès au réseau ou pour bien dire la manière dont les
stations communiquent entre elles.
Par exemple, un réseau peut être considéré comme appartenant à une topologie en étoile, du point de
vue physique, alors qu'en réalité il appartient à une topologie en anneau, du point de vue logique.
La topologie d'un réseau peut avoir une extrême importance sur l'évolution du réseau, sur son
administration, et sur les compétences des personnels qui seront amenés à s'en servir. Les différentes
topologies de base sont les suivantes :
 Physiquement
 Topologie en bus
Un réseau en bus est une architecture de communication où la connexion des matériels est assurée par
un bus partagé par tous les utilisateurs.
Les réseaux de bus permettent de relier simplement de multiples matériels, mais posent des problèmes
quand deux machines veulent transmettre des données au même moment sur le bus. Les systèmes qui
utilisent une topologie en bus ont normalement un arbitre qui gère l'accès au bus.

Cette topologie en bus a été très répandue car son coût d'installation est faible. Il est très facile de relier
plusieurs postes d'une même salle, de relier chez soi deux ou trois ordinateurs. Aujourd'hui cette
topologie n'est plus adaptée aux réseaux importants.
Avantages :

 Utilisable pour des réseaux temporaires (installation facile).


 Présente l'un des coûts de mise en réseau le plus bas.
Inconvénients

 Un câble coupé peut interrompre le réseau.


 Les coûts de maintenance peuvent être importants à long terme.
 Les performances se dégradent avec l'ajout de stations.
 Faible sécurité des données transitant sur le réseau (toutes les stations connectées au bus peuvent
lire toutes les données transmises sur le bus).
On remarquera que la technologie en « bus » reste très utilisée dans l’industrie pour raccorder par
exemple des capteurs à une unité centrale (automate, carte électronique, ordinateur…).

 Topologie en anneau

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Toutes les machines sont reliées entre elles dans une boucle fermée. Les données circulent dans une
direction unique, d'une entité à la suivante. Les ordinateurs communiquent chacun à leur tour. Cela
ressemble à un bus mais qui serait refermé sur lui-même : le dernier nœud est relié au premier.
Souvent, dans une topologie en anneau, les ordinateurs ne sont pas reliés en boucle, mais sont reliés
à un répartiteur (appelé MAU, Multistation Access Unit) qui va gérer la communication entre les
ordinateurs qui lui sont reliés en répartissant à chacun d'entre-deux un temps de parole.
Elle utilise la méthode d'accès à "jeton" (Token ring). Les données transitent de stations en stations
en suivant l'anneau qui chaque fois régénèrent le signal. Le jeton détermine quelle station peut
émettre, il est transféré à tour de rôle vers la station suivante. Lorsque la station qui a envoyé les
données les récupère, elle les élimine du réseau et passe le jeton au suivant, et ainsi de suite... La
topologie en anneau est dite « topologie active » parce que le signal électrique est intercepté et
régénéré par chaque machine.

Avantages :

 La quantité de câble nécessaire est réduite


 Le protocole est simple, il évite la gestion des collisions
 Taux d'utilisation de la bande passante optimum (proche de 90%)
 Fonctionne mieux qu'une topologie de bus sous une lourde charge de réseau
 Il est assez facile à installer et à reconfigurer, car ajouter ou retirer un matériel nécessite de
déplacer seulement deux connexions.
Inconvénients :

 Le délai de communication est directement proportionnel au nombre de nœuds du réseau


 Le déplacement, l'ajout et la modification machines connectées peuvent affecter le réseau
Topologie en étoile
Les équipements du réseau sont reliés à un système matériel central (le nœud). Celui-ci a pour rôle
d'assurer la communication entre les différents équipements du réseau. Notamment utilisée par les
réseaux Ethernet actuels en RJ45, elle concerne maintenant la majorité des réseaux. Lorsque toutes les
stations sont connectées à un commutateur, on parle de topologie en étoile. Les nœuds du réseau sont
tous reliés à un nœud central. Dans cette topologie tous les hôtes sont interconnectés grâce à un SWITCH
(il y a encore quelques années c'était par un HUB = concentrateur) : sorte de multiprise pour les câbles

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


réseaux placés au centre de l'étoile. Les stations émettent vers ce concentrateur qui renvoie les données
vers tous les autres ports réseaux (hub) ou uniquement au destinataire (switch).
Le câble entre les différents nœuds est désigné sous le nom de « paires torsadées » car ce câble qui relie
les machines au switch comporte en général 4 paires de fils torsadées et se termine par des connecteurs
nommés RJ45.
Les avantages :

 localisation facile des pannes ;


 le débranchement d'une connexion ne paralyse pas le reste du réseau ;
 simplicité éventuelle des équipements au niveau des nœuds : c'est le concentrateur qui est
intelligent.
 évolution hiérarchisée du matériel possible. On peut facilement déplacer un appareil sur le
réseau.
Les inconvénients :

 Plus onéreux qu'un réseau à topologie en bus (achat du concentrateur et d'autant de câbles que
de nœuds)
 Si le concentrateur est défectueux, tout le réseau est en panne.
 Utilisation de multiples routeurs ou switch afin de pouvoir communiquer entre différents
réseaux ou ordinateur.

Topologie maillée
Le réseau maillé est une topologie de réseau qualifiant les réseaux (filaires ou non) dont tous les
hôtes sont connectés pair à pair sans hiérarchie centrale, formant ainsi une structure en forme de
filet. Par conséquent, chaque nœud doit recevoir, envoyer et relayer les données. Cela évite d'avoir
des points sensibles, qui en cas de panne, isolent une partie du réseau. Si un hôte est hors service,
ses voisins passeront par une autre route. Les réseaux maillés utilisent plusieurs chemins de
transferts entre les différents nœuds. Cette méthode garantit le transfert des données en cas de panne
d'un nœud. Le réseau Internet est basé sur une topologie maillée (sur le réseau étendu « WAN »,
elle garantit la stabilité en cas de panne d'un nœud).

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Réseau en arbre (ou hiérarchique)
Une topologie en arbre ou topologie arborescente ou hiérarchique peut être considérée comme une
collection de réseaux en étoile disposés en hiérarchie. Ce réseau est divisé en niveaux. Le sommet, de
haut niveau, est connectée à plusieurs nœuds de niveau inférieur, dans la hiérarchie. Ces nœuds peuvent
être eux-mêmes connectés à plusieurs nœuds de niveau inférieur. Comme dans le réseau en étoile
conventionnel, des nœuds individuels peuvent ainsi encore être isolés du réseau par une défaillance d'un
seul point d'un trajet de transmission vers le nœud. Si un lien reliant une branche échoue, cette branche
est isolée; Si une connexion à un nœud échoue, une section entière du réseau devient isolée du reste.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


 Logiquement : Ethernet et Token Ring

 CSMA/CD : explication de la procédure


Dans un réseau Ethernet local, les membres du réseau se retrouvent généralement sur un support de
transmission commun : un câble. Cette convergence vers un même support doit être régulée pour que le
transfert des données ne se transforme pas en chaos, ce qui pourrait entraîner une perte ou une
détérioration des données. La CSMA/CD offre ici une procédure permettant d’organiser correctement
le transfert des données.
Dans un réseau Wi-Fi, cette technologie n’est pas utile. C’est pourquoi une procédure ajustée a été
développée sous la forme de la procédure CSMA/CA. La méthode CSMA/CD n’est toutefois plus
adaptée à la plupart des réseaux câblés, car les câbles nouvelle génération offrent d’autres possibilités.
Il n’est toutefois pas inutile de comprendre comment fonctionne cette ancienne procédure.

 Qu’est-ce que la méthode CSMA/CD ?


CSMA/CD est l’abréviation de Carrier sense multiple access/Collision Detection, la Collision Detection
(« détection de collisions ») étant une extension du protocole CSMA. Ce dernier met en place une
procédure qui règle la façon dont la communication doit se dérouler dans un réseau avec un support de
transmission partagé. L’extension définit quant à elle la procédure à suivre lorsque des collisions
surviennent, c’est-à-dire lorsque deux participants ou plus tentent simultanément d’envoyer des paquets
de données via le support de transmission (bus) et que ces paquets de données se gênent mutuellement.
Carrier Sense (CS) : la détection de l’état de la porteuse veille à ce que tous les participants vérifient que
le support est libre. Le protocole procède uniquement à la transmission des données lorsque cette étape
a été effectuée. Multiple Access (MA) : plusieurs participants (ordinateurs connectés au réseau) se
partagent un support de transmission. Collision Detection (CD) : la détection des collisions est une
extension du protocole initial et détermine comment agir en cas de collision de paquets de données.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


 Déroulement de la procédure CSMA/CD

BEB « Binary Exponential Backoff ».

Dans la méthode d’accès CSMA/CD, les équipements de réseau qui ont des données à
transmettre sur le média réseau ne le font qu’’après écoute de porteuse. Concrètement, cela
signifie que lorsqu’un nœud souhaite transmettre des données, il doit d’abord s’assurer que le
média réseau est libre. Si le nœud détermine que le réseau est occupé, il attendra pendant une
durée aléatoire avant de réessayer. Si le nœud détermine que le média est libre, il commence la
transmission et l’écoute. Le nœud se met à l’écoute pour s’assurer qu’’aucune autre station ne
Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022
transmet en même temps. Une fois la transmission de données terminée, l’équipement se remet
en mode d’écoute.
Les collisions
Les collisions se produisent généralement lorsqu’au moins deux stations Ethernet transmettent
simultanément au sein d’un domaine de collision (partie de réseau Ethernet où tous les
ordinateurs peuvent écouter la porteuse).
Les trois types de collision sont les suivants:
 Locale : le signal circule sur le câble jusqu’’à ce qu’’il rencontre un signal de l’autre
station
 Distante : La longueur d’une trame est inférieure à la longueur minimum, et la somme
de contrôle FCS est invalide.
 Tardive : Se produise âpres que les premier 64 octets de données ont étaient envoyées.
Domaine de collisions
On appelle domaine de collision des segments du réseau physique dans lesquels des collisions
peuvent se produire. Dans un domaine de collisions quand un équipement effectue une
transmission, tous les autres équipements la reçoivent. Un domaine de collision est un ensemble
d’entités (cartes réseaux) qui partagent le même média de communication. Prenons un exemple
dans la vraie vie.
La segmentation de domaine de collisions
Un domaine de collision est créé lorsque plusieurs ordinateurs sont connectés à un même média
partagé qui n'est pas relié aux autres équipements du réseau. Cette situation limite le nombre
des ordinateurs qui peuvent utiliser le segment. Les équipements de couche 1 (Répéteurs,
Concentrateur) permettent d'étendre les domaines de collision, mais pas de les contrôler.
Les équipements de couche 2 segmentent ou divisent les domaines de collision. Les
équipements de couche 2 sont les ponts et les commutateurs. Les équipements de couche 3 (Les
Routeurs) subdivisent les domaines de collision en domaines plus petits.
Domaine de broadcast/diffusion
Prenons l’exemple des 4 personnes, lorsqu’une personne prend la parole, les trois autres
reçoivent bien la communication. On dit que ces 4 personnes appartiennent au même domaine
de broadcast/diffusion. Lorsqu’une personne parle, les autres reçoivent bien l’information.
Dans le monde des réseaux, c’est à peu près pareil au delta prés que quand une entité envoi une
donnée, elle a le choix entre envoyer la donnée en unicast, en multicast ou en broadcast. Quand
on parle de domaine de broadcast, on prend l’hypothèse où l’entité émettrice souhaite envoyer
une donnée à tout le monde, soit en broadcast.
 Un bridge lit le niveau 2 et comprend que la donnée est à destination de tout le monde
(adresse MAC destination = ffff.ffff.ffff) donc elle transmet cette donnée sur son second
port.
I.4 Normalisation

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


 Un Switch lit aussi le niveau 2 et comprend que la donnée est à destination de tout le
monde (adresse MAC destination = ffff.ffff.ffff) donc elle transmet cette donnée sur
tous ses ports.
Remarque : le domaine de broadcast s’arrête au niveau d’un équipement niveau 3, comme un
routeur !
Avec la présence d’un routeur, la notion de domaine de broadcast explose et on a un domaine
de broadcast par interface du routeur.
Avantage du CSMA/CD
 Informer les adaptateurs sur les collisions
 Limite de distance entre deux stations au sein d’un LAN
 S’adapter au nombre d’adaptateurs impliqués dans une collision.
2. Normalisation(les modèles en couche)

2. 1 Modèle OSI

Le modèle OSI est un modèle conceptuel. Il a pour but d’analyser la communication en


découpant les différentes étapes en 7 couches, chacune de ces couches remplissant une tâche
bien spécifique :
La Couche 1 : Couche physique ; La couche physique définit les spécifications du média
(câblage, connecteur, voltage, bande passante…).
La Couche 2 : Couche liaison de donnée ; La couche liaison de donnée s’occupe de l’envoi
de la donnée sur le média. Cette couche est divisée en deux sous-couches :
 La sous-couche MAC (Média Access Control) est chargée du contrôle de l’accès au média. C’est au
niveau de cette couche que l’on retrouve les adresses de liaison de donnée (MAC, DLCI).
 La sous-couche LLC (Layer Link Control) s’occupe de la gestion des communications entre les stations
et interagit avec la couche réseau.
Couche 3 : Couche réseau ; Cette couche gère l’adressage de niveau trois, la sélection du
chemin et l’acheminement des paquets au travers du réseau.
Couche 4 : Couche transport ; La couche transport assure la qualité de la transmission en
permettant la retransmission des segments en cas d’erreurs éventuelles de transmission. Elle
assure également le contrôle du flux d’envoi des données.
Couche 5 : Couche session ; La couche session établit, gère et ferme les sessions de
communications entre les applications.
Couche 6 : Couche présentation ; La couche se charge de la mise en forme des données.
Couche 7 : Couche application ; Cette couche assure l’interface avec les applications, c’est la
couche la plus proche de l’utilisateur.
Avantages de ce modèle :
 Une division de la communication réseau en éléments plus petits et plus simples pour
une meilleure compréhension.
 L’uniformisation des éléments afin de permettre le développement multi-constructeur

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


 La possibilité de modifier un aspect de la communication réseau sans modifier le reste
(Exemple : un nouveau média) Pour communiquer entre les couches et entre les hôtes
d’un réseau, OSI a recourt au principe d’encapsulation. Encapsulation : processus de
conditionnement des données consistant à ajouter un en-tête de protocole déterminé
avant que les données ne soient transmises à la couche inférieure.
Lorsque 2 hôtes communiquent, on parle de communication d’égal à égal, c'est-à-dire que la
couche N de la source communique avec la couche N du destinataire. Lorsqu’une couche de
l’émetteur construit des données, elle encapsule ces dernières avec ses informations puis les
passe à la couche inférieure. Le mécanisme inverse a lieu au niveau du destinataire ou une
couche réceptionne les données de la couche inférieure, enlève les informations la concernant,
puis transmet les informations restantes à la couche supérieure. Les données transitant à la
couche N de la source sont donc les mêmes que les données transitant à la couche N du
destinataire. Pour identifier les données lors de leur passage au travers d’une couche,
l’appellation PDU (Unité de données de protocole) est utilisée.

Pour mémoriser ces différentes couches nous pouvons nous servir de cette phrase :

Pour Le Réseau, Tout Se Passe Automatiquement


P=Physique
L=Liaison
R=Réseau
T=Tout
S=Session
P=Présentation
A=Application

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


MODELE TCP/IP

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Comparaison entre le modèle TCP/IP et le modèle OSI. Ces deux modèles sont très similaires,
dans la mesure où les 2 sont des modèles de communication à couche et utilisent l’encapsulation
de données. On remarque cependant deux différences majeures :
 TCP/IP regroupe certaines couches du modèle OSI dans des couches plus générales
 TCP/IP est plus qu’un modèle de conception théorique, c’est sur lui que repose le réseau Internet
actuel.

2.2. Services et protocoles de couche application courants


Protocoles de couche application courants
Il existe des dizaines de protocoles de couche application, mais les opérations courantes font appel à
seulement cinq ou six d'entre eux. Les trois protocoles de couche application suivants sont impliqués
dans les tâches professionnelles ou personnelles quotidiennes :
 Protocole HTTP (HyperText Transfer Protocol)
 Protocole SMTP (Simple Mail Transfer Protocol)
 Protocole POP (Post Office Protocol)
 Protocole FTP (File Transfer Protocol)

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Ces protocoles de couche application permettent de parcourir le Web et d'envoyer et de recevoir des e-
mails et fichiers. Le protocole HTTP permet aux utilisateurs de se connecter aux sites Web sur Internet,
le protocole SMTP leur permet d'envoyer des e-mails et le protocole POP de recevoir des e-mails.

Lorsqu'une adresse Web (ou URL pour Uniform Resource Locator) est saisie dans un navigateur Web,
ce dernier établit une connexion avec le service Web s'exécutant sur le serveur à l'aide du protocole
HTTP. L'URL et l'URI (Uniform Resource Identifier) sont les noms que la plupart des utilisateurs
associent aux adresses Web.
Pour mieux comprendre l'interaction entre le navigateur Web et le client Web, voyons comment une
page Web s'ouvre dans un navigateur. Dans cet exemple, utilisez l'URL
http://www.cisco.com/index.html.
D'abord le navigateur interprète les trois parties de l'URL :
 http (protocole ou schéma)
 www.cisco.com (nom du serveur)
 index.html (nom du fichier demandé)
Le navigateur fait ensuite appel à un serveur de noms pour convertir l'adresse www.cisco.com en une
adresse numérique, qu'il utilise pour se connecter au serveur. Le navigateur envoie une requête GET au
serveur et demande le fichier index.html en se conformant à la norme HTT. Le serveur envoie au
navigateur le code HTML pour cette page Web. Enfin, le navigateur déchiffre le code HTML et met en
forme la page pour la fenêtre du navigateur.
LE WEB

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


LA MESSAGERIE
Les clients de messagerie communiquent avec les serveurs de messagerie pour envoyer et recevoir des
messages. Les serveurs de messagerie communiquent avec d'autres serveurs de messagerie pour
acheminer les messages d'un domaine à un autre. Un client de messagerie ne communique pas
directement avec un autre client de messagerie lors de l'envoi des e-mails. En fait, les deux clients
dépendent du serveur de messagerie pour transporter les messages. Cela se vérifie également lorsque les
deux utilisateurs appartiennent au même domaine.
Les clients de messagerie envoient des messages au serveur de messagerie configuré dans les paramètres
de l'application. Lorsque le serveur reçoit le message, il vérifie si le domaine destinataire se trouve dans
sa base de données locale. Dans la négative, il envoie une requête DNS pour déterminer l'adresse IP du
serveur de messagerie du domaine de destination. L'e-mail est ensuite transféré au serveur approprié.
Les e-mails font appel à trois protocoles distincts: SMTP (Simple Mail Transfer Protocol), POP (Post
Office Protocol) et IMAP (Internet Message Access Protocol). Le processus de couche application qui
envoie l'e-mail utilise le protocole SMTP, et ce, qu'il soit envoyé d'un client à un serveur ou d'un serveur
à un autre.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Pour récupérer l'e-mail, le client fait appel à l'un des deux protocoles de couche application suivants :
POP ou IMAP.

Le protocole SMTP (Simple Mail Transfer Protocol) permet de transférer les e-mails de manière fiable
et efficace. Pour que les applications SMTP fonctionnent, le message doit être correctement formaté et
les processus SMTP doivent être exécutés à la fois sur le client et sur le serveur.
Les formats de message SMTP exigent un en-tête et un corps de message. Si le corps du message peut
contenir n'importe quelle quantité de texte, l'en-tête doit contenir une adresse de messagerie de

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


destinataire et une adresse d'expéditeur correctement mises en forme. Toute autre information est
facultative dans l'en-tête.
Lorsqu'un client envoie un e-mail, le processus SMTP client se connecte à un processus SMTP serveur
sur le port réservé 25. Une fois la connexion établie, le client essaie d'envoyer l'e-mail au serveur via la
connexion. Lorsque le serveur a reçu le message, il le place sur un compte local si le destinataire est
local, ou le dirige à l'aide du même processus de connexion SMTP vers un autre serveur de messagerie
qui devra l'acheminer.
Le serveur de messagerie de destination peut ne pas être en ligne, ou peut être occupé, lors de l'envoi
des messages. Par conséquent, le protocole SMTP met le message en attente pour envoi ultérieur.
Régulièrement, le serveur vérifie si des messages se trouvent dans la file d'attente et essaie de les
renvoyer. À l'issue d'une durée donnée, si le message n'est toujours pas transmis, il est renvoyé à son
expéditeur comme non délivrable.

 MTA= ('Mail Transfer Agent') : Notion de serveur de messagerie et commutateur de courriers:


agent de transfert de messages.
 MUA (‘Mail User Agent’) : Notion de client de messagerie : agent utilisateur de messagerie.
Le protocole POP (Post Office Protocol) permet à un ordinateur de récupérer des e-mails à partir d'un
serveur de messagerie. Avec POP, l'e-mail est téléchargé du serveur au client, puis supprimé du serveur.
Le serveur démarre le service POP en écoutant passivement les éventuelles requêtes de connexion client
sur le port TCP 110. Lorsqu'un client souhaite utiliser le service, il envoie une requête d'établissement
de connexion TCP au serveur. Une fois la connexion établie, le serveur POP envoie un message de
bienvenue. Le client et le serveur POP échangent alors des commandes et des réponses jusqu'à ce que
la connexion soit fermée ou abandonnée.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Étant donné que les messages électroniques sont téléchargés chez le client et supprimés du serveur, il
n'existe pas d'emplacement centralisé de conservation des messages. Comme le protocole POP ne stocke
pas les messages, il est inadapté dans une petite entreprise qui a besoin d'une solution de sauvegarde
centralisée.
Le protocole POP3 convient à un FAI puisqu'il lui évite d'avoir à gérer de grandes quantités de stockage
sur leurs serveurs de messagerie.

Le protocole de messagerie IMAP (Internet Message Access Protocol) décrit une autre méthode de
récupération des messages électroniques. Toutefois, contrairement au protocole POP, lorsque
l'utilisateur se connecte à un serveur IMAP, des copies des messages sont téléchargées vers l'application
cliente. Les messages originaux sont conservés sur le serveur jusqu'à ce qu'ils soient supprimés
manuellement. Les utilisateurs affichent des copies des messages dans leur logiciel de messagerie.
Ils peuvent créer une hiérarchie de fichiers sur le serveur afin d'organiser et de stocker leurs e-mails.
Cette structure de fichiers est également dupliquée sur le client de messagerie. Lorsqu'un utilisateur
décide de supprimer un message, le serveur synchronise cette action et supprime le message du serveur.
Pour les petites et moyennes entreprises, le protocole IMAP présente de nombreux avantages. Il permet
un stockage à long terme des messages sur les serveurs de messagerie et une sauvegarde centralisée. Il
permet également aux employés d'accéder aux messages depuis différents emplacements à l'aide de
différents périphériques ou logiciels clients. La structure de dossiers de boîte aux lettres à laquelle est
habitué l'utilisateur reste consultable quel que soit le moyen qu'il choisit pour consulter sa boîte aux
lettres.
Pour un FAI, le protocole IMAP peut ne pas être le choix idéal. Il peut s'avérer coûteux à l'achat et en
maintenance de l'espace disque nécessaire au stockage des messages électroniques. De plus, cette

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


contrainte sur le FAI s'accentue si les clients paramètrent des sauvegardes régulières de leurs boîtes aux
lettres.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


MDA : (Serveurs de délivrance de messages)

Architecture modulaire d’un système de messagerie Internet :

 Etape 1: Un usager compose, avec l’aide de son client de messagerie (MUA) un message.
 Etape 2: Le message est transmis au MTA de l’usager (son serveur de messagerie en SMTP).
 Etape 3: Le message est transmis au serveur de messagerie du destinataire (SMTP).
 Etape 4: Le serveur transmet le message à un agent: notion d’agent MDA ‘Mail Delivery
Agent.
 Etape 5: Le MDA stocke le courrier dans la boite à lettres du destinataire.
 Etape 6: Sur requête du destinataire dans le cadre d’un protocole de relève POP ou IMAP les
messages sont extraits de la boite à lettre par un agent : MAA (‘Mail Access Agent’).
 Etape 7: Les messages sont transmis au client de messagerie utilisateur (protocoles POP ou
IMAP). Ils sont stockés dans des boites à lettre client.
 Etape 8: Le destinataire consulte ses messages en utilisant son client de messagerie (MUA).

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Les protocoles de messagerie de l’Internet :

Services d'adressage IP
Dans les réseaux de données, les périphériques sont identifiés par des adresses IP numériques pour
l'envoi et la réception de données sur les réseaux. La plupart des gens ne retiennent pas cette adresse
numérique. Pour cette raison, des noms de domaine ont été créés pour convertir les adresses numériques
en noms simples et explicites.

PRINCIPE DE FONCTIONNEMENT DNS


1. Définition :
DNS = domaine Name serveur, serveur de nom de domaine, ou domaine Name services.
2. Format du message DNS

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


3. fonctionnement
Dans un réseau TCP/IP, les machines communiquent grâce aux adresses IP, un DNS est un
service qui va traduire le nom du domine en adresse IP, car l’être humain mémorise facilement
des mots, des lettres, une phrase, une marque, un logo ou un nom qui évoque quelque chose
pour lui, mais pas des chiffres du type 192.168.1.1, mais il est facile de retenir facilement
www.google.com. Ce service peut être installé sur une machine, sur un routeur, sur un réseau,…
le problème est que l’ordinateur ne comprend pas www.google.com
Comment concilier les deux ? C’est-à-dire comment faire pour que www.google.com se
traduise par exemple à 192.168.1.1 ? Car l’ordinateur ne comprend que les adresses IP. Pour
cela l’ordinateur va consulter son DNS qui a été paramétré soit à la main soit vous avez utilisé
un autre service comme DHCP qui va fournir à cet ordinateur toutes ces informations (adresse
IP, masque de sous réseau,…) de façon automatique. Lorsque que l’on va taper
www.google.com, l’ordinateur va interroger le serveur DNS en disant connais-tu l’ordinateur
qui correspond au nom du domaine www.google.com ? Le serveur DNS répondra oui je le
connais www.google.com correspond au 192.168.1.1. A ce moment-là l’ordinateur dispose de
cette adresse IP pourra se connecter à l’internet et accéder aux pages de google.com. Si ce
serveur DNS ne connait pas l’ordinateur qui correspond à ce nom du domaine, il va consulter
un autre serveur DNS sur internet qui connait l’ordinateur qui correspond à ce nom du domaine.
Donc le DNS ne fait que correspondre ou résoudre le nom du domaine en une adresse IP. Le
DNS n’est pas à confondre avec le serveur DHCP (dynamic hosts configuration protocl =
protocole de configuration dynamique des hôtes, des machines qui se connectent sur le réseau)
qui lui, est chargé de distribuer dynamiquement une adresse IP au machine et informer au
serveur DNS que telle machine du réseau correspond à telle adresse IP. Les machines quant à
elles vont commencer à interroger le serveur DNS : tel nom du domaine correspond à quel à
machine ou adresse IP ?
NB. Il est préférable d’installer les deux services (DNS et DHCP) sur la même machine
physique (ordinateur) et faire en sorte que ces deux services communiquent.
Une adresse comme www.google.com est constituée des zones. Exemple www est une zone
google est une zone et com est une zone.
La zone www correspond à un hôte, un port sur le réseau TCP/IP, c’est -à- dire ce service web
sera reçu sur un port. Ce www ne représente pas du web comme on l’a toujours pensé. Il faut
savoir que quand on a un ordinateur sur un réseau, il a automatiquement une adresse IP et sur

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


cette même machine peuvent s’exécuter plusieurs services différents et chaque service sera
attribué à un port. C’est comme si on avait un immeuble dans une rue ayant plusieurs étages, à
l’entrée de l’immeuble il y a une adresse qui correspond à l’accès de l’immeuble (par analogie
cette adresse correspond à l’adresse IP) et chaque étage fournis un service et pour bien
distinguer ces services on les attribue les numéros:
Immeuble

Direction Etc.

Etage transfert de fichiers 21(ftp)


Service d’appel

Etage correspondant au web 80


Service comptabilité

Etage Réception des mails 110(pop3)


Service informatique

Etage Envoie de mails 25 (SMTP)


Adresse(IP) à l’entrée
de l’immeuble
Service d’accueil

RUE
Il y a 65535 ports utilisables, mais les premiers 127 sont réservés à des usages bien définis,
tout ce qui est au-dessus en principe est libre. Lorsque l’on tape www.google.com le navigateur
attend d’avoir www.google.com sur le port 80. C’est comme si on avait écrit : 80 à la fin de
la ligne (www.google.com:80). Mais le serveur Web n’est pas obligatoirement sur le port 80,
on peut décider de le mettre sur le port 5223 par exemple. Dans ce cas à la fin de la ligne il faut
mettre : 5223(www.google.com:5223). Ce que fait un service est indépendant du port.
L’attribution de numéros de ports est parfaitement arbitraire, c’est juste pour des besoins de
normalisation afin que tout le monde utilise la même chose sans la reconfiguration de ce
numéros de ports dans tout le cas. Donc le www indique uniquement l’hôte, la machine sur
laquelle on va trouver telle ou telle autre information, la machine sur laquelle s’exécute tel ou
tel autre service bien que le commun de mortel s’attend à trouver des pages Web.
Pourquoi découper le nom de domaine (adresse IP) en plusieurs zones ? Pour des raisons
administratives, car sur internet on ne pas avoir un seul serveur qui gère tout.
Ce découpage sur internet se présente de la manière suivante :
Le serveur racine :
Principalement il y a 13 serveurs racines qui vont permettre de connaitre des serveurs
principaux.
Les serveurs principaux : Les différents domaines de premier niveau représentent le type
d'organisation ou le pays d'origine.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Les serveurs principaux sont entre autres : com, org, edu, net, fr pour la france, ca pour le
canada, uk pou l’Angleterre, be pour la begique, ces serveurs sont appelés TLD (Top Level
Domain) qui sont hiérarchiquement supérieurs qui vont gérer tous ceux qui vont venir en
dessous. Tous les sites en .com seront référencés par le serveur TLD.com, .Tous les sites en
.org seront référencés par le serveur TLD.org,…

Serveurs racines Serveurs de racine

.com .org .edu .fr .net .ca Etc. Serveurs principaux(TLD)

yahoo.com google.com Face-book.com Etc.com Serveurs d’autorité


Ou de référence (DNS d’autorité).
Serveurs d’autorité parce qu’ils sont
Mail.goole.com www qui sera Etc. sensés connaitre tout ce qui se passe à
Qui peut être un hôte ayant l’intérieur de leur domaine.
aussi une une adresse IP
machine bien bien précise Les hôtes
particulière
ayant une
adresse IP.

DNS repose sur cette hiérarchie de serveurs décentralisés pour stocker et gérer ces enregistrements de
ressources. Les enregistrements de ressources répertorient les noms de domaines que le serveur peut
résoudre, ainsi que d'autres serveurs pouvant également traiter des requêtes. Si un serveur spécifique
dispose d'enregistrements de ressources qui correspondent à son niveau dans la hiérarchie de domaines,
il est qualifié de serveur d'autorité pour ces enregistrements. Par exemple, un serveur de noms dans le
domaine cisco.netacad.net ne serait pas un serveur faisant autorité pour l'enregistrement mail.cisco.com,
car cet enregistrement est stocké sur un serveur d'un domaine de niveau supérieur, à savoir le serveur de
noms du domaine cisco.com.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022
Dans la pratique lorsque l’on cherche quelque chose on va avoir dans le serveur d’autorité des
enregistrements (des records) qui vont donner des indications. Ces enregistrements sont de
plusieurs types :
 Type A : va permettre de faire la correspondance entre un nom de domaine et une
adresse IPv4. Exemple le nom du domaine www.tshomba_techno.com correspond à
cette adresse IPV4 192.168.1.1 pour l’IPV6 on aura la même chose mais le type
d’enregistrement sera AAAA Exemple le nom du domaine www.tshomba_techno.com
correspond à cette adresse IPV6 FE80::260:5CFF:FE64:DD55.
 Type CNAME : (Canonical Name= Nom canonique ou nom de domaine complet) ce
type permet de créer des alias, c’est-à-dire plusieurs services emploient une adresse réseau
unique, mais que chaque service possède sa propre entrée dans le DNS. Exemple les habitants
de la France utilisent fr.www.tshomba_techno.com en réalité le vrai serveur c’est
www.tshomba_techno.com. Bref faire la liaison entre deux adresses complètement
différentes, donc une sorte de synonyme.
 Un autre exemple : Tshomba_techno.user.ordi_techno.com correspond par exemple à
www.tshomba_techno.com qui en réalité correspond à IP 192.168.1.1. Donc on peut
combiner le type A au type CNAME.
 type MX (mail exchange) : enregistrement d'échange d'e-mails, ce sont des adresses qui vont
permettre de savoir à quel serveur de mail qu’il faut envoyer des informations quant au veut
envoyer les messages à un utilisateur du domaine. Il associe un nom de domaine à une liste de
serveurs d'échange d'e-mails pour ce domaine. Exemple si quelqu’un vous écrit sur votre adresse
qui finit par @techno.com, vous allez faire en sorte que cette adresse soit redirigée vers un vrai
serveur de mail chez vous qui sera peut-être du type mail.techno.com.

Reverse DNS (Un autre fonctionnement géré par DNS) c’est-à-dire l’inverse passer de l’adresse
IP et savoir à quel nom de domaine appartient cette adresse. Pour cela dans le serveur d’autorité
il faut indiquer un enregistrement de type PTR et ce type PTR va pouvoir comporter l’indication
inverse des enregistrements de type A. l’adresse IP sera écrite de manière inversée exemple
25.10.21.3 sera 3.21.10.25.in-addr.arpa correspond à www.tshomba_techno.com. Le fait
d’indiquer cette adresse dans le Reverse DNS va permettre de vérifier qu’effectivement quant
au cherche www.tshomba_techno.com on obtient bien l’adresse 25.10.21.3. Si l’on fait le
cheminement inverse on obtient bien que 25.10.21.3 correspond à www.tshomba_techno.com.
Lorsqu’on gère le serveur DNS notamment le serveur SMTP ce mécanisme est très important
de peur de se voir refuser la connexion par d’autres serveurs de messagerie d’internet.
La requête peut être transmise à plusieurs serveurs, ce qui peut nécessiter un délai supplémentaire et
consommer de la bande passante. Lorsqu'une correspondance est trouvée et retournée au serveur
demandeur d'origine, le serveur stocke temporairement dans la mémoire cache l'adresse numérique
correspondant au nom.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Si ce même nom est de nouveau demandé, le premier serveur peut retourner l'adresse en utilisant la
valeur stockée dans son cache de noms. La mise en cache réduit le trafic réseau de données de demandes
DNS et les charges de travail des serveurs situés aux niveaux supérieurs dans la hiérarchie. Le service
Client DNS sur les ordinateurs Windows optimise les performances de la résolution des noms DNS en
stockant également en mémoire les noms déjà résolus. La commande ipconfig /displaydns affiche toutes
les entrées DNS mises en cache sur un système Windows.

Protocole de couche Transport


Transport des données

La couche transport est chargée de l'établissement d'une session de communication temporaire entre
deux applications et de l'acheminement des données entre ces deux applications. Une application génère
les données à envoyer d'une application sur un hôte source vers une application sur un hôte de
destination, quels que soient le type d'hôte de destination, le type de support sur lequel aura lieu la
transmission, le chemin emprunté par les données, l'encombrement de la liaison et la taille du réseau.
Comme le montre la figure, la couche transport constitue la liaison entre la couche application et les
couches inférieures chargées de la transmission sur le réseau.
La couche transport fournit une méthode d'acheminement des informations sur l'ensemble du réseau qui
garantit que les données peuvent être correctement rassemblées au niveau du destinataire. La couche
transport segmente les données et se charge des contrôles nécessaires à la réorganisation de ces segments
de données en différents flux de communication. Dans le cadre de la suite de protocoles TCP/IP, ces
processus de segmentation et de réorganisation peuvent être réalisés à l'aide de deux protocoles de
couche transport très différents: TCP (Transmission Control Protocol) et UDP (User Datagram
Protocol).
Les protocoles de couche transport effectuent les tâches principales suivantes :

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


 Effectuer un suivi des communications individuelles entre les applications résidant sur les hôtes
source et de destination ;
 Segmenter les données pour faciliter la gestion et réassembler les données segmentées en flux
de données d'application vers la destination
 Identifier l'application appropriée pour chaque flux de communication

Suivi des conversations individuelles


Au niveau de la couche transport, chaque ensemble de données transitant entre une application source
et une application de destination est appelé une conversation. Un hôte peut héberger plusieurs
applications qui communiquent sur le réseau simultanément. Chacune de ces applications communique
avec une ou plusieurs applications sur un ou plusieurs hôtes distants. La couche transport est chargée de
garantir ces multiples conversations et d'en effectuer le suivi.
Segmentation des données et reconstitution des segments
Les données doivent être préparées à être envoyées sur le support sous forme de blocs faciles à gérer.
La plupart des réseaux limitent la quantité de données pouvant être incluses dans un paquet. Les
protocoles de couche transport disposent de services qui segmentent les données d'application en blocs
de données de taille appropriée. Il s'agit notamment de l'encapsulation devant s'appliquer à chaque bloc
de données. Un en-tête, utilisé pour la réorganisation, est ajouté à chaque bloc de données. Cet en-tête
est utilisé pour suivre le flux de données.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Au niveau du destinataire, la couche transport doit pouvoir reconstituer un flux de données complet utile
pour la couche application à partir des blocs de données. Les protocoles intervenant au niveau de la
couche transport gèrent la façon dont les informations d'en-tête de la couche transport sont utilisées pour
réassembler les blocs de données en flux qui seront transmis à la couche application.
Identification des applications
De nombreux services ou applications peuvent s'exécuter sur chaque hôte du réseau. Pour que les flux
de données atteignent les applications auxquelles ils sont destinés, la couche transport doit identifier
l'application cible. Pour cela, la couche transport affecte un identificateur à chaque application. Cet
identificateur est appelé numéro de port. Chaque processus logiciel ayant besoin d'accéder au réseau se
voit affecter un numéro de port unique sur son hôte. La couche transport utilise des ports pour identifier
l'application ou le service.
Multiplexage de conversations
L'envoi de certains types de données (par exemple, un flux vidéo en continu) sur le réseau en tant que
flux de communication complet peut utiliser toute la bande passante disponible et empêcher d'autres
communications d'avoir lieu en même temps.
Ceci rend également difficiles la reprise sur erreur et la retransmission des données endommagées. La
figure montre que la segmentation des données en parties plus petites permet à plusieurs
communications différentes, provenant de nombreux utilisateurs, d'être imbriquées (multiplexées) sur
le même réseau.
La segmentation des données par les protocoles de couche transport permet d'envoyer et de recevoir des
données tout en exécutant plusieurs applications simultanément sur un ordinateur. Sans segmentation,
une seule application pourrait recevoir des données.
Par exemple, pour un flux vidéo en continu, le support serait monopolisé par le flux de communication,
au lieu d'être partagé. Il serait impossible de recevoir des e-mails, de parler sur une messagerie
instantanée et d'afficher des pages Web tout en regardant la vidéo.
Pour identifier chaque segment de données, la couche transport ajoute un en-tête contenant des données
binaires au segment. Cet en-tête contient des champs de bits. Ce sont les valeurs contenues dans ces
champs qui permettent aux différents protocoles de couche transport d'exécuter des fonctions diverses
de gestion des communications de données.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


La couche transport est également responsable de la gestion des exigences de fiabilité d'une
conversation.
Des applications différentes ont des exigences différentes en matière de fiabilité du transport. Le
protocole IP ne s'occupe que de la structure, de l'adressage et du routage des paquets. Il ne fixe pas le
mode d'acheminement ou de transport des paquets. Les protocoles de transport définissent comment
transmettre les messages entre les hôtes.
La suite de protocoles TCP/IP propose deux protocoles de couche transport, TCP et UDP, comme
illustré dans la figure ci-contre. Le protocole IP utilise ces protocoles de transport pour permettre aux
hôtes de communiquer et de transmettre des données.
Le protocole TCP est un protocole de couche transport fiable et complet, qui garantit que toutes les
données arrivent à destination. En revanche, le protocole UDP est un protocole de couche transport très
simple qui ne permet pas de garantir la fiabilité.

Comme indiqué précédemment, le protocole TCP est un protocole de transport fiable, ce qui signifie
qu'il comprend des processus permettant d'assurer un acheminement fiable des données entre les
applications par l'utilisation d'accusés de réception. Le transport TCP revient à envoyer des paquets qui
sont suivis de la source à la destination. Si l'expédition de FedEx est divisée en plusieurs colis, un client
peut vérifier en ligne l'ordre des livraisons.
Avec le protocole TCP, les trois fonctions de fiabilité de base sont :
 le suivi des segments de données transmis ;
 les accusés de réception des données ;
 la retransmission des données n'ayant pas fait l'objet d'un accusé de réception.
TCP découpe un message en petits morceaux appelés segments. Les segments, numérotés en séquence,
sont ensuite passés au processus IP pour être assemblés en paquets. TCP conserve une trace du nombre
de segments qui ont été envoyés à un hôte donné à partir d'une application spécifique. Si l'expéditeur ne
reçoit pas d'accusé de réception au bout d'un certain temps, il suppose que les segments ont été perdus,

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


et il les retransmet. Seule la partie du message qui a été perdue est renvoyée, pas l'intégralité. Sur
l'hôte récepteur, TCP est responsable de la reconstitution des segments de message et de leur
transmission à l'application. Les protocoles FTP (File Transfer Protocol et HTTP (Hypertext Transfer
Protocol) sont des exemples d'applications qui utilisent le protocole TCP pour assurer l'acheminement
des données.
Ces processus assurant la fiabilité augmentent la surcharge des ressources du réseau du fait des
opérations d'accusé de réception, de suivi et de retransmission. Pour prendre en charge ces opérations
assurant la fiabilité, un nombre plus important de données de contrôle est échangé entre les hôtes qui
expédient et ceux qui reçoivent les données. Ces informations de contrôle sont contenues dans un en-
tête TCP.
Tandis que les fonctionnalités de fiabilité TCP assurent l'efficacité des communications entre les
applications, elles engendrent également une surcharge supplémentaire et des éventuels retards
de transmission. Un compromis doit être établi entre la valeur accordée à la fiabilité et la charge qu'elle
représente sur le réseau. Imposer une surcharge pour garantir la fiabilité de certaines applications peut
réduire l'utilité de l'application et peut même porter préjudice à l'application. Dans ce cas, le protocole
UDP représente un meilleur protocole de transport.
Le protocole UDP fournit uniquement des fonctions de base permettant d'acheminer des segments
de données entre les applications appropriées avec peu de surcharge et de vérification des données.
Le protocole UDP est un protocole d'acheminement au mieux. Dans le contexte des réseaux,
l'acheminement au mieux est considéré comme n'étant pas fiable car aucun accusé de réception ne
confirme que les données sont arrivées à destination. Avec le protocole UDP, aucun processus de couche
transport ne signale à l'expéditeur si la transmission a réussi.
L'UDP revient à poster une lettre normale, sans accusé de réception. L'expéditeur de la lettre ne sait pas
si le destinataire peut recevoir la lettre et le bureau de poste ne doit ni suivre la lettre ni informer
l'expéditeur si la lettre n'arrive pas à la destination finale.
Les protocoles TCP et UDP sont des protocoles de transport valides. En fonction des besoins des
applications, un ou deux de ces protocoles de transport peuvent être utilisés. Les développeurs
d'applications doivent déterminer quel type de protocole de transport est approprié en fonction des
exigences des applications.
Pour certaines applications, les segments doivent arriver dans un ordre donné pour être traités
correctement. Pour d'autres applications, toutes les données doivent être entièrement reçues pour être
utilisées. Dans les deux cas, le protocole TCP est utilisé comme protocole de transport. Par exemple, les
applications telles que les bases de données, les navigateurs Web et les clients de messagerie ont besoin
que toutes les données envoyées arrivent à destination dans leur état d'origine. Toute donnée manquante
risque de corrompre la communication en la rendant incomplète ou illisible. Par conséquent, ces
applications sont conçues pour utiliser le protocole TCP. On considère que cette surcharge
supplémentaire pour le réseau est indispensable pour ces applications.
Dans d'autres cas, une application peut tolérer une certaine perte lors de la transmission de données sur
le réseau, mais pas les retards de transmission. Le protocole UDP est le choix idéal pour ces applications,
car il implique moins de surcharge sur le réseau. Le protocole UDP est à privilégier pour la lecture
audio/vidéo en continu et la voix sur IP (VoIP). Les accusés de réception ralentiraient la livraison, et les
retransmissions ne sont pas souhaitables.
Si, par exemple, un ou deux segments d'un flux vidéo en continu n'arrivent pas à destination, cela ne fait
que créer une interruption momentanée du flux. Cela peut se traduire par une distorsion de l'image que
l'utilisateur ne remarquera peut-être même pas. Cependant, l'image produite par un flux vidéo en continu
serait fortement dégradée si le périphérique de destination devait rendre compte des données perdues et

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


retarder la lecture le temps qu'elles arrivent. Dans ce cas, il est donc préférable de fournir la meilleure
qualité vidéo possible en fonction des segments reçus et de renoncer à la fiabilité.
La radio ou la télévision sur Internet sont des exemples d'application utilisant le protocole UDP. Si une
partie du message est perdue pendant sa transmission via le réseau, elle n'est pas retransmise. Si certains
paquets manquent, il se peut que la personne qui écoute entende de légères interruptions dans le son. Si
TCP était utilisé et si les paquets perdus étaient renvoyés, la transmission serait interrompue pour
recevoir ces paquets, et l'interruption se remarquerait

Pour comprendre les différences entre les protocoles TCP et UDP, il est important de comprendre
comment chaque protocole utilise des fonctions spécifiques de fiabilité et comment il effectue le suivi
des communications.
Protocole TCP (Transmission Control Protocol)
Le protocole TCP a été initialement décrit dans le document RFC 793. Outre la prise en charge des
fonctions de base de segmentation et de réorganisation des données, le protocole TCP, comme l'illustre
la figure, fournit également :
 des conversations orientées connexion en établissant des sessions ;
 un acheminement fiable ;
 une reconstitution ordonnée des données ;
 le contrôle de flux.
Établissement de session
Le protocole TCP est un protocole orienté connexion. Un protocole orienté connexion est un protocole
qui négocie et établit une connexion permanente (ou session) entre les périphériques source et de

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


destination avant de transmettre du trafic. L'établissement de session prépare les périphériques à
communiquer entre eux. Grâce à l'établissement de la session, les périphériques négocient la quantité de
trafic pouvant être transmise à un moment donné et les données de communication peuvent être
étroitement gérées. La session est interrompue une fois que toutes les communications sont terminées.
Acheminement fiable
Le protocole TCP est en mesure d'assurer l'acheminement fiable des données. Dans le contexte des
réseaux, la fiabilité consiste à veiller à ce que chaque bloc de données envoyé par la source parvienne à
destination. Bien des circonstances peuvent entraîner la corruption ou la perte d'un bloc de données lors
de son transfert sur le réseau. Le protocole TCP peut garantir que tous les blocs atteignent leur
destination en demandant au périphérique source de retransmettre les données perdues ou
endommagées.
Livraison dans le même ordre
Étant donné que les réseaux peuvent fournir plusieurs routes dont les débits de transmission varient, il
se peut que les données arrivent dans le désordre. En numérotant et en ordonnant les segments, le
protocole TCP s'assure que ces segments sont remis dans le bon ordre.7
Contrôle de flux
Les hôtes du réseau disposent de ressources limitées, par exemple en ce qui concerne la mémoire ou la
bande passante. Quand le protocole TCP détermine que ces ressources sont surexploitées, il peut
demander à l'application qui envoie les données d'en réduire le flux. Cette opération consiste à réguler
la quantité de données transmises par la source. Le contrôle du flux contribue à prévenir la perte de
segments sur le réseau et à rendre inutiles les retransmissions.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Une fois que le protocole TCP établit une session, il peut alors effectuer le suivi de la conversation dans
cette session. En raison de la capacité de suivi des conversations réelles du protocole TCP, ce dernier
est considéré comme un protocole avec état. Un protocole avec état est un protocole qui contrôle l'état
de la session de communication. Par exemple, lorsque les données sont transmises à l'aide du protocole
TCP, l'expéditeur s'attend à ce que la destination accuse réception des données. Le protocole TCP suit
les informations qu'il a envoyées et sait quelles informations ont été reçues. Si aucun accusé de réception
n'est reçu, l'expéditeur suppose que les données ne sont pas arrivées et les renvoie. La session avec état
commence par l'établissement d'une session et se termine lorsque la session est interrompue.
Remarque : la mise à jour de ces informations d'état nécessite des ressources qui ne sont pas nécessaires
pour un protocole sans état, tel que le protocole UDP.
Le protocole TCP implique une surcharge pour bénéficier de ces fonctionnalités. Comme l'illustre la
figure, chaque segment TCP utilise 20 octets dans l'en-tête pour encapsuler les données de la couche
application. C'est bien plus qu'un segment UDP, qui ne représente que 8 octets de surcharge. Cette
surcharge comprend :
 Un numéro d'ordre (32 bits) – utilisé pour réorganiser les données.
 Un numéro d'accusé de réception (32 bits) – indique les données qui ont été reçues.
 Le champ Longueur d'en-tête (4 bits) – connue sous le nom de « décalage de données ». Indique
la longueur de l'en-tête du segment TCP.
 Le champ Réservé (6 bits) - champ réservé pour les futures évolutions.
 Des bits de contrôle (6 bits) – comprennent des codes de bits, ou indicateurs, indiquant l'objectif
et la fonction du segment TCP.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


 La taille de fenêtre (16 bits) – indique le nombre de segments qui peuvent être acceptés en même
temps.
 La somme de contrôle (16 bits) – utilisée pour le contrôle des erreurs sur l'en-tête et les données
de segment.
 Le champ Urgent (16 bits) – indique si les données sont urgentes.
Le protocole TCP est par exemple utilisé par les navigateurs Web, les messageries et les applications de
transfert de fichiers.

Protocole UDP (User Datagram Protocol)


Le protocole UDP est un protocole de transport d'acheminement au mieux, décrit dans le document RFC
768. Le protocole UDP est un protocole de transport léger qui offre les mêmes fonctions de segmentation
et de réorganisation des données que le protocole TCP, mais sans la fiabilité et le contrôle de flux du
protocole TCP. C'est un protocole simple, qui est généralement décrit en indiquant ce qu'il ne fait pas
par rapport au protocole TCP.
Comme l'illustre la figure, les fonctionnalités suivantes constituent le protocole UDP :
 Sans connexion – le protocole UDP n'établit pas de connexion entre les hôtes avant que les
données puissent être envoyées et reçues.
 Acheminement non fiable – le protocole UDP ne fournit pas de services garantissant que les
données sont acheminées de façon fiable. Il n'existe pas de processus dans le protocole UDP
permettant de faire retransmettre à l'expéditeur les données perdues ou endommagées.
 Aucune reconstitution ordonnée des données – parfois, les données sont reçues dans un ordre
différent de celui dans lequel elles ont été envoyées. Le protocole UDP n'offre aucun mécanisme
permettant de réorganiser les données dans leur ordre initial. Les données sont simplement
remises à l'application dans l'ordre où elles arrivent.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


 Aucun contrôle de flux – le protocole UDP ne propose aucun service permettant de contrôler la
quantité de données envoyées par la source pour éviter de submerger le périphérique de
destination. La source envoie les données. Si les ressources sur l'hôte de destination sont
surexploitées, l'hôte de destination abandonne généralement les données envoyées jusqu'à ce
que des ressources soient disponibles. Contrairement au protocole TCP, le protocole UDP ne
fournit aucun mécanisme permettant de retransmettre automatiquement les données
abandonnées.
Bien que le protocole UDP n'inclue pas les mécanismes de fiabilité et de contrôle de flux du protocole
TCP, comme l'illustre la figure, la faible surcharge pour l'acheminement des données du protocole UDP
fait de ce dernier un protocole de transport idéal pour les applications qui peuvent tolérer certaines pertes
de données. Les blocs de communications utilisés dans le protocole UDP sont appelés des datagrammes.
Ces datagrammes sont envoyés « au mieux » par le protocole de couche transport. Le système de noms
de domaine (DNS), la transmission vidéo en continu et la voix sur IP (VoIP) comptent parmi les
applications utilisant le protocole UDP.

L'une des conditions les plus importantes pour fournir une vidéo en direct et faire transiter des données
vocales sur un réseau est que le flux de données soit rapide. Les applications vidéo et de communication
vocale peuvent tolérer certaines pertes de données, qui ont un impact faible ou nul, et sont donc
parfaitement adaptées au protocole UDP.
UDP est un protocole sans état, c'est-à-dire que ni le client ni le serveur ne sont tenus de surveiller l'état
de la session de communication. Comme l'illustre la figure, le protocole UDP n'est pas concerné par la
fiabilité et le contrôle de flux. Les données peuvent être perdues ou reçues dans le désordre sans qu'aucun
mécanisme UDP ne puisse récupérer ou réorganiser les données. Si la fiabilité est nécessaire dans le
cadre de l'utilisation d'UDP comme protocole de transport, elle doit être prise en charge par l'application

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Datagramme UDP

La couche transport doit pouvoir segmenter et gérer plusieurs communications ayant différentes
exigences relatives au transport. Prenons comme exemple un utilisateur connecté à un réseau sur un
périphérique final. L'utilisateur envoie et reçoit simultanément des e-mails et des messages instantanés,
consulte des sites Web et passe un appel VoIP. Chacune de ces applications envoie des données sur le
réseau et en reçoit simultanément, et ce malgré leurs différents besoins en termes de fiabilité. De plus,
les données de l'appel VoIP ne sont pas orientées vers le navigateur Web et le texte des messages
instantanés ne finit pas dans un e-mail.
Pour garantir la fiabilité, les utilisateurs ont besoin que les e-mails et les pages Web soient intégralement
reçus et traités, afin que les informations soient considérées comme utiles. De légers retards dans le
chargement des e-mails ou des pages Web sont généralement acceptables, tant que les produits finis
s'affichent dans leur intégralité et correctement. Dans cet exemple, le réseau gère la réexpédition ou le
remplacement des informations manquantes, et n'affiche pas le produit fini jusqu'à ce que tout soit reçu
et correctement assemblé.
Dans le cas d'une conversation téléphonique, l'absence de quelques mots peut par contre être considérée
comme acceptable. Même si certaines petites parties de quelques mots sont manquées, il est possible de
déduire les mots manquants en fonction du contexte de la conversation ou de demander à l'autre
interlocuteur de répéter ce qui a été dit. Cela est considéré comme étant préférable aux retards causés si
le réseau devait gérer et renvoyer les segments manquants. Dans notre exemple, c'est l'utilisateur, et non
le réseau, qui gère la réexpédition ou la reconstitution des informations manquantes.
Comme l'illustre la figure, pour que les protocoles TCP et UDP gèrent ces conversations simultanées
avec des besoins variables, les services TCP et UDP doivent surveiller les différentes applications en
train de communiquer. Pour différencier les segments et les datagrammes de chaque application, les
protocoles TCP et UDP utilisent chacun des champs d'en-tête identifiant ces applications de façon
unique. Ces identificateurs uniques sont les numéros de port.
Adressage de Ports

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


L'en-tête de chaque segment ou datagramme contient un port source et un port de destination. Le numéro
de port source est le numéro associé à l'application d'origine sur l'hôte local pour cette communication.
Comme l'illustre la figure, le numéro de port de destination est le numéro de cette communication
associé à l'application de destination sur l'hôte distant.
Lorsqu'un message est transmis à l'aide du protocole TCP ou UDP, les protocoles et services demandés
sont identifiés par un numéro de port. Un port est un identifiant numérique, présent dans chaque
segment, qui est utilisé pour conserver la trace de certaines conversations et de certains services de
destination demandés. Chaque message envoyé par un hôte contient un port source et un port de
destination.
Port de destination
Le client place un numéro de port de destination dans le segment pour informer le serveur de destination
du service demandé. Par exemple, le port 80 renvoie au service HTTP ou Web. Lorsque le client spécifie
le port 80 comme port de destination, le serveur qui reçoit le message sait que des services Web sont
demandés. Un serveur peut proposer plusieurs services simultanément. Par exemple, il peut proposer
des services Web sur le port 80 et, en même temps, l'établissement d'une connexion FTP sur le port 21.
Port source
Le numéro du port source est généré de manière aléatoire par le périphérique émetteur pour identifier
une conversation entre deux périphériques. Ainsi, plusieurs conversations peuvent s'effectuer
simultanément. En d'autres termes, un périphérique peut envoyer plusieurs requêtes de service HTTP à
un serveur Web en même temps. Un suivi des différentes conversations est effectué sur la base des ports
sources.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Les ports sources et de destination sont placés à l'intérieur du segment. Les segments sont ensuite
encapsulés dans un paquet IP. Le paquet IP contient l'adresse IP de la source et de la destination. La
combinaison des adresses IP source et de destination ainsi que des numéros de port source et de
destination est appelée un socket. L'interface de connexion sert à identifier le serveur et le service
demandés par le client. Chaque jour, des milliers d'hôtes communiquent avec des millions de serveurs
différents. Ces communications sont identifiées par les sockets.
La combinaison du numéro de port de la couche transport et de l'adresse IP de la couche réseau de l'hôte
suffit à identifier de manière unique un processus d'application particulier exécuté sur un périphérique
hôte individuel. Cette combinaison est appelée un socket. Une paire de sockets, composée des adresses
IP et numéros de port source et de destination, est également unique et identifie la conversation
spécifique entre les deux hôtes.
Un socket client peut se présenter comme suit, 1099 représentants le numéro de port source :
192.168.1.5:1099.
Le socket d'un serveur Web peut avoir la forme suivante : 192.168.1.7:80
Ensemble, ces deux sockets constituent une paire de sockets : 192.168.1.5:1099, 192.168.1.7:80.
Avec la création de sockets, les points de communication sont connus de sorte que les données peuvent
passer d'une application sur un hôte à une application sur un autre. Les sockets permettent à plusieurs
processus exécutés sur un client de se différencier les uns des autres, et aux multiples connexions à un
processus serveur de se distinguer les unes des autres.

L'Internet Assigned Numbers Authority (IANA) attribue les numéros de port. L'IANA est une agence
de normalisation responsable de l'affectation de diverses normes d'adressage.
Il existe différents types de numéros de port :
 Ports réservés (numéros 0 à 1023) – Ces numéros sont réservés à des services et applications.
Ils sont généralement utilisés pour les applications telles que HTTP (serveur Web), Internet
Message Access Protocol (IMAP)/Simple Mail Transfer Protocol (SMTP) (serveur de

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


messagerie) et Telnet. En définissant ces ports réservés pour une utilisation par des applications
serveur, il est possible de programmer les applications clientes de façon à ce qu'elles demandent
à être connectées à un port précis et au service qui lui est associé.
 Ports inscrits (numéros 1024 à 49151) – Ces numéros de port sont affectés à des processus ou
applications d'utilisateurs. Ces processus sont essentiellement des applications particulières
qu'un utilisateur a choisi d'installer plutôt que des applications courantes qui recevraient un
numéro de port réservé. Un client peut également sélectionner dynamiquement ces ports en tant
que ports source lorsqu'ils ne sont pas utilisés par une ressource serveur.
 Ports privés ou dynamiques (numéros 49152 à 65535) – Également appelés ports éphémères,
ces ports sont généralement affectés de façon dynamique à des applications clientes lorsqu'une
connexion à un service est initiée par un client. Le port dynamique est très souvent utilisé pour
identifier l'application cliente durant la communication, alors que le client utilise le port réservé
pour identifier et se connecter au service demandé au serveur. Il est relativement rare pour un
client de se connecter à un service par le biais d'un port dynamique ou privé (bien que certains
programmes de partage de fichiers peer-to-peer utilisent ces ports).
Certains des ports réservés et inscrits dans le cadre du protocole TCP, certains des ports réservés et
inscrits dans le cadre du protocole UDP.
Utilisation du protocole TCP et du protocole UDP
Certaines applications peuvent utiliser à la fois le protocole TCP et le protocole UDP (Figure 4). En
effet, la faible surcharge du protocole UDP permet au service DNS de gérer très rapidement de
nombreuses requêtes de clients. Parfois, cependant, l'envoi des informations demandées exige la fiabilité
du protocole TCP. Dans ce cas, le port réservé 53 est utilisé par les deux protocoles en association avec
ce service.
Une liste à jour des numéros de port et des applications associées est disponible sur le site Web de
l'organisme IANA

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Encapsulation
Le paquet est l’unité de base des informations transférées sur un réseau, constitué au minimum d’un en-
tête avec les adresses des hôtes émetteur et récepteur et d’un corps avec les données à transférer. Lorsque
le paquet traverse la pile de protocoles TCP/IP, les protocoles de chaque couche ajoutent ou suppriment
des champs de l’en-tête de base. Lorsqu’un protocole sur l’hôte émetteur ajoute des données à l’en-tête
du paquet, le processus s’appelle encapsulation de données, l’opération inverse est la désencepsulation.
De plus, chaque couche a un terme différent pour le paquet modifié.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


CHAPITRE II : NOTIONS DE COMMUTATION ET ROUTAGE (SWITCHING ET ROUTING)
II.1 COMMUTATION
II.1.1 Un LAN
II.1.1.1 Introduction
Jadis, pour constituer des domaines de diffusion, il était nécessaire de créer des réseaux physiques
(LAN), reliés entre eux par deux routeurs, cette obligation liée à la localisation géographique des stations
étaient contraignante pour l’administrateur réseau. La technologie de VLAN a révolutionné le concept
de segmentation des réseaux.
Dans ce chapitre nous allons sur le réseau Ethernet :
 présenter les réseaux locaux virtuels (Virtual Local Area Network - VLAN)
 voir ce qu’est un réseau local virtuel.
 les agrégations des VLAN.
 implémenter cette technologie
 les méthodes de configuration.
Un LAN = réseau local dans lequel toutes les trames Ethernet sont visibles depuis tous les nœuds si le
LAN est construit avec un HUB. Si nous avons affaire à un SWITCH, seules les trames de diffusions
(broadcast) seront visibles depuis tous les nœuds, le SWITCH agissant comme un pont Ethernet entre
chaque nœud du LAN.
Deux LANS (ou plus)
Lorsque nous avons deux LANs et que nous souhaitons les interconnecter, tout en conservant dans
chaque LAN les mêmes propriétés au niveau Ethernet, nous devons faire appel à la couche 3 (IP) pour
assurer l'interconnexion. Il nous faut donc un routeur.

Les VLANs
L’idée de base des VLAN est de découper un seul réseau local (c’est à dire un ensemble cohérent
d’infrastructures de niveau 2) en des réseaux logiques totalement disjoints : c’est comme si on avait
plusieurs réseaux physiques totalement disjoints, un par VLAN.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


2.2.2 Les principes

Longtemps, la solution a consisté à introduire des routeurs entre les différents domaines logiques avec
pour effet :
 Diminution du domaine de broadcast
 Filtrage de niveau 3 entre stations
 Coûts assez élevés en matériels et gros problèmes de connexion des utilisateurs (brassage des
prises réseaux, attribution des adresses IP, etc.)
 Problème de mobilité des postes
D’où l’idée de construire un réseau logique sur un réseau physique partagé qui nous mène à la notion
de réseau virtuel (Vlan). Usuellement on présente trois méthodes pour créer des VLAN :
 les Vlan par port (niveau 1),
 les Vlan par adresses MAC (niveau 2),
 les Vlan par adresses IP (niveau 3) ainsi que des méthodes dérivées.
2.2.3 Avantages
Ce nouveau mode de segmentation des réseaux locaux modifie radicalement la manière dont les réseaux
sont conçus, administrés et maintenus. La technologie de VLAN comporte ainsi de nombreux avantages
et permet de nombreuses applications intéressantes.
2.2.3.1 La flexibilité de segmentation du réseau
Les utilisateurs et les ressources entre lesquels les communications sont fréquentes peuvent être
regroupés en des groupes de travail indépendants de l'infrastructure physique. Il est aussi envisageable
qu'une station appartienne à plusieurs VLAN en même temps.
2.2.3.2 La simplification de la gestion
L'ajout de nouveaux éléments ou le déplacement d'éléments existants peut être réalisé rapidement et
simplement sans devoir manipuler les connexions physiques dans le local technique.
2.2.3.3 L'augmentation considérable des performances du réseau

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Comme le trafic réseau d'un groupe d'utilisateurs est confiné au sein du VLAN qui lui est associé, de la
bande passante est libérée, ce qui augmente les performances du réseau.
2.2.3.4 Une meilleure utilisation des serveurs réseaux.
Lorsqu'un serveur possède une interface réseau compatible avec le VLAN, l'administrateur a
l'opportunité de faire appartenir ce serveur à plusieurs VLAN en même temps. Cette appartenance à de
multiples VLAN permet de réduire le trafic qui doit être routé (traité au niveau du protocole de niveau
supérieur, par exemple IP) "de" et "vers" ce serveur; et donc d'optimiser ce trafic. Tout comme le
découpage d’un disque dur en plusieurs partitions permet d’augmenter les performances (la
fragmentation peut être diminuée) de son ordinateur, le VLAN améliore considérablement l’utilisation
du réseau.
2.2.3.5 Le renforcement de la sécurité du réseau
Les frontières virtuelles créées par les VLAN ne pouvant être franchies que par le biais de fonctionnalités
de routage, la sécurité des communications est renforcée par le contrôle des échanges inter-VLAN
utilisant des routeurs (filtrage possible du trafic échangé entre les VLANs).
2.2.3.6 La régulation de la bande passante
Un des concepts fondamentaux des réseaux Ethernet est la notion d'émission d'un message réseau vers
l'ensemble (broadcast ou multicast) des éléments connectés au même commutateur (hub/switch).
Malheureusement, ce type d'émission augmente sérieusement le trafic réseau au sein du composant de
connexion. Même si les vitesses de transmission ne cessent d'augmenter, il est important de pouvoir
contrôler ce gaspillage de capacité de trafic (bande passante). Ici encore, le VLAN offre à
l'administrateur les moyens de réguler l'utilisation de la capacité de traffic disponible au sein de
l'infrastructure comme la réduction des messages de diffusion (notamment les requêtes ARP), limités à
l'intérieur d’un VLAN.
2.2.3.7 Fonctionnement d’un LAN

Pour bien comprendre les VLAN on doit connaitre le fonctionnement d’un LAN. Au sein d’un LAN
défini comme une architecture commutée, soit un réseau composé de commutateurs, toutes les interfaces
disposent d’une adresse unique : une adresse physique MAC du protocole 802. Un commutateur tient
de stables de correspondance entre ses ports et les adresses des hôtes afin de transférer rapidement le
trafic.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


 Dans ces réseaux on connait :
 du trafic unicast : à destination d’un seul hôte
 du trafic de broadcast (diffusion): à destination de tous les hôtes
 du trafic multicast : à destination de certains hôtes.
Un commutateur transfère le trafic de diffusion (broadcast) et multicast à travers tous ses ports sauf celui
d’origine. Un routeur « filtre » le trafic de diffusion en ne le transférant pas.
2.2.4 Fonctionnement du VLAN
Au niveau 2
Si nous faisons un gros plan sur le SWITCH, nous observons ceci :

Combo ports = est le port composite photoélectrique (panneau) avec deux types d'interfaces
Ethernet (port RJ45 et port SFP) sur un commutateur Ethernet. Il s'agit d'un port composé qui
peut supporter deux dispositifs physiques différents et partager la même matrice de
commutation et le même numéro de port. Ce qui différencie ces ports, c'est qu'ils sont liés à la
même structure de commutation. Toutefois, les deux ports différents ne peuvent pas être utilisés
simultanément. C'est-à-dire que lorsque le port RJ45 est activé, le port SFP est automatiquement
désactivé et vice versa.
SFP Ports = Le port SFP est conçu pour être utilisé avec des connecteurs à facteur de forme
réduit (SFF), et offre une vitesse élevée et des dimensions compactes. Il permet à un switch
Gigabit d'autoriser des liaisons optiques ou en cuivre en insérant le module SFP correspondant
(SFP en fibre ou SFP en cuivre). Quel que soit le port optique ou électrique, la seule différence
est la couche physique (média).

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Un VLAN est un LAN logique fonctionnant sur une infrastructure physique commuté. Une
infrastructure physique commune peut supporter plusieurs VLANs. Chaque LAN virtuel fonctionnera
comme n’importe quel LAN distinct. Concrètement, les ports du commutateur prennent un identifiant
VLAN. Cet identifiant logique définit l’étendue du domaine de diffusion : le trafic de diffusion ne sera
transféré que sur les ports ayant le même identifiant. Autrement dit, par exemple, le trafic de diffusion
venant d’un port appartenant au VLAN 66 ne sera transféré que sur les ports ayant pour attribution le
VLAN 66. La séparation fonctionnelle entre deux ports ayant des identifiants VLAN différents
correspond à une séparation physique. En quelque sorte, la technologie VLAN permet de diviser
logiquement les ports du commutateur, soit l’infrastructure physique elle-même. La figure ci-après
illustre le trafic de broadcast émanant respectivement des hôtes A et H.

Cette fonctionnalité peut être étendue sur des ports de commutateurs distants à travers toute
l’infrastructure. Dans ce cas, les commutateurs devront transporter entre eux du trafic appartenant à
plusieurs VLANs sur une ou plusieurs liaisons spécifiques. Ce qui nous mène à l’agrégation des VLAN.
2.3 Agrégation des VLAN ou Trunking
2.3.1 Trunk ou Liaison d’agrégation
Les ports d’une liaison qui agrègent le trafic de plusieurs VLANs s’appellent un « Trunk » chez le
constructeur Cisco Systems et « liaison d’agrégation » chez d’autres. Sur ce type de liaison, le
commutateur ajoute des champs supplémentaires dans ou autour de la trame Ethernet. Ils servent
notamment à distinguer le trafic de VLANs différents car ils contiennent entre autres le numéro

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


d’identification du VLAN. Les commutateurs isolent le trafic entre les VLANs distincts mais transfèrent
le trafic d’un même VLAN sur une liaison Trunk en ajoutant une étiquette dans chaque trame comme le
montre la figure :

2.3.2 Protocole « Trunk »


Deux protocoles de « Trunk » peuvent être rencontrés. Il agist au niveau de la couche 2 (liaison de
données). Ils opèrent sous les couches TCP/IP.
2.3.2.1 Inter-Switch Link (ISL) C’est un protocole propriétaire Cisco qui encapsule la trame d’origine
avec un en-tête spécifique qui contient entre autres le numéro de VLAN et un nouveau champ FCS*. Il
est indépendant de la technologie sous-jacente. Il est de moins en moins rencontré au profit de IEEE
802.1q. 2.3.2.2 IEEE 802.1q La norme 802.1q date de décembre 1998. C’est un protocole Standardisé
et interopérable. Le standard supporte les technologies IEEE 802.3 (Ethernet), IEEE 802.11 (WIFI),
IEEE 802.5 (TokenRing), etc., en tant que protocole de « pontage » (bridging, IEEE 802.1). IEEE 802.1q
ajoute une étiquette dans l’en-tête de la trame (un ensemble de champs juste après le champ d’adresse
MAC d’origine). Cette étiquette a une taille de 4 octets ou 32 bits dont 12 bits sont consacrés au numéro
de VLAN. Vu que la trame sera modifiée, le commutateur recalculera la valeur du champ CRC/FCS.

La norme définit trois types de trames :


 Les trames non étiquetées (untagged frame) : une trame non étiquetées est une trame qui ne
contient aucune information sur son appartenance à un Vlan.
 Les trames étiquetées (tagged frame) : une trame étiquetée est une trame qui contient un entête
supplémentaire. Cet entête modifie le format standard d’une trame, notamment de la trame
802.3.
 Les trames étiquetées par une priorité (priority-tagged frame)

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Le format de cette étiquette est illustré dans la figure suivante :

Le champ Ethertype ou Tag Protocol Identifier (TPID), sur 16 bits, est utilisé pour identifier le type de
la balise insérée. Pour le 802.1q la valeur est fixée à 0x8100. Le champ TCI (Tag Control Identifier) de
16 bits est utilisé pour l’identification d’un control de l’étiquette. Il est comporte:
 Un champ priorité ou PCP (Priority Code Point) de 3 bits, qui est utilisé pour coder 8 niveaux
de priorités d’un VLAN par rapport à l’autre.
 Un champ CFI (Canonical Format Indicator) sur 1 bit pour la compatibilité entre les adresses
MAC Ethernet et Token Ring. Un commutateur Ethernet fixe ce champ à 0 (si 1 la trame n’est
pas propagée).
 Un champ VID (VLAN Identifier) sur 12 bits. Ce champ permet de définir l’appartenance d’une
trame à un VLAN, la valeur maximale est de 4095 (Vlan 0 signifie que la trame n’appartient à
aucun vlan).
2.3.4 Encapsulation
Quand est-ce que cette encapsulation IEEE 802.1q intervient ? Un hôte A veut joindre un hôte L
connecté à un commutateur distant. Les commutateurs sont interconnectés par une « liaison d'agrégation
». La trame ne sera étiquetée seulement si elle quitte le commutateur sur un port qui connecte une liaison
d'agrégation. Lors de la livraison locale de la trame à la station destinataire, elle sort du port du
commutateur sans étiquette.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


2.3.5 Multicast ou Multidiffusion
Le trafic de diffusion comme celui de multicast sera porté à la destination de tous les ports ayant le
même identifiant VLAN, à travers des ports de « liaison d'agrégation ». Les hôtes connectés à un port
d'un identifiant VLAN différent ne seront pas affectées par ce trafic. En ce sens, la taille des domaines
de diffusion peut être contrôlée sur une infrastructure commutée à des fins de performance,
d'administration du trafic, des machines et des utilisateurs.

Le port marqué "trunk" appartient à la fois aux deux VLANs bleu et vert. Sur ce port, il faut bien sûr
qu'au moins l'un des deux VLANs soit "taggué". Sur le câble relié à ce port, il circulera donc à la fois
les trames du VLAN bleu et celles du VLAN vert. Il n'y aura pas de problèmes tant qu'à chaque bout du
câble, l'interface Ethernet sera capable de trier les trames en fonction du tag. Ceci impose donc
naturellement que le routeur soit compatible avec la norme 802.1q, c'est-à-dire que son interface soit

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


capable d'exploiter ces tags. Le routeur agit au niveau 3 (IP). Ce qu'il est absolument fondamental de
comprendre, c'est qu'au niveau Ethernet, le LAN bleu ignore complètement l'existence du LAN vert, et
réciproquement. Les trames Ethernet, qu'elles soient de la diffusion ou non, n'iront jamais dans l'autre
LAN. Il y a isolation complète des deux LANs au niveau Ethernet et la présence du routeur n'y change
rien. Les trames Ethernet qui transportent des données depuis le LAN vert dans le LAN bleu ne seront
rien d'autre que des trames Ethernet issues du routeur côté LAN bleu (et réciproquement). Comme dans
un roman de science-fiction de bonne facture, les mondes Ethernet bleu et vert sont des mondes
parallèles, avec de temps en temps, une porte mystérieuse qui s'ouvre pour laisser passer des choses d'un
monde à l'autre, mais en leur faisant perdre la mémoire de leur origine réelle (nous sommes au niveau
2, n'oublions pas).
Il faut monter au niveau de conscience supérieure (niveau IP), pour commencer à démythifier le
fonctionnement de ces portes. Mais à cette hauteur, les détails lointains s'estompent. Ce qu'il y a
exactement dans chaque LAN au niveau Ethernet importe finalement assez peu. A première vue, le
panorama serait plutôt le suivant :

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Parce que, finalement, lors de l'interconnexion de réseaux, peu importe ce qu'il y a dans chaque réseau,
ce sont les routes qui importent le plus. Entendons par là que les équipements utilisés pour construire
chaque LAN, qu'il s'agisse de HUBs ou de SWITCHs ou d'un mélange des deux n'a aucune importance.
2.4 Intervention du virtuel
Jusqu'ici, un SWITCH appartenait à un et un seul LAN. L'idée de base est de pouvoir assigner certains
ports du SWITCH à un LAN, certains autres ports à un autre LAN etc : Sur un même SWITCH physique,
nous allons pouvoir créer plusieurs LANS et assigner certains de ses ports aux divers LANs créés. Ici,
nous avons un LAN bleu et un LAN vert. Laissons pour le moment les ports gris de côté. Tout va
(presque) se passer comme si l'on avait découpé notre SWITCH en deux morceaux (sans pour autant le
détruire). Dans une première approche, notre maquette deviendrait ceci :

Le SWITCH a été virtuellement coupé en deux. Les deux VLANs sont complètement étanches au niveau
Ethernet (Un SWITCH est en principe un outil qui ne va pas au-delà du niveau 2). Pour interconnecter
ces deux LANs, un routeur est toujours nécessaire.
2.5 Utilité
Il y a bien entendu quelques avantages à pratiquer de la sorte.
Nous pouvons au moins en citer deux :
 Optimisation du matériel. En effet, c'est évident sur l'illustration, nous n'avons plus besoin que
d'un seul SWITCH, là où il nous en fallait deux au départ,
 passer un poste de travail d'un LAN à l'autre devrait pouvoir se faire de façon "soft". Plutôt que
de débrancher puis de rebrancher ailleurs le lien du poste, nous pourrons le faire par l'outil de
configuration du SWITCH

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Voilà pour le principe de base. Vous devinez que si je prends la peine de rédiger un chapitre sur les
VLANs, c'est qu'il y a d'autres choses encore derrière ce concept. Jusqu'ici, c'est assez simple. Les choses
vont maintenant se compliquer progressivement pour arriver à des solutions qui peuvent vite devenir un
casse-tête.
2.6 Au niveau 3
Le SWITCH n'a (en principe) rien à faire du niveau 3. Chacun des VLANs se trouvera avec un plan
d'adressage IP qui lui est propre, mais le SWITCH n'est pas concerné, si ce n'est par le fait que pour
l'administrer, il faudra bien y accéder par IP. Pour ce faire, le SWITCH disposera d'une adresse IP sur
au moins l'un des VLANs, et la machine d'administration devra pouvoir accéder à ce VLAN. Il y aura
quelques problèmes de sécurité à envisager à ce niveau, mais nous n'y sommes pas encore. Au niveau
du routeur, en revanche, il faudra que l'interface Ethernet physique puisse presenter autant d'interfaces
virtuelles qu'il y a de VLANs sur le "trunk", chacune avec une adresse IP dans le VLAN concerné.
Attribution d'un port à un VLAN
Il y a plusieurs façons de s'y prendre. Vous trouverez sans doute de nombreuses pages qui parlent de ce
sujet, en vous parlant des VLANs de niveau 1, 2, voire 3. Nous allons essayer de voir ceci de façon plus
pragmatique.
Attribution statique (niveau 1)
C'est la méthode la plus simple et aussi la moins souple, qui consiste, comme nous l'avons sous-entendu
jusqu'ici, à attribuer un port du SWITCH à un VLAN donné, en configurant statiquement le SWITCH.
Nous n'avons besoin de rien d'autre que d'un SWITCH administrable. Attribution dynamique (niveaux
> 1) Ici, nous ferons appel à 802.1x et à un procédé d'authentification. Dans ce qui suit, nous disposerons
d'un SWITCH capable d'envoyer à un serveur d'authentification (typiquement RADIUS) l'adresse MAC
de la station connectée à un port, en guise de "login/password". Si l'adresse MAC est connue
(authentification réussie), le serveur pourra envoyer au SWITCH le numéro de VLAN attaché à la
station. Attention, tous les SWITCHs 802.1q ne savent pas forcément réaliser cette opération. Cette
méthode est plus souple, puisqu'une station donnée pourra se connecter sur n'importe quell port, elle se
retrouvera toujours sur le VLAN qui lui convient. Il est possible d'utiliser cette méthode avec autre chose
que l'adresse MAC (login/password, certificat x509, smartcard...), il faudra alors mettre en œuvre un
"supplicant" sur la station. Nous ne verrons pas cette possibilité dans l'étude du réseau filaire, nous nous
contenterons des adresses MAC.

Dans notre exemple, le SWITCH est configuré pour supporter deux VLANS, respectivement d'ID 1 et
2. Les ports verts appartiennent au VLAN d'ID 1 et les ports bleus au VLAN d'ID 2. Aucun de ces ports
n'a besoin d'être "taggué" puisqu'ils n'appartiennent qu'à un seul VLAN. En revanche, sur les ports qui
vont véhiculer les trames des deux VLANs, au moins l'un des deux devra être "taggué" au passage de
ces ports. Encore une fois, c'est l'interface d'administration du SWITCH qui permettra de réaliser cette
configuration. Disons pour fixer les idées que le VLAN vert, d'ID 1 ne sera pas marqué et que le VLAN
bleu, d'ID 2 le sera, sur les ports du "trunk" VLAN 1 + VLAN 2. Pratiquement, admettons que le VLAN
1 supporte un réseau IP 192.168.10.0/24 et que le VLAN 2 soit adressé en 192.168.11.0/24. Sur le
routeur (une machine Debian Etch), nous devons configurer l'unique interface Ethernet physique de

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


manière à ce qu'elle présente deux interfaces IP, chacune pour un VLAN. Il nous faut d'abord installer
le paquetage "vlan".
2.7 VLANs niveau 2
Le principe des VLANs étant compris, la dernière étape va consister à mettre en œuvre une commutation
automatique des ports du SWITCH sur l'un ou l'autre VLAN, suivant que la machine qui s'y connecte
sera authentifiée ou non. Conformément au cahier des charges, nous utilisons simplement l'adresse MAC
de la machine, ce qui évitera d'avoir à installer sur chaque client un système d'authentification plus
sophistiqué (un certificat, par exemple, comme nous le verrons avec WPA2-TLS). Cette méthode n'est
pas parfaite, loin de là, dans la mesure où une adresse MAC peut être falsifiée, mais elle a le mérite
d'être simple à mettre en oeuvre. Il nous faudra tout de même disposer de SWITCHs capables
d'interroger un serveur RADIUS, en lui envoyant l'adresse MAC du client en guise de nom d'utilisateur
et de mot de passe.
Pour le configurer, plusieurs solutions sont proposées, à commencer par une liaison série RS232 (gardez
au moins un vieux PC), qui est initialement le seul moyen possible pour accéder à la configuration (In
the factory default configuration, the SWITCH has no IP (Internet Protocol) address and subnet mask,
and no passwords. In this state, it can be managed only through a direct console connection).
Par la suite, nous pourrons accéder au SWITCH par le réseau, via telnet, un mini serveur web embarqué
(mais vraiment minimaliste), ou même ssh. En effet les SWITCHs administrables peuvent recevoir une
adresse IP pour accéder à l'administration par le réseau. Sur ce modèle de SWITCH, nous pourrons
même assigner une adresse IP par VLAN, ce qui n'est absolument pas nécessaire, voire dangereux.
Comme notre propos est plutôt de parler des VLANs, nous passerons ces détails sordides.
Nous supposons donc que la configuration de base du SWITCH est faite, et principalement la
configuration IP du DEFAULT_VLAN :
 DEFAULT_VLAN ne peut pas être supprimé et a forcément le VID 1, en revanche, rien
n'interdit de ne lui assigner aucun port,
 PRIMARY_VLAN est nécessaire à certaines fonctions d'administration que nous n'utiliserons
pas forcément ici, comme le pseudo empilage de SWITCHs. Cette fonction de
PRIMARY_VLAN peut être assignée à n'importe quel VLAN existant, pas forcément au
DEFAULT_VLAN, mais il doit exister. Nous laissons la configuration par défaut. Nous n'allons
conserver que quelques ports, dont les deux ports 1GB/s sur DEFAULT_VLAN, laisser
PRIMARY_VLAN dessus, tous les autres ports étant réservés à deux autres VLANs qu'il nous
reste à créer :
 PARADIS_VLAN, de VID 2, qui accueillera le LAN des hôtes connus,
 ENFER_VLAN de VID 3, qui accueillera toutes les machines que l'on ne sait pas identifier.
Nous allons restreindre le DEFAULT_VLAN aux ports 33-50 (sans tag). Ce VLAN nous servira à
administrer le SWITCH, à accueillir les DNS, DHCP, RADIUS et autres services "administratifs". Les
ports 1 à 6 seront assignés au PARADIS_VLAN de façon statique (sans tag). Nous y placerons par la
suite les ressources du réseau à offrir aux stations "connues".
Comme ce SWITCH ne supporte pas d'avoir des ports assignés à aucun VLAN, nous allons mettre les
ports 7 à 32 dans le ENFER_VLAN. Nous reviendrons éventuellement sur ce choix plus tard.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Les ports 49 et 50 seront quant à eux assignés aux trois VLANs. Bien entendu, ici, il faudra utiliser les
tags. L'un des deux ports servira à connecter le routeur et l'autre sera réservé aux extensions futures (un
second SWITCH, par exemple).

2.3.6 Domaine IP Comme dans tout LAN, le réseau IP est homogène et correspond à un adressage
marqué par un préfixe et un masque de réseau. Au sein d'un LAN, toutes les interfaces qui participent à
l'Internet Protocol dans la perspective de communiquer entre des réseaux différents partagent le même
adressage.
2.3.7 Routage inter-VLAN Un routeur constitue la limite d'un VLAN comme celle d'un LAN.
D’ailleurs, on a souvent dans un réseau des ressources communes entre les utilisateurs comme les
imprimantes, les serveurs, l’accès à internet. Donc, pour que des VLANs communiquent ensembles, en
tant que réseaux logiques différents, une fonction de routage est nécessaire. On parle dans la littérature
de routage inter-VLAN. Cette fonction peut être remplie par des plates-formes d'entreprise comme les
routeurs d'accès, des routeurs Linux/BSD ou des commutateurs LAN disposant d'un logiciel de routage.
Les routeurs sont capables de transférer du trafic de VLANs différents à partir d'un seul port physique
reconnu comme port d'agrégation VLAN.

Les figures illustrent le trafic de l’hôte A vers l’hôte H à travers un routeur IPv4 avec deux interfaces
physiques distinctes (à gauche) ou une seule liaison Trunk (à droite). Dans cet exemple, une seule
interface du routeur est nécessaire. Elle sera configuré en mode trunk en créant pour chaque VLAN une
sous-interface logique différente. Evidemment, l’interface physique ne prend pas d’adresse IP.
2.8 Implémentation de la technologie

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


On trouvera différents types d’implémentations, à savoir les VLANs statiques, les VLANS dynamiques.
Usuellement on présente trois méthodes pour créer des VLAN : les vlan par port (niveau 1), les Vlan
par adresses MAC (niveau 2), les Vlan par adresses IP (niveau 3) ainsi que des méthodes dérivées.
2.8.1 Les VLAN par port (Niveau 1)
On affecte chaque port des commutateurs à un VLAN. L’appartenance d’une trame à un VLAN est alors
déterminée par la connexion de la carte réseau à un port du commutateur. Les ports sont donc affectés
statiquement à un VLAN.
 Si on déplace physiquement une station il faut désaffecter son port du Vlan puis affecter le
nouveau port de connexion de la station au bon Vlan.
 Si on déplace logiquement une station (on veut la changer de Vlan) il faut modifier l’affectation
du port au Vlan.
2.8.2 VLAN par adresse MAC (Niveau 2)
On affecte chaque adresse MAC à un VLAN. L’appartenance d’une trame à un VLAN est déterminée
par son adresse MAC. En fait il s’agit, à partir de l’association Mac/VLAN, d‘affecter dynamiquement
les ports des commutateurs à chacun des VLAN en fonction de l’adresse MAC de l’hôte qui émet sur
ce port. L'intérêt principal de ce type de VLAN est l'indépendance vis-à-vis de la localisation
géographique.

 Si une station est déplacée sur le réseau physique, son adresse physique ne changeant pas, elle
continue d’appartenir au même VLAN (ce fonctionnement est bien adapté à l'utilisation de
machines portables).
 Si on veut changer de Vlan il faut modifier l’association Mac / Vlan.
2.8.3 VLAN par adresse IP (Niveau 3)
On affecte une adresse de niveau 3 à un VLAN. L’appartenance d’une trame à un VLAN est alors
déterminée par l’adresse de niveau 3 ou supérieur qu’elle contient (le commutateur doit donc accéder à
ces informations). En fait, il s’agit à partir de l’association adresse niveau 3/VLAN d‘affecter
dynamiquement les ports des commutateurs à chacun des VLAN. Dans ce type de VLAN, les
commutateurs apprennent automatiquement la configuration des VLAN en accédant aux informations
de couche 3. Ceci est un fonctionnement moins rapide que le Vlan de niveau 2. Quand on utilise le
protocole IP on parle souvent de Vlan par sous-réseau. 2.8.4 Autre méthodes pour définir les VLANs
On se trouve dans la littérature des références au Vlan par protocoles, c’est à dire qu’on associe une
trame à un Vlan en fonction du protocole qu’elle transporte. Ce protocole peut être un protocole de
niveau 3 pour isoler les flux IP, IPX, AppleTalk .etc. Mais on peut trouver aussi des Vlan construits à
partir de protocole supérieur (notamment H320). On parle quelquefois de Vlan par règles ou par types
de service. Enfin, l’apparition du « Wifi » pose des problèmes de sécurité que les Vlan peuvent résoudre.
Ainsi une solution basée sur des Vlan par SSID est envisageable. 2.9 Déclaration des Vlan et affectation
des ports à un Vlan Un port sur un commutateur ne peut participer qu’aux Vlan déclarés sur ce
commutateur. La déclaration des Vlan est donc préalable ou conjointe à l’affectation des ports aux Vlan.
La déclaration de Vlan consiste à créer un VID sur un commutateur. Cette création peut être :

 Statique (Static Vlan): un Vlan statique est un Vlan créé manuellement sur le commutateur.
 Dynamique (Dynamic Vlan): un Vlan dynamique est un Vlan dont la création sur le
commutateur résulte d’un échange avec un autre commutateur.
 La création dynamique des Vlan permet de contrôler celle-ci à partir d’un ou plusieurs
commutateurs et d’éviter ainsi les erreurs sur les identifiants (VID) quand un Vlan est réparti
sur plusieurs commutateurs.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


A l’état initial un commutateur comporte un Vlan statique, le Vlan par défaut et tous les ports sont
affectés à ce Vlan.
 La création statique des Vlan et l’affectation statique des ports se fait via les commandes
d’administration du commutateur.
 La création dynamique des Vlan et l’affectation dynamique des ports se fait via le protocole
GVRP qui doit être activé sur le commutateur. Sur les commutateurs Cisco, on utilise Dynamic
Trunking Protocol (DTP, protocole point à point propriétaire Cisco). Sur un commutateur Cisco,
on distinguera les ports dits « access » des ports dits « trunk ». Ce n’est pas le cas chez les autres
constructeurs.

2.9.1 Mode des ports «Access »


Un port « access » est un port qui ne transportera des informations que d’un seul Vlan. A priori, ce type
de port connectera une station. Il n’ajoute pas d’étiquette au trafic parce qu’il est destiné à une station
de travail.
2.9.2 Mode des ports « Trunk »
Un port « trunk » est un port qui transportera des informations de tous les Vlans. On y connectera un
autre commutateur, un routeur ou même la carte réseau 802.1q d’un serveur. Il ajoute des étiquettes au
trafic puisqu’il est destiné à un autre commutateur.
2.10 Types de VLANs (Cisco)
2.10.1 VLAN par défaut
Le VLAN 1 est un vlan spécial. Il est le Vlan par défaut de tous les ports, y compris l’interface de gestion
(SVI). En plus, une série de protocoles de couche 2 comme CDP (Cisco Discovery Protocol), VTP
(VLAN Trunking Protocol), PAgP (Port Aggregation Protocol) et DTP doivent impérativement transiter
à travers ce VLAN spécifique. Pour ces deux raisons le VLAN 1 ne peut jamais être supprimé, il existe
d’office. Le VLAN par défaut est le VLAN auquel sont, par défaut, associées les trames et les ports s'il
n’y a pas de configuration spécifique sur le matériel, lorsque la mise en œuvre des VLAN est réalisée.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Généralement le VLAN par défaut est le VLAN 1. Lors de la mise en œuvre des VLAN sur un matériel
au moins un VLAN doit être définit, d'où la nécessité du VLAN par défaut.
2.10.2 VLAN Utilisateur
On dira que ce type de Vlan est un vlan « normal » dans le sens où il est celui qui a été configuré pour
rendre une segmentation logique du commutateur dans le cadre de l’utilité des Vlan, La
numérotation des Vlan est disponible sur 12 bits. Ceci dit, chaque modèle de switch aura ses limites en
nombre total à créer et à gérer. Un VLAN de données (peut être nommé en tant que VLAN utilisateur)
est configuré pour ne transporter que le trafic généré par l’utilisateur .L’importance de la séparation des
données utilisateur à partir de tout autre type de VLAN est la gestion du commutateur et un contrôle
adéquats.
2.6.1.3 Vlan de gestion (Vlan Managent)
Le Vlan de gestion est un Vlan spécifique attribué aux commutateurs pour qu’ils soient accessibles via
une adresse IP (ICMP, Telnet, SNMP, HTTP). Qu’il existe ou non une interface physique appartenant
au Vlan de gestion désigné, on joindra le commutateur en IP via une interface virtuelle (SVI) de type
VLAN x. Le VLAN de management utilisé par les matériels réseaux pour échanger leurs trames de
contrôle et de management (OSPF, RIP, Spanning-Tree, VTP). C'est aussi le VLAN par lequel les
administrateurs peuvent se connecter sur les équipements afin de les administrer. Généralement le
VLAN de management par défaut est le VLAN 1 donc le " VLAN par défaut". Il est fortement conseillé
de le modifier car les Hackers voulant accéder ou porter atteinte aux matériels réseaux tenteront dans un
premier temps des attaques sur ce VLAN.
2.6.1.4 VLAN natif
La notion de Vlan natif n’intervient que lorsque l’on configure un port trunk. Quand un port est configuré
en tant que tel, le commutateur étiquette la trame avec le numéro de Vlan approprié. Toutes les trames
passant par un port trunk sont ainsi étiquetées sauf les trames appartenant au Vlan natif. Donc, les trames
du Vlan natif, par défaut le Vlan 1, ne sont pas étiquetées. Ce type de Vlan existe pour assurer une
interopérabilité avec du trafic ne supportant pas l’étiquetage (tagging). Aussi, les protocoles de contrôles
tels que CDP, VTP, PAgP et DTP sont toujours transmis par le Vlan natif. Si on change l’identifiant du
Vlan natif, il faut le faire sur toutes les liaisons trunk, voire sur toute la topologie. La notion de VLAN
natif entre en compte dans le cas d'association de VLAN par port. Cela correspond au PVID(Port Vlan
identifier) sur port trunk. Ainsi lorsqu'un trame non taggué arrive sur un port trunk, elle sera associé à
un VLAN en fonction du PVID du port. On dit alors que la trame est associé au VLAN natif du port. En
résumé, le VLAN natif observe et identifie le trafic provenant de chaque extrémité de ‘ lien trunk.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


2.6.1.5 VLAN Voice
Pour assurer une qualité de service (QoS) des communications vocales, le Vlan Voice se configure sur
un port Access et crée une sorte de mini-trunk vers un téléphone IP.
2.11 Dynamic Trunking Protocol (DTP)
Dynamic Trunking Protocol (DTP) est un protocole réseau propriétaire de Cisco Systems, permettant
de gérer dynamiquement l’activation/désactivation du mode trunk d’un port sur un commutateur. Il gère
la négociation trunk seulement si le port de l’autre commutateur est configuré dans un mode trunk
supporté par DTP.
2.11.1 DTP mode « on » et « dynamic auto »
Par défaut, tous les ports du commutateur sont configurés en « switchport mode dynamic auto »; le
commutateur local l’annonce qu’il est capable de se monter en trunk mais ne demande pas à son
correspondant de passer en mode trunk. Après la négociation DTP, le port local termine en mode trunk

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


uniquement si le port correspondant est « on » (trunk) ou « désirable ». Si le port correspondant est en
« auto » ou « access », la négociation locale aboutit en switchport mode « access ».
Si le port du commutateur est configuré en switchport mode trunk, le port envoie régulièrement des
messages DTP selon lesquels il est inconditionnellement en mode trunk.
2.11.2 DTP (Dynamic Trunk Protocol) mode « auto desirable » et « nonegociate »
est un protocole réseau propriétaire de Cisco Systems, permettant de gérer dynamiquement
l'activation/désactivation du mode trunk d'un port sur un commutateur réseau.
Si le commutateur est configuré en switchport dynamic desirable :
 Le commutateur local annonce qu’il est capable de monter en trunk et demande à son
correspondant de passer en mode trunk.
 Après la négociation DTP, le port local termine en mode trunk si le port correspondant est en «
on » (trunk) ou « désirable » ou « auto ».
 Si le port correspondant est en « access », la négociation aboutit local en mode « access ».
 Si le port distant est en « non-negociate », le port local reste en mode « access ».
Si le commutateur est en switchport mode trunk nonegociate : le port local reste inconditionnellement
en mode trunk. Il n’ya aucune négociation. On utilise cette commande pour intégrer au trunking des
commutateurs d’autres constructeurs.

2.12 VLAN Trunking Protocol (VTP) VTP (ou comment se simplifier la vie avec les VLAN)

2.12.1 Description
VTP est un protocole propriétaire Cisco servant à maintenir la base de données de Vlan sur plusieurs
commutateurs. Il permet d'ajouter, renommer ou supprimer un ou plusieurs réseaux locaux virtuels sur
un seul commutateur (le serveur) qui propagera cette nouvelle configuration à l'ensemble des autres
commutateurs du réseau (clients). VTP permet ainsi d'éviter toute incohérence de configuration des
VLAN sur l'ensemble d'un réseau local.

A quoi sert ce protocole? Imaginons que vous devez configurer plusieurs VLANs dans votre réseau:

 Créer 3 VLANs sur un switch est une opération de configuration rapide


 Créer 5 VLANs sur 4 switchs devient une opération de configuration plus longue
 Créer 70 VLANs sur 100 switchs est alors une opération de configuration fastidieuse avec
une probabilité d’erreur/oubli très élevée!
Et c’est là que le VTP prend toute son importance. Il sert à la propagation de
création/suppression/modification de VLAN sur tous les switchs de votre réseau à partir d’un seul
switch.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Propriétés

C’est un protocole propriétaire Cisco de niveau 2. De part sa simplicité et sa puissance, l’IEEE


a sorti un protocole similaire afin de permettre cette fonctionnalité entre switchs de
constructeurs différents: GVRP (GARP VLAN Registration Protocol). La norme est
IEEE 802.1ak
Fonctionnement
Les messages VTP diffuse des annonces de création, de suppression ou de modification de
VLAN. Cette diffusion s’effectue à travers tous les switchs grâce à une trame niveau 2 avec
une adresse de destination MAC multicast bien particulière qui est 01-00-0C-CC-CC-CC.
Architecture du VTP
Le switch possède 3 modes VTP: client, transparent ou server (acitf par défaut):
VTP Server: switch qui crée les annonces VTP
VTP Client: switch qui reçoit, se synchronise et propage les annonces VTP
VTP Transparent: switch qui ne traite pas les annonces VTP
Switch en mode VTP Server
Le switch en mode Server permet à l’administrateur de faire toute modification sur les VLANs
et de propager automatiquement ses modifications vers tous les switchs du réseau.

Switch en mode VTP Client

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Le switch en mode Client ne permet pas à l’administrateur de faire des modifications sur les

VLANs. Vous recevez un message d’erreur quand vous essayez de créer un VLAN.

Switch en mode VTP Transparent

Le switch en mode Transparent permet à l’administrateur de faire toute modification sur les
VLANs en local uniquement et donc ne propage pas ses modifications vers tous les switchs
du réseau. Très pratique pour des maquettes!

2.12.2 Domaine et rôles

Deux éléments sont nécessaires au bon fonctionnement de VTP :


 Définir un nom de domaine VTP (appelé aussi domaine de gestion) : Seuls les commutateurs
appartenant à un même domaine participent à cette gestion.
 Définir pour chaque commutateur un rôle : Soit « client », soit « transparent », soit, pour un seul
d’entre eux, « server ». Il ne peut y avoir qu’un seul « server » dans un domaine VTP.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Chaque opération à partir du serveur VTP sera répercutée sur les clients VTP. Le mode « transparent »
laissera le commutateur indifférent à toutes ces opérations. Ce dernier assure la connectivité VTP du
serveur vers les clients.

2.12.3 Messages VTP et numéros de revision


Les messages VTP sont appelés « VTP Advertisements ». Ceux-ci sont identifiés par numéro de révision
de configuration. Le numéro de révision le plus élevé sera celui qui modifiera la base de donnée VLAN.
Ce mécanisme maintient les informations VTP à jour dans un domaine.

Synchronisation

A chaque création/suppression/modification de VLAN, une variable appelée RN – Revision


Number – s’incrémente (initialement 0 puis 1 puis 2 puis 3…). A chaque
création/suppression/modification de VLAN, le switch Server envoi un message VTP avec la
nouvelle valeur du RN. Les autres switchs compare le RN reçu du switch Server avec le RN
qu’ils stocke en local, si ce dernier est plus petit (logiquement) alors les switchs se
synchronisent avec le Server et récupère la nouvelle base de données des VLANs. Par défaut,
le RN est envoyé automatiquement dès une création/suppression/modification de VLAN puis
envoyé toutes les 5 minutes.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


VTP Pruning : Cette commande optionnelle permet de faire des économies de bande

passante.
Explication: imaginons qu’un switch reçoit les VLANs 1 et 2 mais qu’aucunes de ses interfaces
appartiennent au VLAN 2. Lorsque le switch voisin lui enverra des trames du VLAN 2, ce
switch les supprimera car aucune de ses interfaces appartiennent à ce VLAN. Il est donc inutile
que le switch voisin lui envoi du trafic pour le VLAN 2.

On active alors la fonction VTP pruning pour avertir le switch voisin de ne pas lui envoyer de trafic
pour ce VLAN. La fonction s’active à partir du switch Server.

Important: si un switch client possède un RN plus élevé que le switch Server (imaginons qu’il était
dans un autre réseau puis branché au notre), contrairement à ce qu’on peut penser, le client ne va pas
récupérer la base de données de VLAN du Server mais l’inverse!

Pourquoi? Parce que quelque soit le mode du switch, Server ou Client, il se synchronise toujours sur
celui qui a le RN le plus élevé. Dans notre cas, c’est le Server qui va se synchroniser et récupérer la base
de données de VLAN du Client. Il est donc très important de remettre le RN à zéro. Pour cela, effectuer
un simple basculement en mode Transparent puis en mode Client (exemple plus bas).

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Remarques importantes

 Les messages VTP se propagent sur les liens configurés en Trunk (norme 802.1Q)
et pas en Access
 VTP ne gère que la plage de VLAN comprise entre 1 et 1005. La plage étendue 1006
à 4096 n’est pas supportée. Pour cela, il faut basculer en mode Transparent sur tous
les switchs et créer ses VLANS étendus à la mano
 Il existe 3 versions de VTP, bien vérifier qu’une et une seule version est active sur
son réseau pour éviter les surprises (v1 et v2 incompatibles entre elles)
 La configuration VTP n’est pas visualisable dans la running-config mais est stockée
dans le fichier vlan.dat situé dans la flash (faites un show flash: pour voir le fichier).

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022
On remarque que tous les compteurs sont à 0, ce qui est logique car pour le moment, je n’ai pas encore
créer/supprimer/modifier des VLANs. On revérifiera ces compteurs un peu plus tard.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Explication de chaque ligne:

 VTP Version: affiche quelle est la version maximum supportée par le switch (ici le switch
supporte les versions 1 et 2). Attention, ce n’est pas forcément celle active!
 Configuration Revision: en mode server, elle débute à 1. En mode transparent, elle ne sert
pas et donc mise à 0.
 Maximum VLANs supported locally: nombre maximum de VLAN que le switch supporte.
Dépend du type de switch (ici un 2960)
 Number of existing VLANs: nombre de VLANs présents dans le switch (par défaut, les
VLANs 1, 1002 à 1005 sont présents donc = 5)
 VTP Operating Mode: Server, Client ou Transparent
 VTP Domain Name: nom de votre “groupe” d’amis
 VTP Pruning Mode: activation/désactivation de la fontion de pruning
 VTP V2 Mode: c’est ici qu’on peut vérifier si la version 2 est bien activée (ou la version 3
si le switch la supporte)
 VTP Traps Generation: permet d’envoyer des traps SNMP vers un serveur pour prévenir
les administrateurs lorsqu’il y a un changement au niveau VTP (par exemple lors de la
création d’un VLAN)
 MD5 digest: affiche le hash du mot de passe précédent (cisco123 dans notre exemple)
 Configuration last modified by: affiche quel est le dernier switch qui a fait une
modification de VLANs (on peut avoir plusieurs switch Server dans un réseau)

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022
Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022
Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022
Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022
2.12.4 Configuration
On configure les VTP dans l’interface de commande en mode « config ».
 Configurer le rôle VTP du commutateur : (config)#vtp mode [server | client | transparent]
 Définir le Domaine VTP : (config)#vtp domain [nom du domain]
 Définir un mot de passe (identique sur tous les commutateurs du domaine) :
- (config)#vtp password [le mot de passe]
- Pour la vérification de VTP : #show vtp status
Les commandes de configuration du protocole VTP
Le truncking sert dans l'extension d'un domaine VLAN sur d'autres switch. Pour ce faire CISCO utilise
le protocole VTP (VLAN Trunking Protocol). Un lien qui relie deux interfaces configurées en mode
Trunk permet d’étendre les VLANs entre deux switchs (transporte le trafic de plusieurs VLANs) et aussi
permet de transporter les messages VTP véhiculés automatiquement entre les switchs pour signaler la
mise à jour de la liste des VLANs.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


2.13

Affichage de la configuration VTP


RI_Switch#show vtp status

Configuration des VLAN


2.13.1 Création de VLAN

Par exemple, sur un commutateur nommé Switch, on veut créer le Vlan 10 nommé « Professeur ». La
configuration sur un commutateur est :
Switch#vlan database
Switch(vlan)#vlan 10 name Professeur
Switch#show vlan (pour afficher les Vlan) Pour supprimer un Vlan (exemple vlan 10), la commande
est: Switch(vlan)#no vlan 10

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


2.13.2 Interface VLAN x de gestion
L’interface Vlan x de gestion correspond aux interfaces physique appartenant à ce Vlan (le numéro 10
dans l’exemple) pour le joindre en IPv4 à des fins de gestion (en Telnet, SSH, http ou SNMP). Comme
tout périphérique joignable sur le réseau, le commutateur doit posséder une adresse IPv4, un masque et
une passerelle. On introduit la commande en mode configuration :
Switch(config)#interface vlan 10 (création de l’interface)
Switch(config-if)#name gestion (l’attribution de nom est facultatif)
Switch(config-if)#ip address 192.168.10.1 255.255.255.0 (attribution d’adresse et masque)
Switch(config-if)#no shutdown (pour activer l’interface) Switch(config-if)#exit (pour sortir de la
configuration d’inteface) Switch#show interface vlan 10 (verification)

2.13.3 Configuration port « Access »

Sous Cisco un port Access est un port qui appartient à un seul Vlan. Dans l’exemple qui suit, on va
configurer les ports fa0/1 à fa0/20 en mode access et les attribuer au vlan 10. La commande peut se faire
un à un ou en même temps : Switch(config)#interface fa0/1 (pour configurer seulement le port fa0/1)
Switch(config)#interface range fa0/1-20 (configuration de plusieurs ports en même temps)
Switch(config-if)#switchport mode access Switch(config-if)#switchport access vlan 10

2.13.4 Configuration port « Trunk »


Un port trunk est un port connecté à un autre commutateur et transporte le trafic appartenant à plusieurs
Vlans. Par exemple nous allons mettre le port GigabitEthernet0/1 (gig0/1) en mode trunk :
Switch(config)#interface gig0/1
Switch(config-if)#switchport mode trunk
Switch(config-if)#exit
Switch#show interface gig0/1 switchport (vérification)
Certain modèle de commutateur Cisco nécessite le paramétrage d’encapsulation pour que le port puisse
travailler en mode trunk :
Switch(config-if)#switchport trunk encapsulation dot1q
Switch(config-if)#switchport mode trunk
D'un point de vue technique, la technologie VLAN permet de déployer des architectures plus souples,
fournissant plus de services qu'un LAN classique en combinaison à d'autres protocoles et technologies.
En effet, cette technologie a le potentiel pour répondre au besoin de mouvement en interne des
entreprises. Ainsi, une entreprise peut réorganiser l’ensemble de ces services ou de ces groupes de travail
sans que l’administrateur réseau ne soit à passer de longues heures à reconfigurer l’ensemble des
machines du parc. Les VLANs apportent donc une très grande flexibilité dans la gestion du réseau.

II.2 STP (norme IEEE 802.1D. STP couche 2) ET RAPID SPANNING TREE PROTOCOL (RSTP
norme 802.1w) ET AGREGATION
II.2.1 Introduction
Dans les réseaux Ethernet, un seul chemin actif peut exister entre deux stations. Plusieurs chemins actifs
entre des stations causent inévitablement des boucles dans le réseau. Lorsque les boucles surviennent,
certains commutateurs reconnaissent une même station sur plusieurs ports. Cette situation entraîne des
erreurs au niveau de l’algorithme d’expédition. Le but premier des protocoles Spanning Tree est donc
d’éviter ces boucles de routage dans les réseaux pontés et par extension dans les VLANs, tout en
fournissant des chemins redondants en cas de coupure. Ces protocoles permettent donc d’augmenter la
tolérance de panne en cas de rupture de lien ou de défaillance de pont.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Cette étude porte sur le protocole 802.1w. C'est à dire « La convergence rapide de Spaning Tree (RSTP)
». Pour ce faire, nous allons, en premier lieu, refaire un point sur le protocole Spaning Tree (STP) et
tous les termes associés. Puis, dans un second temps, nous allons voir le Rapid Spaning Tree et en faire
une comparaison avec son prédécesseur.
Remarque : le temps de « reconvergence » dure entre 30 et 50 secondes. Il existe une version plus rapide
du protocole STP (PVST sous CISCO) : le RSTP (rapid-PVST sous CISCO), qui permet une
reconvergence en 6s. Pour cet exolab, l’utilisation du protocole STP de base (PVST activé par défaut
sur les commutateurs CISCO) est volontaire afin de mieux observer son fonctionnement. En production,
la version la plus performante de ce protocole doit être privilégiée. Sur les équipements CISCO,
l’activation du protocole rapid-PVST se fait à partir de la commande : spanning-tree mode rapid-pvst.
II.2.2 Généralités et norme 802.1d (STP)
Le protocole Spanning Tree (STP) est un protocole de couche 2 (liaison de données) conçu pour les
commutateurs. Le standard STP est défini dans le document IEEE 802.1D-2004. Il permet de créer un
chemin sans boucle dans un environnement commuté et physiquement redondant. Il offre en effet la
redondance requise pour assurer la fiabilité du réseau. STP détecte et désactive ces boucles et fournit un
mécanisme de liens de sauvegarde.
II.2.2.1 Problématiques
II.2.2.1.1 Tempête de Broadcast
Lorsque des trames de diffusion ou de multicast sont envoyées (FF-FF-FF-FF-FF-FF en destination),
les commutateurs les renvoient par tous les ports. Les trames circulent en boucles et sont multipliées.
Les trames n'ayant pas de durée de vie (TTL comme les paquets IP) peuvent tourner indéfiniment.

II.2.2.1.2 Instabilité d’adress MAC


Quand une trame même unicast, parvient aux commutateurs connectés en redondance, le port du
commutateur associé à l’origine risque d’être erroné. Une boucle est susceptible d’être créée.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Dans cet exemple, le PC1 envoie une trame au PC2. Les deux commutateurs reçoivent la trame sur leur
port 0/2 et associe ce port à l’adresse MAC de PC1. Si l’adresse du PC2 est inconnue, les deux
commutateurs transfèrent la trame à travers leur port 0/1. Les commutateurs reçoivent respectivement
ces trames et inversement et associent l’adresse MAC de PC1 au port 0/1. Ce processus peut se répéter
indéfiniment. Cette boucle de commutation va créer une tempête de trame non seulement de messages
unicast, mais aussi de messages multicast et de diffusion.
Problème d’une boucle physique sans spanning tree

Supposons qu’une machine A veut envoyer via un switch une trame vers une machine D alors que la
machine D n’est pas connectée à l’un de ce trois switch. Chaque switch va consulter sa table de
commutation, puisque les switch ne connaissent pas ou se trouve la machine D, chaque switch va
diffuser la trame sur tous les ports du switch à l’exception du port par lequel la trame a été reçue.
Table de commutation :

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


La boucle physique que l’on a créée va engendrer une boucle de commutation. Pour éviter cette boucle
de commutation on a inventé un protocole appelé Spaning Tree qui est un algorithme qui sera exécuté
par tous le switch pour déterminer les cascades qui seront fonctionnelles et celles qui seront en Veil en
attendant qu’une cascade fonctionnelle ait un problème.

Principe du spaning tree


Construire un arbre : sur un arbre il n’y a pas des boucles entre deux branches, pour passer d’une branche
à une autre, on passera toujours par le tronc ou par la racine.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Ligne de redondance

Cette ligne de redondance provoque le problème de boucle de commutation.


Nous préférons que, lorsque deux cascades sont en bon état, la troisième soit désactivée :

Cascade activée
Cascade activée

Cascade désactivée
Automatiquement, et
qui peut être réactivée
automatiquement si
l’une de deux cascades
actives tombait en
panne

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Comme un arbre, on veut que pour passer d’un switch à un autre on va passer toujours par la
racine appelée ROOT afin d’éliminer les boucles de commutation causées par la boucle
physique:

Comment alors trouver la racine ?

Légende :

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


 B : Port bloqué (Blocking)
 F : Port fonctionnel (forwarding)
Donc le Spaning Tree va déterminer le port bloqué, le Port fonctionnel et le Switch Root.

Algorithme de spaning Tree :

Cet algorithme passe par 4 étapes :


 Première étape : Déterminer le Switch Root( Switch Racine)
Pour cela tous les switch du réseau vont passer aux élections pour élire les switch Root :
Comme pendant la période électorale traditionnelle chaque candidat prétend être le meilleur
candidat, de même chaque switch va prétendre qu’il est le Switch Root et va annoncer son
Identité à tous les autres Switch Voisins par un message appelé BPDU (Bridge Protocol Data
Unit).
Le switch ne connait pas ses switch voisins, car sur un port d’un switch, il se peut que ce soit
un switch qui est connecté ou c’est un Pc qui y est connecté. Par conséquent le Switch va
envoyer le message BPDU sur tous ses ports. Si c’est une machine classique (ordinateur) qui
est connectée à ce port, elle va ignorer ce message, mais si c’est un Switch qui est connecté à
ce port ce dernier va traiter ce BPDU.

Qu’est-ce l’identité d’un Switch ?


L’identité d’un Switch est constituée de deux valeurs :
 la priorité qui est une valeur que l’on peut changer manuellement et est définie par défaut
à 32768 et
 l’adresse Mac du Switch qui est unique au monde

Comment comparer deux identités ?

C’est-à-dire si l’identité du Switch A est plus petite par rapport à l’identité du Switch B
l’identité du Switch A est la meilleure.
Par conséquent le Switch qui a l’identité la plus inferieure devient le Switch Root (Racine).

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Valeur de priorité du Switch changée
par l’administrateur réseau pour des
Exemple 1 : raisons administratives (identité
numérique du Switch) Le Switch A
est ROOT vue sa valeur P

ROOT

Valeur de priorité du
Switch par défaut (identité
numérique du Switch)

Légende :
 P= Priorité
 M=Mac address
Commencer par comparer les valeurs de priorité de tous les Switchs, la valeur la plus petite est
la meilleure. Si tous les P sont identiques, alors comparer les adresses Mac de tous les Switchs.
L’adresse Mac la plus petite est la meilleure.
Exemple 2 :

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Ici tous les P sont identiques, comparons les M pour déterminer le Switch ROOT l’adresse Mac
du Switch C est plus petites que toutes les autres, donc 04-11-11-11-11-22. Le switch C est
ROOT vue sa valeur M.

Exemple d’un BPDU capturé sur l’interface du Switch 2

BPDU

Identificateur de Root(racine)

Légende :
 R= Switch
Le switch R2 annonce au switch R3 qu’il connait une ROOT R1 ayant une meilleure identité.
R1 envoi le BPDU à R2 et R2 envoi le BPDU à R3.
Le Champ cost(coût) indique à R2 que pour qu’il arrive à R1 ça va lui couter 19, qui est relatif
au débit de la cascade entre R1 et R2. Donc chaque débit, ou vitesse a un coût.

II.2.2.1.3 Configuration de la priorité


Pour spécifier le pont racine, la priorité du BID du commutateur désigné est configurée sur la valeur la
plus petite qui soit. La commande de priorité de pont est utilisée pour configurer la priorité de pont. La
plage de priorité s’étend de 0 à 65 535, par incréments de 4 096. La valeur par défaut est 32 768. La
configuration peut se faire de la manière suivante :

 Pour définir la priorité : Switch(config)#bridge priority 4096


 Pour restaurer la priorité par défaut : Switch(config)#no bridge priority
En spaning tree le mot Bridge signifie Switch.
II.2.2.2 Choix du meilleur chemin
Cette étape consiste à sélectionner le meilleur chemin depuis les switchs vers le Root Bridge. Chaque
liaison à un "coût", le coût le plus faible l'emporte. Ce coût est calculé inversement à sa qualité (selon la
vitesse du lien) :

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


En cas d'égalité parfaite (coût, puis adresse MAC), c'est le numéro de port le plus faible qui détermine
le "gagnant". Le coût peut être modifié :
 S'il s'agit d'un port configuré en mode Access (qui connecte un périphérique terminal), la
commande de configuration est : Switch(config-if)#spanning-tree cost [coût]
 S'il s'agit d'un port en mode Trunk (qui connecte un autre commutateur pour transporter du trafic
de plusieurs VLANs), la commande de configuration est : Switch(config-if)#spanning-tree vlan
[vlan-id] cost [coût]
 Deuxième étape : déterminer le RooPort (Port Racine) sur les autres Switchs

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Exemple1 :
Déterminer le route- port sur la topologie suivante :

Sur cette topologie nous constatons deux chemins pour arriver à la racine :
De B vers A ou
De B vers C puis vers A
De B vers A directement va couter 19 car 100 Mb/s valent 19.
De B vers C puis vers A va couter 38 c’est-à-dire de B vers C=19 et de C vers A=19
Comme conclusion le port 3 du switch B et le port 4 du switch C sont des root-port(RP)

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Exemple 2 : déterminer le rootport sur le switch B et le switch C sur la topologie suivante :

RP
RP

Sur cette topologie nous constatons deux chemins pour arriver à la racine :
De B vers A ou
De B vers C puis vers A
De B vers A directement va couter 19 car 100 Mb/s valent 19.
De B vers C puis vers A va couter 8, c’est-à-dire de B vers C=4 de C vers A=4
Comme conclusion le port 4 du switch B et le port 4 du switch C sont des Root-port(RP).

Exemple 3 : soit la topologie suivante, déterminer le RootPort sur le switch B et C.

RP

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Sur cette topologie nous constatons deux chemins pour arriver à la racine :
De B vers A ou
De B vers C puis vers A
De B vers A directement va couter 4 car 1 Gb/s vaut 4.
De B vers C puis vers A va couter 4, c’est-à-dire de B vers C=2 de C vers A=2
Comme conclusion le port 3 du switch B et le port 4 du switch C sont des Root-port(RP).

Lorsque le coût est identique entre les deux chemins menant vers le Suitch-Root, il faut se baser
sur les identités des tous les switchs pour identifier l’identité du switch la plus petite, puis les
ports adjacents du switch-Root seront considérés comme RootPort.

Exemple 4 : soit la topologie suivante, identifier le RootPort:

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Port du switch distant

Identifie le port distant

Ici aussi nous avons deux chemins vers la racine :


De B vers A en passant sur le port 3 du switch B, de B vers A en passant par le port 2 du switch
B. ces deux chemins ont les mêmes coûts 19 et 19.
Le nouveau critère que nous allons utiliser c’est l’identificateur du port (N° de port), il n’est
pas ici question du port local de B mais le port distant à partir duquel le BPDU a été envoyé,
c’est-à-dire le port N°3 du switch A. le port qui est adjacent du port le plus petit du switch A
est considéré comme le RootPort. Pour notre cas c’est le port N°3 du switch B. Car sur le switch
A il y a le port 3 et 4. 3 est plus petit par rapport à 4, le port 3 du switch A est adjacent au port
3 du switch B.
Règle à retenir:
a. tous les rooTport sont en mode forwarding, c’est-à-dire fonctionnels, donc ne seront pas
bloqués car ils ont les meilleurs chemins vers la racine.
Appliquons cette règle sur cette topologie :

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


La topologie ci-haut devient ci-dessous :

Troisième étape : déterminer les DesignatedPort sur chaque segment. Les segments sont les
cascades, les liens entre les switchs.
Exemple des segments Rappel :

Sur cette topologie nous avons trois segments ou cascades ou domaines de collision. Le segment
correspond au domaine de collision.
Switch
Hub
cth
Domaine de collision

Hub

Un domaine de collision

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Dans chaque segment, il y a un seul Designated Port
Le designated Port est celui qui offre le moindre coût vers la racine.
Exemple 1 : lesquels de ces deux switchs A et B a un port ayant un coût meilleur pour arriver
à la racine ?
Switch A

Switch B Switch C

C’est le switch Root qui a le coût faible, car le port 3 du switch A pour arriver à la racine coûte
0, il est déjà sur la racine. Pour trouver le Designated port on se place sur un segment entre
deux switch.
Exemple 2 : lesquels de ces deux switchs B et C a un port ayant un coût meilleur pour arriver

Switch A

Switch B
Switch C

à la racine ?

C’est le port 3 du switch C qui est le DisignatedPort (DP), car les coûts étant les pour arriver
à la racine il faut se focaliser sur les identités de deux switch qui ont créé le segment.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Exemple 2 : lesquels de ces deux switchs C et A a un port ayant un coût meilleur pour arriver
à la racine ?
Switch A

Switch B
Switch C

C’est le port 4 du switch A.

On peut conclure que tous les ports du switch racine sont des designated Port, puisqu’ils ont
un coût 0 pour arriver à la racine.
b. tous les ports du Root sont des designatedPort.
c. Tous les designatedPorts sont en mode Forwarding(fonctionnel)
Application de cette règle :

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Quatrième étape : Bloquer les autres ports de cascade
Le port 4 du switch B sera bloqué donc :

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Tous ces processus se passent automatiquement au niveau du switch. Mais on a besoin de savoir
ce fonctionnement pour des raisons administratives afin de prendre certaines decisions dans le
but de changer la ROOT en modifiant la valeur de la priorité.

Conclusion

Par élection

Sur les autres switch qui ne sont


pas le switch Root

Sur chaque cascade

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


TD1 : on vous donne la topologie suivante, et on vous demande d’exécuter le protocole
spanning tree, c’est-à-dire trouver le root, le port , rootport, designatedport et les ports blqués.

Etape 1 : Déterminer le SwitchRoot, c’est-à-dire trouver le switch ayant l’identificateur le plus


faible, le plus petit identificateur. L’identificateur d’un switch est composé de la priorité et de
l’adresse Mac.

Etape 2. Sur les autres switchs trouver le rootPort, c’est-à-dire le port ayant le plus petit coût
vers le SwitchRoot. Le coût d’une liaison dépend du débit du port

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Coût = 4

Coût = 19

Donc pour le switch à droite ci-dessous, c’est le port 3/1 qui est le PootPort car ayant le coût
le plus fable vers la racine

Donc pour ce switch le


RP Rooteport est 3/1

Pour le switch du milieu ci-dessous, c’est le port 3/6 qui est le RootPort car ayant le coût le
plus fable vers la racine.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


RP

Pour le switch de gauche ci-dessous, c’est le port 1/3 qui est le RootPort car ayant le coût le
plus fable vers la racine et le N° du port adjacent, donc en face est plus petit par rapport au
port adjacent du port 1/1.
Comme résultat :

Etape 3 : Trouver les designatedPort sur chaque segment, chaque cascade, sur chaque
domaine de collision. Nous savons maintenant que tous les ports du Root sont des
designatedPort. Donc les ports 5/2, 3/5 et 3/9 sont des designatedPrt.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Comme résultat :

Entre le port du switch du milieu et le port du switch à droite lequel sera le designatedPort ?
C’est le port 4/2, car non seulement le débit de la cascade du switch à droite est plus petit pour
arriver à la racine mais aussi l’identifiant du switch à droite est plus petit par rapport à
l’identifiant du switch du milieu.
Comme résultat :

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


On va s’intéresser maintenant sur les deux liens qui relient le switch à gauche et le switch du
milieu :
Comme résultat :

Etape 4 : bloquer tous les autres Ports de cascade restants :


Comme résultat :

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Voici en fin la topologie fonctionnelle finale :

TD N°2 : on vous donne la topologie suivante, et on vous demande d’exécuter le protocole


spanning tree, c’est-à-dire trouver le root, le port , rootport, designatedport et les ports
bloqués.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Etape 1 : déterminer le switch Root
Résultat :

Etape 2 : déterminer les RootPort sur les autres switchs


Résultat pour le switch à droite :

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Résultat pour le switch du centre

résultat pour le switch à gauche :

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Résultat pour le switch en bas :

Etape 3 : déterminer les designatedPort sur chaque segment.


Résultat pour le Root : tous les ports du Root sont des designatedPort

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Résultat sur une autre cascade :

Résultat sur les deux liens du milieu :

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Résultat sur une autre cascade :

Résultat sur une autre cascade :

On constate que chaque fois sur une cascade il y a un root port, le port apposé est
designatedPort.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Etape 4 : bloquer les autres ports de cascade.
Résultat :

Résultat final de la topologie

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


II.2 RAPID SPANNING TREE PROTOCOL ET AGREGATION
Activation du protocole Rapid Spanning Tree globalement

Activez le protocole RSTP globalement sur tous les ponts participants ; il n’est pas activé par
défaut.
Lorsque vous activez le protocole RSTP, l’ensemble des interfaces physiques et de canal de
port qui sont activées et en mode Couche 2 font automatiquement partie de la topologie du
RSTP.
 Seul un seul chemin depuis un pont vers un autre pont est activé.
 Les ponts bloquent tout chemin redondant en désactivant l’un des ports de liaison.
Pour activer le protocole RSTP globalement pour toutes les interfaces en Couche 2, utilisez
les commandes suivantes.
Exemple de la ligne de commande sur vla topologie complexe

Sw(config)#spanning-tree mode rapid-pvst

Cette commande est à configurer sur tous les switch de notre topologie complexe pour activer
le mode rapide de spanning.
SW B
SW A

Port bloqué

SW C SW D
SW E SW F

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Comment trouver le switch root ?
Passer sur chaque switch en utilisant la commande
Switch# show apanning-tree et voir si le root ID(adresse mac) du switch est egal à votre ID à Vous,
c’est-à-dire que c’est vous le root.
Exemple :

ID du switch est identique au notre

En visualisant avec la commande show spanning-tree sur chaque switch on constate que c’est
le SW F qui est root. Si pour de raison administrative on veut changer le switch root, aller par
exemple sur le switch A, configurer la commande :

SW(config)#spanning-tree vlan 1 root primary


NB : valn 1 puisqu’on a que le vlan. Si on en a plusieurs on saisira cette commande pour
chaque vlan afin de définir la Root par vlan( exemple : SW(config)# spanning-tree vlan 10
root primary)
Et la commande SW(config)#spanning-tree vlan 1 root secondary sur le switch B considéré
comme le switch ayant la plus basse priorité apres le switch A. Et on constatera la topologie
changée comme swit :

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Appliquer la commande sh spanning-tree on va constater le changement de la priorité de
32769 à 24577:

Comment configurer le port-fast vers un PC (port raide) afin d’éviter l’attente de 30 Seconde
pour la synchronisation du port vers le PC, (car en stp on doit passer par l’état lisning,
Learning puis de learning en forwarding).pour que ça aille vite, aller sur le switcc lié au pc :

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Acceder au port du switch vers le PC
Switch#conf t
Switch(config)#int f0/3
Switch(config-if)#spanning-tree portfast
Switch(config-if)#shutdown
Switch(config-if)#no shutdown

Avec cette commande on passe directement à l’état forwording sans passer par les autres étapes
(lisning, learning) et cela en une ou deux secondes. Pour tous les ports du switch attachés à des
terminaux, configurer l’option portfast afin de permettre au réseau de converger plus
rapidement (donc l’optimiser).
NB : Ne jamais configurer le portfast sur les ports entre les switchs de peur de créer une boucle
dans le réseau, ça va diminuer la robustesse de votre réseau.

AGREGATION (l’agrégation des liens est diffèrent de stacker les switchs)


Avec le Protocole STP lorsqu’on a deux chemins vers la même destination, le switch va
bloquer un chemin pour éviter les boucles.
stp

Mais dans l’agrégation des liens, on peut configurer plusieurs liens vers la même destination
afin de gagner en vitesse et en bande passante et par fois même en tolérance des pannes.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Aggregation Control Protoco(LACP)

Passif : l’équipement ne va pas initialiser la négociation LACP. Il va répondre uniquement


aux sollicitations des équipements « partenaires ». C’est-à-dire le switch 1 va attendre que le
switch 2 initialise la configuration.

Actif :

On : ici on suppose que le SW1 et sw2 les liens sont déjà activés, on passe directement à
l’agrégation de liens et tous les protocoles qui viennent avec.

L’agrégation des liens est un protocole propriétaire Cisco, pour les autres équipement
l’appellent LACP(link aggregation control protocol).
Exemple : soit la topologie suivante, on vous demande d’agréger le lien.

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Passons à l’agrégation des liens :
Sur switch 1 :

Pour laisser passer tous les vlans attachés au SW1

Sur switch 2 :

Premier groupe des liens agrégés mis en On


Pour laisser passer tous les vlans attachés au SW1

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Pour voir plus d’information sur le port

La topologie finale sera on sur les ports ajdacents du switch comme le montre la figure
suivante :

Resumé :

Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022


Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022
Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022
Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022
Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022
Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022

Vous aimerez peut-être aussi