Académique Documents
Professionnel Documents
Culture Documents
Question Speciales l1 Final2
Question Speciales l1 Final2
3. METHODE
4. CONTENU
CHAPITRE 1 : CHAPITRE I : PRESENTATION DES CONCEPTS DE BASE ET
CONNEXES AUX RESEAUX
CHAPITRE 2 : NOTIONS DE SWITCHING ET ROUTING
5. STRATEGIE D’EVALUATION
TD
TP
INTERROGATION
EXAMEN
RESSOURCES
MATERIELLES :
Ordinateur, projecteur, routeur, switch
Support de cours et cahier de manipulation
LOGICIELLES
Packet Tracer
Wireshark
6. BIBLIOGRAOPHIE ET WEBOGRAPHIE
1. André VAUCAMPS; Protocoles, concepts de routage et sécurité - CCNA 640-802, édition éni
2. Claude Servin ; Aide-mémoire de réseaux et télécoms ; Dunod ; 2012.
3. Claude Servin ; Réseaux et Télécoms ; Dunod ; 2003.
4. cisco, CCNA routing and switching, 200-301
5. cisco, CCNA(Cisco Certified Network Associate). routing and switching, 2000-125
6. Guy Pujolle ; Les Réseaux, Eyrolles, 2e édition 2008.
7. Patient KABAMBA BAMWELA, Cours de Questions Spéciales de Reseau Informatique, ISS 2020-2021
Pour les systèmes à plus de mille participants, on utilise habituellement une configuration de
type systémique pour la centralisation des informations.
I.2. Les éléments du réseau :
On distingue deux types de périphériques:
Les périphériques terminaux
Pour envoyer et recevoir des messages divers et variés on utilise des applications informatiques qui ont
besoin que le réseau leur fournisse certains services. Ces services sont régis par des règles, ou protocoles.
Aujourd'hui, la norme en matière de réseaux est un ensemble de protocoles appelé TCP/IP (Transmission
Control Protocol/Internet Protocol). Le protocole TCP/IP est non seulement utilisé dans les réseaux
privés et professionnels, mais il est aussi le principal protocole d'Internet. C'est en effet le protocole
TCP/IP qui définit les règles de formatage, d'adressage et de routage utilisés pour veiller à ce que les
messages soient livrés aux destinataires appropriés.
Les services
Les services de haut niveau tels que le World Wide Web, les messageries électroniques, les messageries
instantanées et la téléphonie sur IP répondent à des protocoles normalisés.
Le LAN
Le LAN (Local Area Network) est comme vous pouvez le comprendre un réseau LOCAL. Il s’étend en
moyenne de 10 mètres à 1 kilomètre environ. Il permet de connecter plusieurs pc d’une même « entité
» ensembles ! Souvent le réseau LAN se définie dans un type de zone : une salle, un immeuble, un
campus.
Selon l’ouverture
Intranet
Un réseau informatique privé utilisé par les employés d'une entreprise ou de toute autre entité
organisationnelle. Ce type de réseau utilise les mêmes protocoles qu'Internet (TCP, IP, HTTP, SMTP,
IMAP, etc.). Un Intranet est une configuration de réseau local très répandue. Les serveurs Web Intranet
diffèrent du serveur web public en ce sens que les utilisateurs du précédent doivent posséder des
privilèges et mots de passe pour accéder à l’Intranet d’une Organisation. Au sein d’un Intranet, le
Extranet
L’extranet est basé sur Intranet, et qui utilise un accès étendu et sécurisé pour les utilisateurs ou
entreprises externes. Cet accès s’effectue habituellement au travers de mots de passe, ID utilisateur et
autre dispositif de sécurité au niveau applicatif. Un extranet est une extension de deux stratégies Intranet
au moins avec architecture participante de leurs Intranets respectifs.
Les clients
Ce sont des terminaux qui accèdent aux ressources partagées fournies par un serveur du réseau.
Caractéristiques d'un client: Le client à son tour possède des caractéristiques parmi lesquelles nous
citons :
Cette topologie en bus a été très répandue car son coût d'installation est faible. Il est très facile de relier
plusieurs postes d'une même salle, de relier chez soi deux ou trois ordinateurs. Aujourd'hui cette
topologie n'est plus adaptée aux réseaux importants.
Avantages :
Topologie en anneau
Avantages :
Plus onéreux qu'un réseau à topologie en bus (achat du concentrateur et d'autant de câbles que
de nœuds)
Si le concentrateur est défectueux, tout le réseau est en panne.
Utilisation de multiples routeurs ou switch afin de pouvoir communiquer entre différents
réseaux ou ordinateur.
Topologie maillée
Le réseau maillé est une topologie de réseau qualifiant les réseaux (filaires ou non) dont tous les
hôtes sont connectés pair à pair sans hiérarchie centrale, formant ainsi une structure en forme de
filet. Par conséquent, chaque nœud doit recevoir, envoyer et relayer les données. Cela évite d'avoir
des points sensibles, qui en cas de panne, isolent une partie du réseau. Si un hôte est hors service,
ses voisins passeront par une autre route. Les réseaux maillés utilisent plusieurs chemins de
transferts entre les différents nœuds. Cette méthode garantit le transfert des données en cas de panne
d'un nœud. Le réseau Internet est basé sur une topologie maillée (sur le réseau étendu « WAN »,
elle garantit la stabilité en cas de panne d'un nœud).
Dans la méthode d’accès CSMA/CD, les équipements de réseau qui ont des données à
transmettre sur le média réseau ne le font qu’’après écoute de porteuse. Concrètement, cela
signifie que lorsqu’un nœud souhaite transmettre des données, il doit d’abord s’assurer que le
média réseau est libre. Si le nœud détermine que le réseau est occupé, il attendra pendant une
durée aléatoire avant de réessayer. Si le nœud détermine que le média est libre, il commence la
transmission et l’écoute. Le nœud se met à l’écoute pour s’assurer qu’’aucune autre station ne
Cours de QSR Institut Supérieur de Statistique Première Licence Réseaux-ISS 2021-2022
transmet en même temps. Une fois la transmission de données terminée, l’équipement se remet
en mode d’écoute.
Les collisions
Les collisions se produisent généralement lorsqu’au moins deux stations Ethernet transmettent
simultanément au sein d’un domaine de collision (partie de réseau Ethernet où tous les
ordinateurs peuvent écouter la porteuse).
Les trois types de collision sont les suivants:
Locale : le signal circule sur le câble jusqu’’à ce qu’’il rencontre un signal de l’autre
station
Distante : La longueur d’une trame est inférieure à la longueur minimum, et la somme
de contrôle FCS est invalide.
Tardive : Se produise âpres que les premier 64 octets de données ont étaient envoyées.
Domaine de collisions
On appelle domaine de collision des segments du réseau physique dans lesquels des collisions
peuvent se produire. Dans un domaine de collisions quand un équipement effectue une
transmission, tous les autres équipements la reçoivent. Un domaine de collision est un ensemble
d’entités (cartes réseaux) qui partagent le même média de communication. Prenons un exemple
dans la vraie vie.
La segmentation de domaine de collisions
Un domaine de collision est créé lorsque plusieurs ordinateurs sont connectés à un même média
partagé qui n'est pas relié aux autres équipements du réseau. Cette situation limite le nombre
des ordinateurs qui peuvent utiliser le segment. Les équipements de couche 1 (Répéteurs,
Concentrateur) permettent d'étendre les domaines de collision, mais pas de les contrôler.
Les équipements de couche 2 segmentent ou divisent les domaines de collision. Les
équipements de couche 2 sont les ponts et les commutateurs. Les équipements de couche 3 (Les
Routeurs) subdivisent les domaines de collision en domaines plus petits.
Domaine de broadcast/diffusion
Prenons l’exemple des 4 personnes, lorsqu’une personne prend la parole, les trois autres
reçoivent bien la communication. On dit que ces 4 personnes appartiennent au même domaine
de broadcast/diffusion. Lorsqu’une personne parle, les autres reçoivent bien l’information.
Dans le monde des réseaux, c’est à peu près pareil au delta prés que quand une entité envoi une
donnée, elle a le choix entre envoyer la donnée en unicast, en multicast ou en broadcast. Quand
on parle de domaine de broadcast, on prend l’hypothèse où l’entité émettrice souhaite envoyer
une donnée à tout le monde, soit en broadcast.
Un bridge lit le niveau 2 et comprend que la donnée est à destination de tout le monde
(adresse MAC destination = ffff.ffff.ffff) donc elle transmet cette donnée sur son second
port.
I.4 Normalisation
2. 1 Modèle OSI
Pour mémoriser ces différentes couches nous pouvons nous servir de cette phrase :
Lorsqu'une adresse Web (ou URL pour Uniform Resource Locator) est saisie dans un navigateur Web,
ce dernier établit une connexion avec le service Web s'exécutant sur le serveur à l'aide du protocole
HTTP. L'URL et l'URI (Uniform Resource Identifier) sont les noms que la plupart des utilisateurs
associent aux adresses Web.
Pour mieux comprendre l'interaction entre le navigateur Web et le client Web, voyons comment une
page Web s'ouvre dans un navigateur. Dans cet exemple, utilisez l'URL
http://www.cisco.com/index.html.
D'abord le navigateur interprète les trois parties de l'URL :
http (protocole ou schéma)
www.cisco.com (nom du serveur)
index.html (nom du fichier demandé)
Le navigateur fait ensuite appel à un serveur de noms pour convertir l'adresse www.cisco.com en une
adresse numérique, qu'il utilise pour se connecter au serveur. Le navigateur envoie une requête GET au
serveur et demande le fichier index.html en se conformant à la norme HTT. Le serveur envoie au
navigateur le code HTML pour cette page Web. Enfin, le navigateur déchiffre le code HTML et met en
forme la page pour la fenêtre du navigateur.
LE WEB
Le protocole SMTP (Simple Mail Transfer Protocol) permet de transférer les e-mails de manière fiable
et efficace. Pour que les applications SMTP fonctionnent, le message doit être correctement formaté et
les processus SMTP doivent être exécutés à la fois sur le client et sur le serveur.
Les formats de message SMTP exigent un en-tête et un corps de message. Si le corps du message peut
contenir n'importe quelle quantité de texte, l'en-tête doit contenir une adresse de messagerie de
Le protocole de messagerie IMAP (Internet Message Access Protocol) décrit une autre méthode de
récupération des messages électroniques. Toutefois, contrairement au protocole POP, lorsque
l'utilisateur se connecte à un serveur IMAP, des copies des messages sont téléchargées vers l'application
cliente. Les messages originaux sont conservés sur le serveur jusqu'à ce qu'ils soient supprimés
manuellement. Les utilisateurs affichent des copies des messages dans leur logiciel de messagerie.
Ils peuvent créer une hiérarchie de fichiers sur le serveur afin d'organiser et de stocker leurs e-mails.
Cette structure de fichiers est également dupliquée sur le client de messagerie. Lorsqu'un utilisateur
décide de supprimer un message, le serveur synchronise cette action et supprime le message du serveur.
Pour les petites et moyennes entreprises, le protocole IMAP présente de nombreux avantages. Il permet
un stockage à long terme des messages sur les serveurs de messagerie et une sauvegarde centralisée. Il
permet également aux employés d'accéder aux messages depuis différents emplacements à l'aide de
différents périphériques ou logiciels clients. La structure de dossiers de boîte aux lettres à laquelle est
habitué l'utilisateur reste consultable quel que soit le moyen qu'il choisit pour consulter sa boîte aux
lettres.
Pour un FAI, le protocole IMAP peut ne pas être le choix idéal. Il peut s'avérer coûteux à l'achat et en
maintenance de l'espace disque nécessaire au stockage des messages électroniques. De plus, cette
Etape 1: Un usager compose, avec l’aide de son client de messagerie (MUA) un message.
Etape 2: Le message est transmis au MTA de l’usager (son serveur de messagerie en SMTP).
Etape 3: Le message est transmis au serveur de messagerie du destinataire (SMTP).
Etape 4: Le serveur transmet le message à un agent: notion d’agent MDA ‘Mail Delivery
Agent.
Etape 5: Le MDA stocke le courrier dans la boite à lettres du destinataire.
Etape 6: Sur requête du destinataire dans le cadre d’un protocole de relève POP ou IMAP les
messages sont extraits de la boite à lettre par un agent : MAA (‘Mail Access Agent’).
Etape 7: Les messages sont transmis au client de messagerie utilisateur (protocoles POP ou
IMAP). Ils sont stockés dans des boites à lettre client.
Etape 8: Le destinataire consulte ses messages en utilisant son client de messagerie (MUA).
Services d'adressage IP
Dans les réseaux de données, les périphériques sont identifiés par des adresses IP numériques pour
l'envoi et la réception de données sur les réseaux. La plupart des gens ne retiennent pas cette adresse
numérique. Pour cette raison, des noms de domaine ont été créés pour convertir les adresses numériques
en noms simples et explicites.
Direction Etc.
RUE
Il y a 65535 ports utilisables, mais les premiers 127 sont réservés à des usages bien définis,
tout ce qui est au-dessus en principe est libre. Lorsque l’on tape www.google.com le navigateur
attend d’avoir www.google.com sur le port 80. C’est comme si on avait écrit : 80 à la fin de
la ligne (www.google.com:80). Mais le serveur Web n’est pas obligatoirement sur le port 80,
on peut décider de le mettre sur le port 5223 par exemple. Dans ce cas à la fin de la ligne il faut
mettre : 5223(www.google.com:5223). Ce que fait un service est indépendant du port.
L’attribution de numéros de ports est parfaitement arbitraire, c’est juste pour des besoins de
normalisation afin que tout le monde utilise la même chose sans la reconfiguration de ce
numéros de ports dans tout le cas. Donc le www indique uniquement l’hôte, la machine sur
laquelle on va trouver telle ou telle autre information, la machine sur laquelle s’exécute tel ou
tel autre service bien que le commun de mortel s’attend à trouver des pages Web.
Pourquoi découper le nom de domaine (adresse IP) en plusieurs zones ? Pour des raisons
administratives, car sur internet on ne pas avoir un seul serveur qui gère tout.
Ce découpage sur internet se présente de la manière suivante :
Le serveur racine :
Principalement il y a 13 serveurs racines qui vont permettre de connaitre des serveurs
principaux.
Les serveurs principaux : Les différents domaines de premier niveau représentent le type
d'organisation ou le pays d'origine.
DNS repose sur cette hiérarchie de serveurs décentralisés pour stocker et gérer ces enregistrements de
ressources. Les enregistrements de ressources répertorient les noms de domaines que le serveur peut
résoudre, ainsi que d'autres serveurs pouvant également traiter des requêtes. Si un serveur spécifique
dispose d'enregistrements de ressources qui correspondent à son niveau dans la hiérarchie de domaines,
il est qualifié de serveur d'autorité pour ces enregistrements. Par exemple, un serveur de noms dans le
domaine cisco.netacad.net ne serait pas un serveur faisant autorité pour l'enregistrement mail.cisco.com,
car cet enregistrement est stocké sur un serveur d'un domaine de niveau supérieur, à savoir le serveur de
noms du domaine cisco.com.
Reverse DNS (Un autre fonctionnement géré par DNS) c’est-à-dire l’inverse passer de l’adresse
IP et savoir à quel nom de domaine appartient cette adresse. Pour cela dans le serveur d’autorité
il faut indiquer un enregistrement de type PTR et ce type PTR va pouvoir comporter l’indication
inverse des enregistrements de type A. l’adresse IP sera écrite de manière inversée exemple
25.10.21.3 sera 3.21.10.25.in-addr.arpa correspond à www.tshomba_techno.com. Le fait
d’indiquer cette adresse dans le Reverse DNS va permettre de vérifier qu’effectivement quant
au cherche www.tshomba_techno.com on obtient bien l’adresse 25.10.21.3. Si l’on fait le
cheminement inverse on obtient bien que 25.10.21.3 correspond à www.tshomba_techno.com.
Lorsqu’on gère le serveur DNS notamment le serveur SMTP ce mécanisme est très important
de peur de se voir refuser la connexion par d’autres serveurs de messagerie d’internet.
La requête peut être transmise à plusieurs serveurs, ce qui peut nécessiter un délai supplémentaire et
consommer de la bande passante. Lorsqu'une correspondance est trouvée et retournée au serveur
demandeur d'origine, le serveur stocke temporairement dans la mémoire cache l'adresse numérique
correspondant au nom.
La couche transport est chargée de l'établissement d'une session de communication temporaire entre
deux applications et de l'acheminement des données entre ces deux applications. Une application génère
les données à envoyer d'une application sur un hôte source vers une application sur un hôte de
destination, quels que soient le type d'hôte de destination, le type de support sur lequel aura lieu la
transmission, le chemin emprunté par les données, l'encombrement de la liaison et la taille du réseau.
Comme le montre la figure, la couche transport constitue la liaison entre la couche application et les
couches inférieures chargées de la transmission sur le réseau.
La couche transport fournit une méthode d'acheminement des informations sur l'ensemble du réseau qui
garantit que les données peuvent être correctement rassemblées au niveau du destinataire. La couche
transport segmente les données et se charge des contrôles nécessaires à la réorganisation de ces segments
de données en différents flux de communication. Dans le cadre de la suite de protocoles TCP/IP, ces
processus de segmentation et de réorganisation peuvent être réalisés à l'aide de deux protocoles de
couche transport très différents: TCP (Transmission Control Protocol) et UDP (User Datagram
Protocol).
Les protocoles de couche transport effectuent les tâches principales suivantes :
Comme indiqué précédemment, le protocole TCP est un protocole de transport fiable, ce qui signifie
qu'il comprend des processus permettant d'assurer un acheminement fiable des données entre les
applications par l'utilisation d'accusés de réception. Le transport TCP revient à envoyer des paquets qui
sont suivis de la source à la destination. Si l'expédition de FedEx est divisée en plusieurs colis, un client
peut vérifier en ligne l'ordre des livraisons.
Avec le protocole TCP, les trois fonctions de fiabilité de base sont :
le suivi des segments de données transmis ;
les accusés de réception des données ;
la retransmission des données n'ayant pas fait l'objet d'un accusé de réception.
TCP découpe un message en petits morceaux appelés segments. Les segments, numérotés en séquence,
sont ensuite passés au processus IP pour être assemblés en paquets. TCP conserve une trace du nombre
de segments qui ont été envoyés à un hôte donné à partir d'une application spécifique. Si l'expéditeur ne
reçoit pas d'accusé de réception au bout d'un certain temps, il suppose que les segments ont été perdus,
Pour comprendre les différences entre les protocoles TCP et UDP, il est important de comprendre
comment chaque protocole utilise des fonctions spécifiques de fiabilité et comment il effectue le suivi
des communications.
Protocole TCP (Transmission Control Protocol)
Le protocole TCP a été initialement décrit dans le document RFC 793. Outre la prise en charge des
fonctions de base de segmentation et de réorganisation des données, le protocole TCP, comme l'illustre
la figure, fournit également :
des conversations orientées connexion en établissant des sessions ;
un acheminement fiable ;
une reconstitution ordonnée des données ;
le contrôle de flux.
Établissement de session
Le protocole TCP est un protocole orienté connexion. Un protocole orienté connexion est un protocole
qui négocie et établit une connexion permanente (ou session) entre les périphériques source et de
L'une des conditions les plus importantes pour fournir une vidéo en direct et faire transiter des données
vocales sur un réseau est que le flux de données soit rapide. Les applications vidéo et de communication
vocale peuvent tolérer certaines pertes de données, qui ont un impact faible ou nul, et sont donc
parfaitement adaptées au protocole UDP.
UDP est un protocole sans état, c'est-à-dire que ni le client ni le serveur ne sont tenus de surveiller l'état
de la session de communication. Comme l'illustre la figure, le protocole UDP n'est pas concerné par la
fiabilité et le contrôle de flux. Les données peuvent être perdues ou reçues dans le désordre sans qu'aucun
mécanisme UDP ne puisse récupérer ou réorganiser les données. Si la fiabilité est nécessaire dans le
cadre de l'utilisation d'UDP comme protocole de transport, elle doit être prise en charge par l'application
La couche transport doit pouvoir segmenter et gérer plusieurs communications ayant différentes
exigences relatives au transport. Prenons comme exemple un utilisateur connecté à un réseau sur un
périphérique final. L'utilisateur envoie et reçoit simultanément des e-mails et des messages instantanés,
consulte des sites Web et passe un appel VoIP. Chacune de ces applications envoie des données sur le
réseau et en reçoit simultanément, et ce malgré leurs différents besoins en termes de fiabilité. De plus,
les données de l'appel VoIP ne sont pas orientées vers le navigateur Web et le texte des messages
instantanés ne finit pas dans un e-mail.
Pour garantir la fiabilité, les utilisateurs ont besoin que les e-mails et les pages Web soient intégralement
reçus et traités, afin que les informations soient considérées comme utiles. De légers retards dans le
chargement des e-mails ou des pages Web sont généralement acceptables, tant que les produits finis
s'affichent dans leur intégralité et correctement. Dans cet exemple, le réseau gère la réexpédition ou le
remplacement des informations manquantes, et n'affiche pas le produit fini jusqu'à ce que tout soit reçu
et correctement assemblé.
Dans le cas d'une conversation téléphonique, l'absence de quelques mots peut par contre être considérée
comme acceptable. Même si certaines petites parties de quelques mots sont manquées, il est possible de
déduire les mots manquants en fonction du contexte de la conversation ou de demander à l'autre
interlocuteur de répéter ce qui a été dit. Cela est considéré comme étant préférable aux retards causés si
le réseau devait gérer et renvoyer les segments manquants. Dans notre exemple, c'est l'utilisateur, et non
le réseau, qui gère la réexpédition ou la reconstitution des informations manquantes.
Comme l'illustre la figure, pour que les protocoles TCP et UDP gèrent ces conversations simultanées
avec des besoins variables, les services TCP et UDP doivent surveiller les différentes applications en
train de communiquer. Pour différencier les segments et les datagrammes de chaque application, les
protocoles TCP et UDP utilisent chacun des champs d'en-tête identifiant ces applications de façon
unique. Ces identificateurs uniques sont les numéros de port.
Adressage de Ports
L'Internet Assigned Numbers Authority (IANA) attribue les numéros de port. L'IANA est une agence
de normalisation responsable de l'affectation de diverses normes d'adressage.
Il existe différents types de numéros de port :
Ports réservés (numéros 0 à 1023) – Ces numéros sont réservés à des services et applications.
Ils sont généralement utilisés pour les applications telles que HTTP (serveur Web), Internet
Message Access Protocol (IMAP)/Simple Mail Transfer Protocol (SMTP) (serveur de
Les VLANs
L’idée de base des VLAN est de découper un seul réseau local (c’est à dire un ensemble cohérent
d’infrastructures de niveau 2) en des réseaux logiques totalement disjoints : c’est comme si on avait
plusieurs réseaux physiques totalement disjoints, un par VLAN.
Longtemps, la solution a consisté à introduire des routeurs entre les différents domaines logiques avec
pour effet :
Diminution du domaine de broadcast
Filtrage de niveau 3 entre stations
Coûts assez élevés en matériels et gros problèmes de connexion des utilisateurs (brassage des
prises réseaux, attribution des adresses IP, etc.)
Problème de mobilité des postes
D’où l’idée de construire un réseau logique sur un réseau physique partagé qui nous mène à la notion
de réseau virtuel (Vlan). Usuellement on présente trois méthodes pour créer des VLAN :
les Vlan par port (niveau 1),
les Vlan par adresses MAC (niveau 2),
les Vlan par adresses IP (niveau 3) ainsi que des méthodes dérivées.
2.2.3 Avantages
Ce nouveau mode de segmentation des réseaux locaux modifie radicalement la manière dont les réseaux
sont conçus, administrés et maintenus. La technologie de VLAN comporte ainsi de nombreux avantages
et permet de nombreuses applications intéressantes.
2.2.3.1 La flexibilité de segmentation du réseau
Les utilisateurs et les ressources entre lesquels les communications sont fréquentes peuvent être
regroupés en des groupes de travail indépendants de l'infrastructure physique. Il est aussi envisageable
qu'une station appartienne à plusieurs VLAN en même temps.
2.2.3.2 La simplification de la gestion
L'ajout de nouveaux éléments ou le déplacement d'éléments existants peut être réalisé rapidement et
simplement sans devoir manipuler les connexions physiques dans le local technique.
2.2.3.3 L'augmentation considérable des performances du réseau
Pour bien comprendre les VLAN on doit connaitre le fonctionnement d’un LAN. Au sein d’un LAN
défini comme une architecture commutée, soit un réseau composé de commutateurs, toutes les interfaces
disposent d’une adresse unique : une adresse physique MAC du protocole 802. Un commutateur tient
de stables de correspondance entre ses ports et les adresses des hôtes afin de transférer rapidement le
trafic.
Combo ports = est le port composite photoélectrique (panneau) avec deux types d'interfaces
Ethernet (port RJ45 et port SFP) sur un commutateur Ethernet. Il s'agit d'un port composé qui
peut supporter deux dispositifs physiques différents et partager la même matrice de
commutation et le même numéro de port. Ce qui différencie ces ports, c'est qu'ils sont liés à la
même structure de commutation. Toutefois, les deux ports différents ne peuvent pas être utilisés
simultanément. C'est-à-dire que lorsque le port RJ45 est activé, le port SFP est automatiquement
désactivé et vice versa.
SFP Ports = Le port SFP est conçu pour être utilisé avec des connecteurs à facteur de forme
réduit (SFF), et offre une vitesse élevée et des dimensions compactes. Il permet à un switch
Gigabit d'autoriser des liaisons optiques ou en cuivre en insérant le module SFP correspondant
(SFP en fibre ou SFP en cuivre). Quel que soit le port optique ou électrique, la seule différence
est la couche physique (média).
Cette fonctionnalité peut être étendue sur des ports de commutateurs distants à travers toute
l’infrastructure. Dans ce cas, les commutateurs devront transporter entre eux du trafic appartenant à
plusieurs VLANs sur une ou plusieurs liaisons spécifiques. Ce qui nous mène à l’agrégation des VLAN.
2.3 Agrégation des VLAN ou Trunking
2.3.1 Trunk ou Liaison d’agrégation
Les ports d’une liaison qui agrègent le trafic de plusieurs VLANs s’appellent un « Trunk » chez le
constructeur Cisco Systems et « liaison d’agrégation » chez d’autres. Sur ce type de liaison, le
commutateur ajoute des champs supplémentaires dans ou autour de la trame Ethernet. Ils servent
notamment à distinguer le trafic de VLANs différents car ils contiennent entre autres le numéro
Le champ Ethertype ou Tag Protocol Identifier (TPID), sur 16 bits, est utilisé pour identifier le type de
la balise insérée. Pour le 802.1q la valeur est fixée à 0x8100. Le champ TCI (Tag Control Identifier) de
16 bits est utilisé pour l’identification d’un control de l’étiquette. Il est comporte:
Un champ priorité ou PCP (Priority Code Point) de 3 bits, qui est utilisé pour coder 8 niveaux
de priorités d’un VLAN par rapport à l’autre.
Un champ CFI (Canonical Format Indicator) sur 1 bit pour la compatibilité entre les adresses
MAC Ethernet et Token Ring. Un commutateur Ethernet fixe ce champ à 0 (si 1 la trame n’est
pas propagée).
Un champ VID (VLAN Identifier) sur 12 bits. Ce champ permet de définir l’appartenance d’une
trame à un VLAN, la valeur maximale est de 4095 (Vlan 0 signifie que la trame n’appartient à
aucun vlan).
2.3.4 Encapsulation
Quand est-ce que cette encapsulation IEEE 802.1q intervient ? Un hôte A veut joindre un hôte L
connecté à un commutateur distant. Les commutateurs sont interconnectés par une « liaison d'agrégation
». La trame ne sera étiquetée seulement si elle quitte le commutateur sur un port qui connecte une liaison
d'agrégation. Lors de la livraison locale de la trame à la station destinataire, elle sort du port du
commutateur sans étiquette.
Le port marqué "trunk" appartient à la fois aux deux VLANs bleu et vert. Sur ce port, il faut bien sûr
qu'au moins l'un des deux VLANs soit "taggué". Sur le câble relié à ce port, il circulera donc à la fois
les trames du VLAN bleu et celles du VLAN vert. Il n'y aura pas de problèmes tant qu'à chaque bout du
câble, l'interface Ethernet sera capable de trier les trames en fonction du tag. Ceci impose donc
naturellement que le routeur soit compatible avec la norme 802.1q, c'est-à-dire que son interface soit
Le SWITCH a été virtuellement coupé en deux. Les deux VLANs sont complètement étanches au niveau
Ethernet (Un SWITCH est en principe un outil qui ne va pas au-delà du niveau 2). Pour interconnecter
ces deux LANs, un routeur est toujours nécessaire.
2.5 Utilité
Il y a bien entendu quelques avantages à pratiquer de la sorte.
Nous pouvons au moins en citer deux :
Optimisation du matériel. En effet, c'est évident sur l'illustration, nous n'avons plus besoin que
d'un seul SWITCH, là où il nous en fallait deux au départ,
passer un poste de travail d'un LAN à l'autre devrait pouvoir se faire de façon "soft". Plutôt que
de débrancher puis de rebrancher ailleurs le lien du poste, nous pourrons le faire par l'outil de
configuration du SWITCH
Dans notre exemple, le SWITCH est configuré pour supporter deux VLANS, respectivement d'ID 1 et
2. Les ports verts appartiennent au VLAN d'ID 1 et les ports bleus au VLAN d'ID 2. Aucun de ces ports
n'a besoin d'être "taggué" puisqu'ils n'appartiennent qu'à un seul VLAN. En revanche, sur les ports qui
vont véhiculer les trames des deux VLANs, au moins l'un des deux devra être "taggué" au passage de
ces ports. Encore une fois, c'est l'interface d'administration du SWITCH qui permettra de réaliser cette
configuration. Disons pour fixer les idées que le VLAN vert, d'ID 1 ne sera pas marqué et que le VLAN
bleu, d'ID 2 le sera, sur les ports du "trunk" VLAN 1 + VLAN 2. Pratiquement, admettons que le VLAN
1 supporte un réseau IP 192.168.10.0/24 et que le VLAN 2 soit adressé en 192.168.11.0/24. Sur le
routeur (une machine Debian Etch), nous devons configurer l'unique interface Ethernet physique de
2.3.6 Domaine IP Comme dans tout LAN, le réseau IP est homogène et correspond à un adressage
marqué par un préfixe et un masque de réseau. Au sein d'un LAN, toutes les interfaces qui participent à
l'Internet Protocol dans la perspective de communiquer entre des réseaux différents partagent le même
adressage.
2.3.7 Routage inter-VLAN Un routeur constitue la limite d'un VLAN comme celle d'un LAN.
D’ailleurs, on a souvent dans un réseau des ressources communes entre les utilisateurs comme les
imprimantes, les serveurs, l’accès à internet. Donc, pour que des VLANs communiquent ensembles, en
tant que réseaux logiques différents, une fonction de routage est nécessaire. On parle dans la littérature
de routage inter-VLAN. Cette fonction peut être remplie par des plates-formes d'entreprise comme les
routeurs d'accès, des routeurs Linux/BSD ou des commutateurs LAN disposant d'un logiciel de routage.
Les routeurs sont capables de transférer du trafic de VLANs différents à partir d'un seul port physique
reconnu comme port d'agrégation VLAN.
Les figures illustrent le trafic de l’hôte A vers l’hôte H à travers un routeur IPv4 avec deux interfaces
physiques distinctes (à gauche) ou une seule liaison Trunk (à droite). Dans cet exemple, une seule
interface du routeur est nécessaire. Elle sera configuré en mode trunk en créant pour chaque VLAN une
sous-interface logique différente. Evidemment, l’interface physique ne prend pas d’adresse IP.
2.8 Implémentation de la technologie
Si une station est déplacée sur le réseau physique, son adresse physique ne changeant pas, elle
continue d’appartenir au même VLAN (ce fonctionnement est bien adapté à l'utilisation de
machines portables).
Si on veut changer de Vlan il faut modifier l’association Mac / Vlan.
2.8.3 VLAN par adresse IP (Niveau 3)
On affecte une adresse de niveau 3 à un VLAN. L’appartenance d’une trame à un VLAN est alors
déterminée par l’adresse de niveau 3 ou supérieur qu’elle contient (le commutateur doit donc accéder à
ces informations). En fait, il s’agit à partir de l’association adresse niveau 3/VLAN d‘affecter
dynamiquement les ports des commutateurs à chacun des VLAN. Dans ce type de VLAN, les
commutateurs apprennent automatiquement la configuration des VLAN en accédant aux informations
de couche 3. Ceci est un fonctionnement moins rapide que le Vlan de niveau 2. Quand on utilise le
protocole IP on parle souvent de Vlan par sous-réseau. 2.8.4 Autre méthodes pour définir les VLANs
On se trouve dans la littérature des références au Vlan par protocoles, c’est à dire qu’on associe une
trame à un Vlan en fonction du protocole qu’elle transporte. Ce protocole peut être un protocole de
niveau 3 pour isoler les flux IP, IPX, AppleTalk .etc. Mais on peut trouver aussi des Vlan construits à
partir de protocole supérieur (notamment H320). On parle quelquefois de Vlan par règles ou par types
de service. Enfin, l’apparition du « Wifi » pose des problèmes de sécurité que les Vlan peuvent résoudre.
Ainsi une solution basée sur des Vlan par SSID est envisageable. 2.9 Déclaration des Vlan et affectation
des ports à un Vlan Un port sur un commutateur ne peut participer qu’aux Vlan déclarés sur ce
commutateur. La déclaration des Vlan est donc préalable ou conjointe à l’affectation des ports aux Vlan.
La déclaration de Vlan consiste à créer un VID sur un commutateur. Cette création peut être :
Statique (Static Vlan): un Vlan statique est un Vlan créé manuellement sur le commutateur.
Dynamique (Dynamic Vlan): un Vlan dynamique est un Vlan dont la création sur le
commutateur résulte d’un échange avec un autre commutateur.
La création dynamique des Vlan permet de contrôler celle-ci à partir d’un ou plusieurs
commutateurs et d’éviter ainsi les erreurs sur les identifiants (VID) quand un Vlan est réparti
sur plusieurs commutateurs.
2.12 VLAN Trunking Protocol (VTP) VTP (ou comment se simplifier la vie avec les VLAN)
2.12.1 Description
VTP est un protocole propriétaire Cisco servant à maintenir la base de données de Vlan sur plusieurs
commutateurs. Il permet d'ajouter, renommer ou supprimer un ou plusieurs réseaux locaux virtuels sur
un seul commutateur (le serveur) qui propagera cette nouvelle configuration à l'ensemble des autres
commutateurs du réseau (clients). VTP permet ainsi d'éviter toute incohérence de configuration des
VLAN sur l'ensemble d'un réseau local.
A quoi sert ce protocole? Imaginons que vous devez configurer plusieurs VLANs dans votre réseau:
VLANs. Vous recevez un message d’erreur quand vous essayez de créer un VLAN.
Le switch en mode Transparent permet à l’administrateur de faire toute modification sur les
VLANs en local uniquement et donc ne propage pas ses modifications vers tous les switchs
du réseau. Très pratique pour des maquettes!
Synchronisation
passante.
Explication: imaginons qu’un switch reçoit les VLANs 1 et 2 mais qu’aucunes de ses interfaces
appartiennent au VLAN 2. Lorsque le switch voisin lui enverra des trames du VLAN 2, ce
switch les supprimera car aucune de ses interfaces appartiennent à ce VLAN. Il est donc inutile
que le switch voisin lui envoi du trafic pour le VLAN 2.
On active alors la fonction VTP pruning pour avertir le switch voisin de ne pas lui envoyer de trafic
pour ce VLAN. La fonction s’active à partir du switch Server.
Important: si un switch client possède un RN plus élevé que le switch Server (imaginons qu’il était
dans un autre réseau puis branché au notre), contrairement à ce qu’on peut penser, le client ne va pas
récupérer la base de données de VLAN du Server mais l’inverse!
Pourquoi? Parce que quelque soit le mode du switch, Server ou Client, il se synchronise toujours sur
celui qui a le RN le plus élevé. Dans notre cas, c’est le Server qui va se synchroniser et récupérer la base
de données de VLAN du Client. Il est donc très important de remettre le RN à zéro. Pour cela, effectuer
un simple basculement en mode Transparent puis en mode Client (exemple plus bas).
Les messages VTP se propagent sur les liens configurés en Trunk (norme 802.1Q)
et pas en Access
VTP ne gère que la plage de VLAN comprise entre 1 et 1005. La plage étendue 1006
à 4096 n’est pas supportée. Pour cela, il faut basculer en mode Transparent sur tous
les switchs et créer ses VLANS étendus à la mano
Il existe 3 versions de VTP, bien vérifier qu’une et une seule version est active sur
son réseau pour éviter les surprises (v1 et v2 incompatibles entre elles)
La configuration VTP n’est pas visualisable dans la running-config mais est stockée
dans le fichier vlan.dat situé dans la flash (faites un show flash: pour voir le fichier).
VTP Version: affiche quelle est la version maximum supportée par le switch (ici le switch
supporte les versions 1 et 2). Attention, ce n’est pas forcément celle active!
Configuration Revision: en mode server, elle débute à 1. En mode transparent, elle ne sert
pas et donc mise à 0.
Maximum VLANs supported locally: nombre maximum de VLAN que le switch supporte.
Dépend du type de switch (ici un 2960)
Number of existing VLANs: nombre de VLANs présents dans le switch (par défaut, les
VLANs 1, 1002 à 1005 sont présents donc = 5)
VTP Operating Mode: Server, Client ou Transparent
VTP Domain Name: nom de votre “groupe” d’amis
VTP Pruning Mode: activation/désactivation de la fontion de pruning
VTP V2 Mode: c’est ici qu’on peut vérifier si la version 2 est bien activée (ou la version 3
si le switch la supporte)
VTP Traps Generation: permet d’envoyer des traps SNMP vers un serveur pour prévenir
les administrateurs lorsqu’il y a un changement au niveau VTP (par exemple lors de la
création d’un VLAN)
MD5 digest: affiche le hash du mot de passe précédent (cisco123 dans notre exemple)
Configuration last modified by: affiche quel est le dernier switch qui a fait une
modification de VLANs (on peut avoir plusieurs switch Server dans un réseau)
Par exemple, sur un commutateur nommé Switch, on veut créer le Vlan 10 nommé « Professeur ». La
configuration sur un commutateur est :
Switch#vlan database
Switch(vlan)#vlan 10 name Professeur
Switch#show vlan (pour afficher les Vlan) Pour supprimer un Vlan (exemple vlan 10), la commande
est: Switch(vlan)#no vlan 10
Sous Cisco un port Access est un port qui appartient à un seul Vlan. Dans l’exemple qui suit, on va
configurer les ports fa0/1 à fa0/20 en mode access et les attribuer au vlan 10. La commande peut se faire
un à un ou en même temps : Switch(config)#interface fa0/1 (pour configurer seulement le port fa0/1)
Switch(config)#interface range fa0/1-20 (configuration de plusieurs ports en même temps)
Switch(config-if)#switchport mode access Switch(config-if)#switchport access vlan 10
II.2 STP (norme IEEE 802.1D. STP couche 2) ET RAPID SPANNING TREE PROTOCOL (RSTP
norme 802.1w) ET AGREGATION
II.2.1 Introduction
Dans les réseaux Ethernet, un seul chemin actif peut exister entre deux stations. Plusieurs chemins actifs
entre des stations causent inévitablement des boucles dans le réseau. Lorsque les boucles surviennent,
certains commutateurs reconnaissent une même station sur plusieurs ports. Cette situation entraîne des
erreurs au niveau de l’algorithme d’expédition. Le but premier des protocoles Spanning Tree est donc
d’éviter ces boucles de routage dans les réseaux pontés et par extension dans les VLANs, tout en
fournissant des chemins redondants en cas de coupure. Ces protocoles permettent donc d’augmenter la
tolérance de panne en cas de rupture de lien ou de défaillance de pont.
Supposons qu’une machine A veut envoyer via un switch une trame vers une machine D alors que la
machine D n’est pas connectée à l’un de ce trois switch. Chaque switch va consulter sa table de
commutation, puisque les switch ne connaissent pas ou se trouve la machine D, chaque switch va
diffuser la trame sur tous les ports du switch à l’exception du port par lequel la trame a été reçue.
Table de commutation :
Cascade activée
Cascade activée
Cascade désactivée
Automatiquement, et
qui peut être réactivée
automatiquement si
l’une de deux cascades
actives tombait en
panne
Légende :
C’est-à-dire si l’identité du Switch A est plus petite par rapport à l’identité du Switch B
l’identité du Switch A est la meilleure.
Par conséquent le Switch qui a l’identité la plus inferieure devient le Switch Root (Racine).
ROOT
Valeur de priorité du
Switch par défaut (identité
numérique du Switch)
Légende :
P= Priorité
M=Mac address
Commencer par comparer les valeurs de priorité de tous les Switchs, la valeur la plus petite est
la meilleure. Si tous les P sont identiques, alors comparer les adresses Mac de tous les Switchs.
L’adresse Mac la plus petite est la meilleure.
Exemple 2 :
BPDU
Identificateur de Root(racine)
Légende :
R= Switch
Le switch R2 annonce au switch R3 qu’il connait une ROOT R1 ayant une meilleure identité.
R1 envoi le BPDU à R2 et R2 envoi le BPDU à R3.
Le Champ cost(coût) indique à R2 que pour qu’il arrive à R1 ça va lui couter 19, qui est relatif
au débit de la cascade entre R1 et R2. Donc chaque débit, ou vitesse a un coût.
Sur cette topologie nous constatons deux chemins pour arriver à la racine :
De B vers A ou
De B vers C puis vers A
De B vers A directement va couter 19 car 100 Mb/s valent 19.
De B vers C puis vers A va couter 38 c’est-à-dire de B vers C=19 et de C vers A=19
Comme conclusion le port 3 du switch B et le port 4 du switch C sont des root-port(RP)
RP
RP
Sur cette topologie nous constatons deux chemins pour arriver à la racine :
De B vers A ou
De B vers C puis vers A
De B vers A directement va couter 19 car 100 Mb/s valent 19.
De B vers C puis vers A va couter 8, c’est-à-dire de B vers C=4 de C vers A=4
Comme conclusion le port 4 du switch B et le port 4 du switch C sont des Root-port(RP).
RP
Lorsque le coût est identique entre les deux chemins menant vers le Suitch-Root, il faut se baser
sur les identités des tous les switchs pour identifier l’identité du switch la plus petite, puis les
ports adjacents du switch-Root seront considérés comme RootPort.
Troisième étape : déterminer les DesignatedPort sur chaque segment. Les segments sont les
cascades, les liens entre les switchs.
Exemple des segments Rappel :
Sur cette topologie nous avons trois segments ou cascades ou domaines de collision. Le segment
correspond au domaine de collision.
Switch
Hub
cth
Domaine de collision
Hub
Un domaine de collision
Switch B Switch C
C’est le switch Root qui a le coût faible, car le port 3 du switch A pour arriver à la racine coûte
0, il est déjà sur la racine. Pour trouver le Designated port on se place sur un segment entre
deux switch.
Exemple 2 : lesquels de ces deux switchs B et C a un port ayant un coût meilleur pour arriver
Switch A
Switch B
Switch C
à la racine ?
C’est le port 3 du switch C qui est le DisignatedPort (DP), car les coûts étant les pour arriver
à la racine il faut se focaliser sur les identités de deux switch qui ont créé le segment.
Switch B
Switch C
On peut conclure que tous les ports du switch racine sont des designated Port, puisqu’ils ont
un coût 0 pour arriver à la racine.
b. tous les ports du Root sont des designatedPort.
c. Tous les designatedPorts sont en mode Forwarding(fonctionnel)
Application de cette règle :
Conclusion
Par élection
Etape 2. Sur les autres switchs trouver le rootPort, c’est-à-dire le port ayant le plus petit coût
vers le SwitchRoot. Le coût d’une liaison dépend du débit du port
Coût = 19
Donc pour le switch à droite ci-dessous, c’est le port 3/1 qui est le PootPort car ayant le coût
le plus fable vers la racine
Pour le switch du milieu ci-dessous, c’est le port 3/6 qui est le RootPort car ayant le coût le
plus fable vers la racine.
Pour le switch de gauche ci-dessous, c’est le port 1/3 qui est le RootPort car ayant le coût le
plus fable vers la racine et le N° du port adjacent, donc en face est plus petit par rapport au
port adjacent du port 1/1.
Comme résultat :
Etape 3 : Trouver les designatedPort sur chaque segment, chaque cascade, sur chaque
domaine de collision. Nous savons maintenant que tous les ports du Root sont des
designatedPort. Donc les ports 5/2, 3/5 et 3/9 sont des designatedPrt.
Entre le port du switch du milieu et le port du switch à droite lequel sera le designatedPort ?
C’est le port 4/2, car non seulement le débit de la cascade du switch à droite est plus petit pour
arriver à la racine mais aussi l’identifiant du switch à droite est plus petit par rapport à
l’identifiant du switch du milieu.
Comme résultat :
On constate que chaque fois sur une cascade il y a un root port, le port apposé est
designatedPort.
Activez le protocole RSTP globalement sur tous les ponts participants ; il n’est pas activé par
défaut.
Lorsque vous activez le protocole RSTP, l’ensemble des interfaces physiques et de canal de
port qui sont activées et en mode Couche 2 font automatiquement partie de la topologie du
RSTP.
Seul un seul chemin depuis un pont vers un autre pont est activé.
Les ponts bloquent tout chemin redondant en désactivant l’un des ports de liaison.
Pour activer le protocole RSTP globalement pour toutes les interfaces en Couche 2, utilisez
les commandes suivantes.
Exemple de la ligne de commande sur vla topologie complexe
Cette commande est à configurer sur tous les switch de notre topologie complexe pour activer
le mode rapide de spanning.
SW B
SW A
Port bloqué
SW C SW D
SW E SW F
En visualisant avec la commande show spanning-tree sur chaque switch on constate que c’est
le SW F qui est root. Si pour de raison administrative on veut changer le switch root, aller par
exemple sur le switch A, configurer la commande :
Comment configurer le port-fast vers un PC (port raide) afin d’éviter l’attente de 30 Seconde
pour la synchronisation du port vers le PC, (car en stp on doit passer par l’état lisning,
Learning puis de learning en forwarding).pour que ça aille vite, aller sur le switcc lié au pc :
Avec cette commande on passe directement à l’état forwording sans passer par les autres étapes
(lisning, learning) et cela en une ou deux secondes. Pour tous les ports du switch attachés à des
terminaux, configurer l’option portfast afin de permettre au réseau de converger plus
rapidement (donc l’optimiser).
NB : Ne jamais configurer le portfast sur les ports entre les switchs de peur de créer une boucle
dans le réseau, ça va diminuer la robustesse de votre réseau.
Mais dans l’agrégation des liens, on peut configurer plusieurs liens vers la même destination
afin de gagner en vitesse et en bande passante et par fois même en tolérance des pannes.
Actif :
On : ici on suppose que le SW1 et sw2 les liens sont déjà activés, on passe directement à
l’agrégation de liens et tous les protocoles qui viennent avec.
L’agrégation des liens est un protocole propriétaire Cisco, pour les autres équipement
l’appellent LACP(link aggregation control protocol).
Exemple : soit la topologie suivante, on vous demande d’agréger le lien.
Sur switch 2 :
La topologie finale sera on sur les ports ajdacents du switch comme le montre la figure
suivante :
Resumé :