Académique Documents
Professionnel Documents
Culture Documents
PARTIE 1
NOTIONS DE BASE SUR LES RESEAUX
Historique
Les réseaux locaux Ethernet sont les plus courants, grâce à la simplicité de leur mise en œuvre et à
l'augmentation progressive des débits de connexion (transmission), passés à 10 Mbit/s,
puis 100 Mbit/s, pour atteindre 1 puis 10 Gbit/s au XXIe siècle. La norme Ethernet est référencée par
la série des normes 802.3 de l'IEEE qui régissent le monde Ethernet.
À l'origine, les réseaux locaux étaient limités aux commutateurs interconnectés. Le concept
de réseau local virtuel (VLAN) permet de créer des réseaux locaux logiquement distincts à l'intérieur
d'un même commutateur, comme s'il s'agissait de réseaux physiques distincts. Les protocoles IEEE
802.1Q et ISL permettent d'étendre des VLAN entre commutateurs.
L'interconnexion entre les nœuds du réseau local était initialement réalisée par des câbles en cuivre
(coaxial ou paires torsadées) ; on trouve aussi maintenant des liens en fibre optique et des réseaux
locaux sans fil, tels les réseaux Wi-Fi.
Ethernet fait également référence au niveau 2 du modèle OSI (liaison). On utilise les adresses MAC
qui sont inscrites par défaut dans le matériel des cartes réseaux pour identifier chaque nœud sur le
réseau. Bien que par le passé plusieurs protocoles de niveau 3 aient été utilisés
comme AppleTalk et IPX, le protocole IP règne désormais en maître tant sur les réseaux locaux que
dans les réseaux étendus
Un réseau local, souvent désigné par l'acronyme anglais LAN de Local Area Network, est un réseau
informatique tel que les terminaux qui y participent (ordinateurs, etc.) s'envoient des trames au
niveau de la couche de liaison sans utiliser d’accès à internet. On définit aussi le LAN par le domaine
de diffusion, c'est-à-dire l'ensemble des stations qui reçoivent une même trame de
diffusion (broadcast frame). Au niveau de l'adressage IP, un réseau local correspond généralement à
un sous-réseau IP (même préfixe d'adresse IP). On interconnecte les réseaux locaux au moyen
de routeurs.
Une autre approche consiste à définir le réseau local par sa taille physique. C'est généralement un
réseau à une échelle géographique relativement restreinte, par exemple une salle informatique, une
habitation particulière, un bâtiment ou un site d'entreprise.
Dans le cas d'un réseau d'entreprise, on utilise aussi le terme RLE pour réseau local d'entreprise.
1. Définition
Un réseau est un ensemble de moyens matériels et logiciels géographiquement dispersés destinés à
offrir des services informatiques.
Un réseau informatique est un ensemble d’équipements reliés entre eux par des liens physiques ou
non et échangeant des informations (sous forme binaire).
2. Objectifs
4. Terminologie
- Téléinformatique : La téléinformatique est l’association de techniques des télécommunications et
de l'informatique afin de permettre l’accès à distance en vue de réaliser l'échange de données et des
traitements automatiques de l’information.
- Télématique : La télématique est l’ensemble des techniques qui combinent les moyens de
l'informatique avec ceux des télécommunications. Elle recouvre les applications et services offert par
la téléinformatique.
- Nœud : Un matériel équipement (ordinateur, concentrateur, imprimante etc.) du réseau
informatique possédant une adresse physique.
- Nœud TCP/IP : Un équipement fonctionnant avec le protocole TCP/IP.
- Adresse physique : Une adresse unique attribuée par le fabricant, gérée par un organisme
international et inscrite de façon définitive dans l'équipement.
Appelée aussi adresse Ethernet ou adresse MAC (Media Access Control).
- Adresse logique : Une adresse unique attribuée par les répondants informatique locaux et gérée
par le NIC pour les adresses IP (organisme international).
- Paquet/Trame : Une information électrique transitant sur le réseau et représentant une suite de
bits. Il s'agit de l'unité de base du réseau (frame).
- Protocole : Une description des mécanismes permettant la gestion des paquets d'information et
leur transition du réseau à l'application. Par extension, logiciel (software) fonctionnant sur une
machine et permettant cette gestion interne.
- Suite de protocoles : Un ensemble de protocoles communiquant entre eux.
- Couche réseau : Un composant protocole fonctionnant sur un équipement et lui permettant de
communiquer à travers le réseau.
- Media : Un support permettant le passage de l'information: différents types de câble, ondes
hertziennes, laser etc.
- Réseau de données : Ensemble des unités fonctionnelles qui établissent des circuits de données
entre des terminaux.
- Bande-passante : La bande passante est la plage de fréquences (la différence entre le composant
de signal de plus haute fréquence et celui de plus basse fréquence) utilisée par un signal
électronique sur un moyen de transmission donné.
- Débit binaire : Comme le cas de la téléphonie ou de Wi-Fi, la bande passante détermine la quantité
d'informations capables de transiter par seconde sur un media donné.
- Backbone : Un réseau physique (câble et matériel actif) servant de colonne vertébrale au reste du
réseau. En général composée de fibres optiques est assurant parfois une plus grande bande-
passante (155Mbits/s).
- Interconnexion : Un ensemble matériel et logiciel permettant la connexion d'équipements utilisant
des média et des protocoles différents.
5. Notion de couches
Sur un réseau informatique, les mécanismes utilisés peuvent être représentés sous la forme de
poupées russes : la grande poupée extérieure représente les paquets d'informations qui circulent
réellement sur le réseau (l'information électrique) chaque poupée intérieure pouvant être vue
comme un protocole, la dernière poupée représentant l'information utile, c'est-à-dire nécessaire à
l'utilisateur final.
Chacune de ces poupées a une fonction particulière, offre un service déterminé, qui sera décrit dans
les chapitres ultérieurs.
On distingue essentiellement les couches basses, hautes et applicatives.
C’est un modèle théorique, très lourd à mettre en œuvre, et n'est pratiquement pas respecté, sauf
par quelques suites de protocoles de type plutôt expérimental.
Cependant, on essaye toujours de se référer à ce modèle et à faire coïncider tant bien que mal les
protocoles existant avec ces 7 couches.
I. SUPPORTS DE TRANSMISSION
Afin que les informations circulent au sein d'un réseau, il est nécessaire de
relier les différentes unités de communications à l'aide d'un support de transmission. Un
support de transmission est un canal physique qui permet de relier des ordinateurs et
des périphériques. Les supports de transmission les plus utilisés sont : les câbles, la
fibre optique et les systèmes sans fil.
Le câble est le type de support de transmission le plus ancien, mais aussi le
plus utilisé. Le câble est généralement constitué de fils de cuivre recouverts par une
gaine plastique. C'est le support le moins cher. Il existe trois types de câbles : coaxial,
la paire torsadée non blindée et la paire torsadée blindée.
La fibre optique est un support de transmission très utilisé dans les réseaux de
grandes tailles. Le principe de la fibre optique est d'acheminer des informations en
envoyant des signaux lumineux dans un conducteur central en silice ou en plastique.
Cette solution permet de transmettre très rapidement des informations, mais coûte
encore cher.
Sur les réseaux où les ordinateurs sont distants ou ne peuvent être connectés
physiquement, la solution consiste à utiliser un support de transmission sans fil. Ces
réseaux sans fil utilisent généralement : les rayons infrarouges, les micro-ondes, les
ondes radio ou encore un satellite.
gaine en plastique protectrice recouvre le tout. Pour connecter les ordinateurs entre eux, il faut
une excellente immunité contre le bruit. La largeur de bande dépend de la qualité du câble, de sa
longueur et du rapport signal sur bruit. Dans les câbles modernes, elle se rapproche de 1 GHz.
Types de cables
Le câble coaxial fin : Le câble coaxial fin est distingué par son diamètre de 6
mm, un fil flexible, un débit de 10Mégabits/s et souvent utilisé pour la télévision.
Categories de cables
Le cable coaxial PVC est particulièrement adapté aux applications studio et à la
transmission des informations d'image. Pour la transmission des signaux analogiques
et digitaux comme du SDI, SDV, SDTI, HDTV
Il s'agit d'un des supports de transmission les plus anciens et qui est toujours d'actualité.
La paire torsadée se compose de deux fils de cuivres isolés d'une épaisseur d'environ
1mm. Ces fils sont enroulés l'un sur l'autre de façon hélicoïdale, telle une molécule
d'ADN. Cela permet de réduire les radiations électromagnétiques perturbatrices, car les
ondes rayonnées de chaque torsade s'annulent (alors que deux fils parallèles constituent
une antenne rayonnante).
Le maintien de la distance entre fils de paire sert à définir une impédance caractéristique de la
paire, pour supprimer les réflexions de signaux aux raccords et en bout de ligne. Les contraintes
géométriques (épaisseur de l'isolant/diamètre du fil) maintiennent cette impédance autour de 100
ohms :
Plus le nombre de torsades est important, plus la diaphonie est réduite. Le nombre de torsades
moyen par mètre est membre de la spécification du câble, mais chaque paire d'un câble est
torsadée de manière un peu différente pour éviter la diaphonie.
La paire torsadée non blindée (ou UTP pour Unshielded twisted pair) n'est pas
entourée d'un blindage protecteur. C'est le type de câble souvent utilisé pour
le téléphone et certains réseaux informatiques.
Les paires torsadées ont un blindage général assuré par une feuille d'aluminium.
L'écran est disposé entre la gaine extérieure et les 4 paires torsadées. Elle est
utilisée pour le téléphone et les réseaux informatiques.
Chaque paire torsadée blindée (ou STP pour Shielded twisted pairs) est entourée
d'une couche conductrice de blindage, de façon similaire à un câble coaxial. Cela
permet une meilleure protection contre les interférences. Elle est communément
utilisée dans les réseaux token ring
Câble STP doté en plus d'un écran commun entre la gaine extérieure et les 4 paires
Catégorie 1
Catégorie 2
Catégorie 3
Catégorie 4
La catégorie 5 est un type de câblage permettant une bande passante de 100 MHz.
Ce standard permet l'utilisation du 100BASE-TX et du 1000BASE-T, ainsi que
diverses applications de téléphonie ou de réseaux (Token ring, ATM). Il était décrit
dans l'ancienne norme ANSI/TIA/EIA-568-A. Dans la norme actuelle, seules les
catégories 5e et 6 restent décrites.
Catégorie 5e / classe D
Catégorie 6 / classe E
La catégorie 6 est un type de câblage permettant une bande passante de 250 MHz et
plus (norme ANSI/TIA/EIA-568-B.2-1 et ISO/CEI 11801 ed.2).
Catégorie 6a / classe Ea
Catégorie 7 / classe F
Catégorie 7a / classe Fa
Non blindé
La paire torsadée non blindée est un support de transmission d'informations entre les
ordinateurs. C'est le type de câble le plus utilisé sur les réseaux. Pour connecter les
ordinateurs et périphériques au réseau avec un câble de type : paire torsadée non
blindée, il faut utiliser un connecteur spécial appelé « connecteur RJ-45 ». Ce type de
câble est le moins cher. La paire torsadée non blindée peut être constituée de 2, 4, 6 ou 8
- Faisceaux hertziens
Les faisceaux hertziens reposent sur l’utilisation de fréquences très élevées (de 2 GHz à
15 GHz et jusqu’à 40 GHz) et de faisceaux directifs produits par des antennes
directionnelles émettant dans une direction donnée. La propagation des ondes est
limitée à l’horizon optique ; la transmission se fait entre des stations placées en hauteur,
par exemple au sommet d’une colline, pour éviter les obstacles dus aux constructions.
Les faisceaux hertziens s’utilisent pour la transmission par satellite, pour celle des
chaînes de télévision ou pour constituer des artères de transmission longues distances
dans les réseaux téléphoniques.
- Ondes radioélectriques
Les ondes radioélectriques correspondent à des fréquences comprises entre 10 kHz et 2 GHz. Un
émetteur diffuse ces ondes captées par des récepteurs dispersés géographiquement. Contrairement aux
faisceaux hertziens, il n’est pas nécessaire d’avoir une visibilité directe entre émetteur et récepteur, car
celui-ci utilise l’ensemble des ondes réfléchies et diffractées. En revanche, la qualité de la
transmission est moindre car les interférences sont nombreuses et la puissance d’émission est
beaucoup plus faible.
1. Le Répéteur
Il permet d’étendre la portée du signal sur le support de transmission et génère
un nouveau signal à partir du signal reçu.
2. Le Pont
Il permet de relier deux réseaux de technologies liaison différentes. Exemple:
Ethernet, Token Ring, HDLC, PPP, SLIP, ATM, etc.
VANGAH Aristide | Réseaux Locaux – Première Edition Page 15
Cours de Réseaux Locaux – Première Année
Il ressemble à un répéteur avec la différence qu’un pont interprète les données
transmises.
3. Le Routeur
Il sélectionne le chemin approprié pour diriger les messages vers leurs
destinations. Utilisé pour des sites géographiquement éloignés.
4. Les Passerelles
Relie des réseaux hétérogènes et dispose de fonctions d’adaptation et de
conversion de protocoles à travers plusieurs couches de communication jusqu’à la
couche application.
5. Les serveurs
On distingue plusieurs types de serveurs. Nous avons d’une part, des serveurs
liés à des applications : Serveur Web ; Serveur mail ; Serveur d’impression, Serveur de
sauvegarde… Et d’autre part, des serveurs liés à des services (HTTP, DHCP, DNS,
FTP…): Serveur HTTP, Serveur DHCP, Serveurs DNS, Serveur FTP….
1. Topologie physique
Une topologie physique est en fait la structure physique de votre réseau. Elle peut définir la façon
dont les équipements sont interconnectés et la représentation spatiale du réseau.
Il existe plusieurs topologies physiques : le bus, l'étoile (la plus utilisée), l'anneau, le mesh (topologie
maillée), hybride, etc. Cependant nous n'allons parler que des plus utilisées.
Avantages
- Il est facile à manipuler et à mettre en œuvre.
- Il possède un fonctionnement simple
- Il est plus adapté pour les petits réseaux.
- Lorsqu'une station est défectueuse et ne transmet plus sur le réseau, elle ne perturbe pas le
réseau.
- Il est de faible coût…
Inconvénients
- La longueur du câble est limitée. Cela limite le nombre de stations qui peuvent être
connectés. Cette topologie de réseau peut être effectuée que pour un nombre limité de
nœuds.
- Lorsque le support est en panne, c'est l'ensemble du réseau qui ne fonctionne plus.
- Pas de transfert privé…
1.2. Topologie en anneau
Une topologie en anneau est une topologie dans laquelle toutes les entités sont reliées entre elles
dans une boucle fermée et communiquent chacune à leur tour.
Cela ressemble à une topologie en bus mais qui serait refermé sur lui-même : le dernier nœud est
relié au premier.
Dans une topologie en anneau, les ordinateurs ne sont pas reliés en boucle, mais sont reliés à un
répartiteur (appelé MAU, Multistation Access Unit) qui va gérer la communication entre les
ordinateurs qui lui sont reliés en répartissant à chacun d'entre-eux un temps de parole.
La topologie de type bus possédait un problème de collision de données : 2 machines ne doivent pas
échanger des données en même temps, sinon elles s'entrechoquent. Ce principe est repris dans le
réseau en anneau. Sauf que là, le système de Token Ring utilise la CSMA/CA, une méthode anti-
collision différente.
Avantages
- Les données étant transmises entre deux nœuds passent par tous les nœuds intermédiaires.
- Un serveur central n'est pas requis pour la gestion de cette topologie
- Plusieurs transmissions sont possibles
- Pas de collision puisqu’on parle que lorsque l’on n’est en possession du jeton diffuseur
- Le taux d'utilisation de la bande passante est proche de 90%...
Inconvénients
- La défaillance d'un seul nœud du réseau peut entraîner l'ensemble du réseau à l'échec.
- Le mouvement ou les modifications apportées aux nœuds du réseau affecte le rendement de
l'ensemble du réseau.
- Diffusion longue
- Nombre de machine influence dans le temps de transmission de l’information
- Doublage du support et des organes critiques pour la sécurité…
Avantages
- En raison de son caractère centralisé, la topologie offre une simplicité de fonctionnement.
- Il réalise également un isolement de chaque périphérique du réseau.
- la précision d’envoi
- L’ajout facile de postes
- Diffusion facile
- La suppression de poste(s) n’affecte pas le fonctionnement du réseau…
Inconvénients
- Le fonctionnement du réseau dépend du fonctionnement de la plate-forme centrale. Par
conséquent, l'échec de la plate-forme centrale conduit à l'échec de l'ensemble du réseau.
- Dépend du nœud central (Switch ou hub)
- Coûteux (nécessite plusieurs câbles)
- Collision…
Avantages
- L'agencement des noeuds du réseau est tel qu'il est possible de transmettre des données
d'un noeud à plusieurs autres noeuds dans le même temps.
- Cette topologie garantit le transfert des données en cas de panne d'un nœud
Inconvénients
- L'arrangement où chaque nœud du réseau est connecté à tous les autres nœuds du réseau, la
plupart des connexions ne servent à rien. Cela conduit à la redondance de la plupart des
connexions réseau.
- Le nombre de liaisons nécessaires qui devient très élevé.
VANGAH Aristide | Réseaux Locaux – Première Edition Page 20
Cours de Réseaux Locaux – Première Année
2. Topologie logique
Une topologie logique est la structure logique d'une topologie physique, c'est à dire que la topologie
logique définit comment se passe la communication dans la topologie physique.
Les topologies logiques les plus courantes sont Ethernet, Token Ring et FDDI.
2.1. Ethernet
Ethernet (aussi connu sous le nom de norme IEEE 802.3) est un standard de transmission de données
pour réseau local basé sur le principe suivant : Toutes les machines du réseau Ethernet sont
connectées à une même ligne de communication, constituée de câbles cylindriques. La méthode de
communication utilisée est celle par contention, tout le monde peut prendre la parole quand il le
souhaite. Mais alors, il faut une règle pour le cas où deux stations se mettraient à "parler" au même
moment. La principale méthode de contention en réseaux locaux est le CSMA/CD (Carrier Sense
Multiple Access), avec détection de collision (CD).
On distingue différentes variantes de technologies Ethernet suivant le type et le diamètre de câble
utilisé :
- 10Base2 : Le câble utilisé est un câble coaxial fin de faible diamètre, appelé Thin Ethernet,
- 10Base5: Le câble utilisé est un câble coaxial de gros diamètre, appelé Thick Ethernet,
- 10Base-T: Le câble utilisé est une paire torsadée (le T signifie Twisted pair), le débit atteint est
d'environ 10 Mbps,
- 100Base-FX: Permet d'obtenir un débit de 100Mbps en utilisant une fibre optique multimode
(F signifie Fiber).
- 100Base-TX: Comme 10Base-T mais avec un débit 10 fois plus important (100Mbps),
- 1000Base-T: Utilise une double paire torsadée de catégorie 5 ou supérieure et permet un
débit d'un Gigabit par seconde.
- 1000Base-SX: Basé sur une fibre optique multimode utilisant un signal de faible longueur
d'onde (S signifie short) de 850 nanomètrs (770 à 860 nm).
- 1000Base-LX: Basé sur une fibre optique multimode utilisant un signal de longueur d'onde
élevé (L signifie long) de 1300 nm (1270 à 1355 nm).
Ethernet est une technologie de réseau très utilisée car le prix de revient d'un tel réseau n'est pas
très élevé
NB :
2.3. FDDI
VANGAH Aristide | Réseaux Locaux – Première Edition Page 21
Cours de Réseaux Locaux – Première Année
La topologie logique LAN FDDI (Fiber Distributed Data Interface) est une technologie d'accès au
réseau sur des lignes de type fibre optique. Il s'agit en fait d'une paire d'anneaux (l'un est dit
"primaire", l'autre, permettant de rattraper les erreurs du premier, est dit "secondaire"). Le FDDI est
un anneau à jeton à détection et correction d'erreurs (c'est là que l'anneau secondaire prend son
importance).
Le jeton circule entre les machines à une vitesse très élevée. Si celui-ci n'arrive pas au bout d'un
certain délai, la machine considère qu'il y a eu une erreur sur le réseau.
La topologie FDDI ressemble de près à celle de Token Ring à la différence près qu'un ordinateur
faisant partie d'un réseau FDDI peut aussi être relié à un concentrateur MAU d'un second réseau. On
parle alors de système biconnecté.
Le choix de la méthode d’accès au réseau est déterminé par la carte réseau. Certaines cartes
réseaux ne peuvent fonctionner qu’avec telle ou telle méthode d’accès. Avant d’acheter une carte
réseau pour intégrer une nouvelle station sur un réseau préexistant, il faut s’assurer qu’elle est
compatible avec la méthode d’accès déjà utilisée sur le réseau. Sur un réseau, il ne peut avoir qu’une
Toutes les cartes réseaux doivent être du même type, ainsi, par ricochet, la méthode d’accès au
réseau est la même pour tout le monde. Les cartes réseaux doivent transmettre à la même vitesse.
En général, les cartes réseaux de même type, mais provenant de fabricants différents, sont
compatibles…
La carte réseau doit « écouter » le câble du réseau (écouter si une fréquence circule, si une
porteuse passe, si un signal défile, …), attendre que le câble soit libre (qu’il n’y ait pas ou
plus de porteuse), émettre et retransmettre si les trames ont été détruites pendant le voyage.
En un mot, il faut éviter les collisions de paquets.
Quand deux ordinateurs émettent exactement en même temps, leurs trames respectives
vont se rencontrer et le signal de chacune sera complètement brouillé. Les trames qui sont
rentrée en collision ne sont plus exploitables, et leurs émetteurs doivent les réexpédier, si
possible en évitant une nouvelle collision…
La méthode d’accès CSMA/CD (Carrier-Sense Multiple Access / Collision Detection) impose à toutes
VANGAH Aristide | Réseaux Locaux – Première Edition Page 23
Cours de Réseaux Locaux – Première Année
les stations d’un réseau d’écouter continuellement le support de communication, pour détecter les
porteuses et les collisions. C’est le transceiver (le mot valise « transmeter et receiver » qui écoute le
câble, et qui lit les entêtes des paquets (de 64 octets à 1500 octets au maximum). La méthode d’accès
CSMA/CD est relativement fiable et rapide pour les réseaux composés d’un nombre restreint de
stations. Plus le nombre de station est important, plus le risque de collision croît, plus le nombre de
collisions augmente, et plus les délais d’attente sont importants. Le nombre de collision peut
« exploser » rapidement, le réseau saturer, si le nombre de station est excessif.
L’idée est que les participants ne peuvent envoyer des données via le réseau que si le support de
transmission est libre. Le support de détection d’état vérifie donc le canal à tout moment. Les données
ne sont pas envoyées tant que le canal n’est pas disponible.
L’accès multiple au réseau, plusieurs ordinateurs peuvent émettre en même temps, le risque
de collision est accepté. Il n’y a pas de priorité, ni besoin d’une autorisation pour émettre.
Ecoute du câble et détection de la porteuse
Ecoute du câble et détection des collisions
Interdiction à toutes les stations d’un réseau d’émettre si le support n’est pas libre
En cas de collision :
Les stations concernées cessent de transmettre pendant une durée aléatoire
Les stations émettent de nouveau si le câble est libre après ces délais
La distance maximale entre deux stations est de 2500 mètres. En parcourant le support, le
signal s’atténue, les cartes réseaux doivent être en mesure de détecter une collision en bout de
câble, or elles n’entendent plus rien au-delà d’une certaine distance (ni collisions, ni
porteuses).
Une méthode à contention, les ordinateurs qui veulent émettre doivent rivaliser entre eux
pour accéder au support. Les rivaux sont départagés par la durée aléatoire du délai d’attente en
cas de collision.
Fiable, rapide mais limité à un nombre de stations restreint
La méthode d’accès CSMA/CA (Carrier-Sense Multiple Access / Collision Avoidance) n’est pas une
méthode très répandue. Les collisions sont proscrites, chaque station avant d’émettre doit signaler son
intention. Les demandes de transmission augmentent le trafic et ralentissent le réseau. La méthode
d’accès CSMA/CA est plus lente que CSMA/CD.
CSMA/CA est principalement utilisé dans les réseaux sans fil. L’idée de base de CSMA/CA repose
sur le principe de « Listen before Talking ». Ce qui signifie qu’il faut d’abord vérifier si le service est
libre (« idle ») avant que la station puisse commencer une transmission. Mais ce n’est que la première
étape. D’autres fonctions au sein du processus garantissent dans une large mesure l‘évitement des
collisions.
Un plan de structure complexe tente de s’assurer que deux participants ou plus ne démarrent pas une
transmission en même temps. Cela permet donc d’éviter les collisions. S’il se produit néanmoins des
chevauchements, ceux-ci sont détectés et la transmission est alors réessayée.
APPLICATION
CSMA (en français : accès multiple avec écoute de la porteuse) est une méthode de base qui contrôle la
communication de plusieurs participants sur un support de transmission partagé et décentralisé.
Cependant, il est désormais disponible en trois variantes différentes, qui dépendent du support de
transmission. Alors que, CSMA/CD est développé pour le réseau Ethernet, et CSMA/CR est utilisé dans
les réseaux CAN (Controller Area Networks) qui sont principalement utilisés dans de nombreuses
industries, notamment l’automobile.
Pour comprendre exactement ce qu’est le Carrier Sense Multiple Access with Collision Avoidance, il est
important et logique d’examiner les composants individuels :
Carrier Sense (CA) : l’idée est que les participants ne peuvent envoyer des données via le réseau
que si le support de transmission est libre. Le support de détection d’état vérifie donc le canal à
tout moment. Les données ne sont pas envoyées tant que le canal n’est pas disponible.
Multiple Access (MA) : plusieurs stations partagent un même support de transmission. Pour que
la communication soit efficace, il est essentiel qu’elles adhèrent à un protocole contraignant.
Collision Avoidance (CA) : un plan de structure complexe tente de s’assurer que deux
participants ou plus ne démarrent pas une transmission en même temps. Cela permet donc
d’éviter les collisions. S’il se produit néanmoins des chevauchements, ceux-ci sont détectés et la
transmission est alors réessayée.
La méthode du passage du jeton est une méthode propre aux réseaux en anneau. Les collisions sont
proscrites, les stations ne peuvent pas émettre simultanément. Les stations doivent attendre le jeton
qui donne la permission de « parler », il y a des délais d’attente pour obtenir le jeton, mais il n’y a pas
de collisions, donc pas de délais de retransmission. Le jeton est un paquet spécial qui passe de station
en station, et qui autorise celle qui le détient à émettre.
Les stations sont ordonnées les unes par rapport aux autres, et la plus haut dans la hiérarchie a la
responsabilité de surveiller le bon fonctionnement du jeton (la durée des trames pour parcourir
l’anneau, le temps moyen de rotation, la suppression des trames qui sont revenues à leur expéditeur,
l’avertissement des autres stations qu’il est toujours le superviseur,…), et éventuellement d’en créer
un nouveau. Le superviseur d’un réseau Token Ring est d’abord la première station allumée sur le
réseau, puis si celle-ci se déconnecte, il y a une l’élection du nouveau superviseur. Après une élection,
c’est la station qui possède l’adresse MAC la plus grande qui est élue superviseur.
La méthode d’accès de la priorité de la demande, aussi appelée DPMA (Demand Priority Access
Method), est une méthode d’accès récente qui a été mise au point pour les réseaux mixtes en bus en
étoile.
Les réseaux 100VG-AnyLAN (ETHERNET à 100 Mb/s) répondent à la norme IEEE 802.12 définie
pour les réseaux en bus en étoile. Les réseaux 100VG-AnyLAN sont constitués de plusieurs
concentrateurs (HUB), ou de répéteurs. Les concentrateurs sont reliés ensembles et forment une
architecture « double », une architecture à deux niveaux, les concentrateurs forment entre eux un
bus, comme une épine dorsale, et chaque concentrateur contient un anneau auquel sont reliées les
stations. Ainsi, des données peuvent être transmises simultanément, mais à l’intérieur de sous-
ensembles différents. D’autre part le câblage d’un réseau 100VB-AnyLAN est constitué de quatre
paires de fil ce qui permet quatre transmissions simultanées.
Les concentrateurs gèrent l’accès au réseau. Le réseau est composé du même nombre de sous-
ensembles qu’il y a de concentrateurs. Chaque concentrateur s’occupe de son sous-ensemble. Le
réseau est en quelque sorte segmenté en plusieurs partie. Les messages ne sont pas diffusés sur tout le
réseau, mais seulement sur la partie concernée. La gestion de l’accès au réseau est centralisée (il y a
autant de pôles centralisateurs que de concentrateurs).
Les concentrateurs interrogent tous les « nœuds terminaux » de la partie du réseau dont ils ont
la charge, c’est à dire toutes les stations branchées sur leur anneau, et tous les concentrateurs auxquels
ils sont reliés. L’interrogation des nœuds s’effectue à tour de rôle (méthode « round-robin »), et
permet à chaque concentrateur de connaître les informations d’adressage et de routage de chacun :
Par exemple, un concentrateur reçoit une demande de transmission de la part d’un ordinateur. La
demande de transmission contient l’adresse du destinataire. Le concentrateur recherche si la route
pour acheminer les données jusqu’au destinataire est libre, puis le cas échéant, il autorise la station à
émettre. Le concentrateur reçoit alors les données et les transmet, soit directement à la station (si
l’ordinateur récepteur est situé sur son propre anneau), soit au concentrateur à travers lequel devront
passer les données (le deuxième concentrateur examine à son tour la partie du réseau qui lui incombe
VANGAH Aristide | Réseaux Locaux – Première Edition Page 27
Cours de Réseaux Locaux – Première Année
et procède de la même façon…). Une demande de transmission peut provenir directement d’une
station ou indirectement d’un concentrateur.
Un ordinateur
Une station
Un serveur
Un dispositif de connectivité :
Un pont
Un routeur
Un commutateur
Etc…
La méthode d’accès de la priorité de la demande est une méthode d’accès à contention. La méthode
d’accès de la priorité de la demande implique que deux ordinateurs peuvent se retrouver en situation
de « rivaliser » pour obtenir le droit de « parler », mais cette méthode d’accès a l’avantage de
permettre une configuration où certains types de données, définis à l’avance, ont la priorité sur
d’autres. La priorité de certains types de données permet de résoudre les conflits ; quand deux
demandes d’accès ont la même priorité, alors les deux demandes sont traités en alternance.
Les différentes méthodes d’accès peuvent être rassemblées dans un tableau comparatif :
ARCNET
1. Protocole
Description formelle de règles et de conventions régissant la manière dont les stations d’un réseau
échangent des informations.
Le protocole est un élément déterminant. Il est couramment lié aux couches 3 et 4 du modèle OSI
(transport et réseau). Il segmente les données en « paquets » qu’il place dans le champ « données »
des trames créées par les couches physiques. Il établit les relations entre adresses logiques et
physiques (MAC) de tous les destinataires, choisit l’itinéraire le plus approprié pour assurer leur
acheminement (« routage ») et corrige les erreurs de transmission.
2. Protocole routé
Un protocole routé permet au routeur de transmettre des données entre les nœuds de différents
réseaux. On distingue le protocole routé et routable, le protocole non routable, le protocole routé et
non routable
Un réseau de stockage se différencie des autres systèmes de stockage tels que le NAS (Network
Attached Storage) par un accès bas niveau aux disques. Pour simplifier, le trafic sur un SAN est très
similaire aux principes utilisés pour l'utilisation des disques internes (ATA, SCSI). C'est une
mutualisation des ressources de stockage.
Dans le cas du NAS, la ressource de stockage est directement connectée au réseau IP de l'entreprise.
Le serveur NAS intègre le support de multiples systèmes de fichiers réseau, tels que Common
Internet File System (CIFS) protocole de partage de Microsoft et de Samba, Network File System
(NFS) qui est un protocole de partage de fichiers Unix, ou encore AFP (AppleShare File Protocol) qui
est l'équivalent pour la technologie Apple. Une fois connecté au réseau, il peut jouer le rôle de
plusieurs serveurs de fichiers partagés.
Dans le cas du SAN, les baies de stockage n'apparaissent pas comme des volumes partagés sur le
réseau. Elles sont directement accessibles en mode bloc par le système de fichiers des serveurs. En
clair, chaque serveur voit l'espace disque d'une baie SAN auquel il a accès comme son propre disque
dur. L'administrateur doit donc définir très précisément les Logical Unit Number (LUN, unités
logiques), le masking et le zoning, pour qu'un serveur Unix n'accède pas aux mêmes ressources
qu'un serveur Windows utilisant un système de fichiers différent.
L'un des premiers intérêts du SAN est de ne plus avoir à se préoccuper de faire évoluer la quantité de
disques autrefois dévolus à un serveur particulier ou de désallouer de l'espace non utilisé d'un
serveur surdimensionné en espace disque.
L'espace disque n'est plus limité par les caractéristiques des serveurs, et est évolutif à volonté par
l'ajout de disques ou de baies de stockage sur le SAN. L'espace de stockage physique mutualisé pour
les serveurs permet d'optimiser la gestion des disques, et de rendre plus aisées les sauvegardes de
données.
Les ressources de stockage ainsi mutualisées (SAN ou NAS) donnent la possibilité de mettre en
œuvre des fonctions de réplication (copie de données synchrone ou asynchrone entre deux baies) et
de snapshot (duplication d'un volume pour l'utiliser sur un autre serveur ou pour le sauvegarder par
exemple).
Ces fonctions permettent de sécuriser les données (implantation physique dans des locaux distants)
et d'optimiser la disponibilité des applications. Ces fonctions sont réalisées de façon transparente
pour les serveurs, et la réplication et la copie de données n'affectent pas les ressources du serveur,
puisqu'elles sont réalisées au niveau des contrôleurs SAN; l'impact sur les temps de réponse est en
général négligeable.
Réplication distante : certaines solutions SAN disposent de possibilité de transfert de données à
distance, typiquement sur un site distant dans le cadre d'un plan de continuité d'activité (PCA).
Les SAN sont construits dans le but de fournir de l'espace disque rapide et fiable. La technologie la
plus répandue pour y parvenir est l'utilisation du protocole Fibre Channel, qui permet d'atteindre des
débits élevés (16 Gbit/s). Cette technologie induit la mise en œuvre de switchs ou de directors (gros
switches de plus de 64 ports, garantissant une disponibilité maximale et une évolutivité par ajout de
cartes contenant des ports de connexion). Le réseau de stockage ainsi constitué est appelé un fabric.
D'autres technologies ont fait leur apparition :
iSCSI : ce sont les mêmes commandes SCSI mais sur TCP/IP ;
FCoE (Fibre channel Over Ethernet) : les trames du protocole Fibre Channel sont transmises
sur un réseau Ethernet.
Le protocole le plus utilisé et standardisé reste toutefois le Fibre Channel.
1. Extranet
Un réseau Extranet est un lien entre l’entreprise et ses partenaires. Il améliore de fait les relations
externes de l’entreprise par une communication plus « souple », une information de qualité qui
circule rapidement et qui n’autorise plus d’erreurs « d’aiguillage ». Les retours des fournisseurs
permettent à l’entreprise d’optimiser la production par exemple. Outre les qualités de rapidité
attribuées aux nouvelles technologies, la possibilité de faire travailler à distance des personnes
éloignées, autorise un choix plus affiné des compétences recherchées et une sélection par le haut :
l’entreprise peut faire appel aux meilleurs pour collaborer via l’Intranet, pour un coût abordable.
2. Intranet
L'Intranet est un réseau d'entreprise (privé) qui utilise les technologies de l'Internet (public) et
notamment le Word Wide Web. Son rôle est avant tout de permettre le partage de l’information et
la communication au sein de l’entreprise. Basé sur les principes de l'Internet, il offre aux utilisateurs
VANGAH Aristide | Réseaux Locaux – Première Edition Page 35
Cours de Réseaux Locaux – Première Année
la possibilité de produire et de diffuser facilement l'information, que ce soit au travers de listes de
diffusion, du courrier électronique ou d’un serveur Web. L'Intranet permet une transformation
majeure des flux d’informations au sein de l’entreprise. Assimilable à un réseau isolé et sécurisé, il
est administré et contrôlé par une entité qui a pouvoir sur le débit octroyé aux communications et
les droits accordés aux utilisateurs. Ces caractéristiques élargissent le potentiel de l'Intranet à des
applications actuellement difficilement exploitables sur Internet, telles que la téléphonie ou la
visioconférence.
Une raison qui peut favoriser l’intégration d’un Intranet est aussi le coût. En effet, une application
Intranet est moins chère a fabriquer, et surtout moins chère a maintenir. Elle est aussi moins longue
a développer. Tous ces éléments sont des facteurs d’allégement du coût, quelque soit l’échelle de
temps considérée.
Directement dérivée de la première, une autre raison est celle de la satisfaction de l’utilisateur, voire
du client. Le cycle de vie du logiciel est plus court, l’interface est intuitive, et les éventuels bugs3
peuvent être corrigés très rapidement. De fait, le déploiement d’une application Intranet est d’une
facilite déconcertante comparativement aux applications de même complexité.
La technologie Push
Le Push est un nouveau concept de diffusion d'information sur les réseaux Internet / Intranet.
L'utilisation classique de l'Internet consiste à localiser puis aller chercher l'information. C’est le
principe du Web (modèle ‘Pull’). La technologie Push repose sur le principe de la diffusion
d’informations multicanaux, un peu à la manière d’une chaîne de télévision. En réglant un client sur
des canaux spécifiques, l’utilisateur reçoit directement l’information sur son ordinateur.
Dans les deux cas, que ce soit l’Intranet ou le Push, ces nouvelles technologies entraînent des
comportements de communication et de coopération.
L’apport Internet
En association à l’Intranet, Internet permet de constituer de grosses bases de données grâce à
l’utilisation des formulaires que les entreprises mettent en place sur leur site. Un outil qui permet
d’offrir un produit, un service ou une promotion plus ciblée et en accord avec les centres d’intérêt du
client. Un prestataire de service pourra donc établir un lien entre un client et une personne du
service après-vente de l’entreprise pour trouver une solution à un problème donné. Internet peut ici
jouer le complément logique d’un premier contact (humain) entre les deux intéressés.
Réduction des coûts, flexibilité de circulation de l’information, efficacité des processus et autre
circuit de traitement sont les forces des nouvelles technologies.
Elles assurent plus de transparence au sein de l’entreprise et accroissent la fidélisation du client. En
outre, elles permettent de fournir par un ciblage plus précis le service dont le client pourrait avoir
besoin.
En électronique, la bande passante ((en) pass-band) d'un système est l'intervalle de fréquences dans
lequel l'affaiblissement du signal est inférieur à une valeur spécifiée (CEI). C'est une façon sommaire
de caractériser la fonction de transfert d'un système, pour indiquer la gamme de fréquences qu'un
système peut raisonnablement traiter (Dic. Phys.).
La bande passante doit être distinguée de la largeur de bande ((en) bandwidth), d'une définition plus
générale et qui concerne aussi bien les systèmes que les signaux (CEI).
Par analogie, dans le domaine des réseaux informatiques, spécialement les accès à internet à haut
débit, on utilise le terme bande passante pour désigner le débit binaire maximal d'une voie de
transmission. La ligne de transmission jusqu'à l'usager est le composant déterminant. La notion de
bande passante s'applique mal aux lignes de transmission, qui atténuent progressivement les
fréquences et connaissent des phénomènes de déphasage et de réflexion d'ondes, et dont le débit
numérique dépend en outre du niveau de bruit de fond.
1. Définition
Dans le domaine de l'informatique, la bande passante indique (par abus de langage) un
débit d'informations. Le terme exact est le débit binaire.
L'origine du terme est une analogie avec la bande passante en électronique. La bande passante d'un
câble mesurant le nombre maximal d'oscillations par seconde qu'un signal peut y prendre sans être
trop atténué, si le signal est celui d'une liaison informatique comme une liaison série, le nombre
d'oscillations va refléter le nombre d'informations que l'on peut transférer durant une seconde.
La bande passante peut concerner le débit d'un périphérique (tel qu'une mémoire, un disque dur,
etc.) ou d'un medium de communication (réseau, bus, etc.) ou de manière générale n'importe quel
débit d'information comme entre le processeur et la mémoire cache.
On mesure généralement cette bande passante en octets (byte en anglais) par seconde (o/s, ou en
anglais " Byte per second ", B/s) ou en bits par secondes (bit/s ou bps), plus généralement utilisée
par les fournisseurs d'accès internet pour donner le débit maximum d'un abonnement.
La bande passante "utile" (visualisée par l'utilisateur) peut être différente de celle délivrée par le
fournisseur. En effet de nombreux facteurs influent sur les performances applicatives. Ainsi, la
latence (délai de transmission) associée à la taille des fenêtres TCP de la machine réceptrice limitent
le débit utilisable par une session applicative selon la formule suivante: Débit Max = Taille de
la fenêtre TCP / Latence.
Exemple : Débit max "Toulouse-Dubai" = 65535 Bytes / 0.220 s = 297886.36 Bytes/s = (8 * 297886.36
)/ (1024 * 1024) = 2.27 Mbit/s.
Le débit ressenti par un utilisateur n'est donc pas uniquement fonction de la bande passante
souscrite auprès d'un opérateur.
Exemple :
Un système dont la bande passante est 20 Hz - 20 kHz convient pour un signal dont la largeur de
bande est 20 Hz - 16 kHz.
La petite marge assure que le système traite convenablement les plus hautes fréquences du signal.
3. Traitement du signal
La bande passante est la largeur, mesurée en hertz, d'une plage de fréquences f2 - f1. Elle peut aussi
être utilisée pour décrire un signal, dans ce cas le terme désigne la différence entre la plus haute et
la plus basse fréquence du signal (ce que l'on appelle aussi l'encombrement spectral). Elle est
habituellement notée B ou BP.
Introduction
Les constructeurs informatiques ont proposé des architectures réseaux propres à leurs équipements.
Par exemple, IBM a proposé SNA, DEC a proposé DNA... Ces architectures ont toutes le même défaut
: du fait de leur caractère propriétaire, il n'est pas facile des les interconnecter, à moins d'un accord
entre constructeurs. Aussi, pour éviter la multiplication des solutions d'interconnexion
d'architectures hétérogènes, l'ISO (International Standards Organisation), organisme dépendant de
l'ONU et composé de 140 organismes nationaux de normalisation, a développé un modèle de
référence appelé modèle OSI (Open Systems Interconnection). Ce modèle décrit les concepts utilisés
et la démarche suivie pour normaliser l'interconnexion de systèmes ouverts (un réseau est composé
de systèmes ouverts lorsque la modification, l'adjonction ou la suppression d'un de ces systèmes ne
modifie pas le comportement global du réseau).
Au moment de la conception de ce modèle, la prise en compte de l'hétérogénéité des équipements
était fondamentale. En effet, ce modèle devait permettre l'interconnexion avec des systèmes
hétérogènes pour des raisons historiques et économiques. Il ne devait en outre pas favoriser un
fournisseur particulier. Enfin, il devait permettre de s'adapter à l'évolution des flux d'informations à
traiter sans remettre en cause les investissements antérieurs. Cette prise en compte de
l'hétérogénéité nécessite donc l'adoption de règles communes de communication et de coopération
entre les équipements, c'est à dire que ce modèle devait logiquement mener à une normalisation
internationale des protocoles.
Le modèle OSI n'est pas une véritable architecture de réseau, car il ne précise pas réellement les
services et les protocoles à utiliser pour chaque couche. Il décrit plutôt ce que doivent faire les
couches. Néanmoins, l'ISO a écrit ses propres normes pour chaque couche, et ceci de manière
indépendante au modèle, i.e. comme le fait tout constructeur.
Les premiers travaux portant sur le modèle OSI datent de 1977. Ils ont été basés sur l'expérience
acquise en matière de grands réseaux et de réseaux privés plus petits ; le modèle devait en effet être
valable pour tous les types de réseaux. En 1978, l'ISO propose ce modèle sous la norme ISO IS7498.
En 1984, 12 constructeurs européens, rejoints en 1985 par les grands constructeurs américains,
adoptent le standard.
Les couches basses (1, 2, 3 et 4) sont nécessaires à l'acheminement des informations entre les
extrémités concernées et dépendent du support physique. Les couches hautes (5, 6 et 7) sont
responsables du traitement de l'information relative à la gestion des échanges entre systèmes
informatiques. Par ailleurs, les couches 1 à 3 interviennent entre machines voisines, et non entre les
machines d'extrémité qui peuvent être séparées par plusieurs routeurs. Les couches 4 à 7 sont au
contraire des couches qui n'interviennent qu'entre hôtes distants.
3. Encapsulation
L'encapsulation, spécifiquement pour les réseaux informatiques, est un procédé consistant à inclure
les données d'un protocole dans un autre protocole.
Le principe de l'encapsulation dans le modèle OSI est aussi une notion fondamentale pour bien
comprendre le fonctionnement de la transmission d'un hôte d'origine à sa destination. Chaque
couche parle à l'autre dans un contexte d'égal à égal.
Le concept important est le suivant : il faut considérer que chaque couche est programmée comme si
elle était vraiment horizontale, c'est à dire qu'elle dialoguait directement avec sa couche paire
réceptrice. Au moment de dialoguer avec sa couche paire, chaque couche rajoute un en-tête et
l'envoie (virtuellement, grâce à la couche sous-jacente) à sa couche paire.
PARTIE 2
PRESEENTATION DE LA PILE TCP/IP
Introduction
TCP/IP désigne communément une architecture réseau, mais cet acronyme désigne en fait 2
protocoles étroitement liés : un protocole de transport, TCP (Transmission Control Protocol) qu'on
utilise "par-dessus" un protocole réseau, IP (Internet Protocol). Ce qu'on entend par "modèle
TCP/IP", c'est en fait une architecture réseau en 4 couches dans laquelle les protocoles TCP et IP
jouent un rôle prédominant, car ils en constituent l'implémentation la plus courante. Par abus de
langage, TCP/IP peut donc désigner deux choses : le modèle TCP/IP et la suite de deux protocoles
TCP et IP.
Le modèle TCP/IP, comme nous le verrons plus bas, s'est progressivement imposé comme modèle de
référence en lieu et place du modèle OSI. Cela tient tout simplement à son histoire. En effet,
contrairement au modèle OSI, le modèle TCP/IP est né d'une implémentation ; la normalisation est
venue ensuite. Cet historique fait toute la particularité de ce modèle, ses avantages et ses
inconvénients.
1. Description du modèle
Le modèle TCP/IP peut en effet être décrit comme une architecture réseau à 4 couches
Le modèle OSI a été mis à côté pour faciliter la comparaison entre les deux modèles.
2.2. Critique
Une des premières critiques que l'on peut émettre tient au fait que le modèle TCP/IP ne fait pas
vraiment la distinction entre les spécifications et l'implémentation : IP est un protocole qui fait partie
intégrante des spécifications du modèle.
Une autre critique peut être émise à l'encontre de la couche hôte réseau. En effet, ce n'est pas à
proprement parler une couche d'abstraction dans la mesure où sa spécification est trop floue. Les
constructeurs sont donc obligés de proposer leurs solutions pour "combler" ce manque. Finalement,
on s'aperçoit que les couches physiques et liaison de données sont tout aussi importantes que la
couche transport. Partant de là, on est en droit de proposer un modèle hybride à 5 couches,
rassemblant les points forts des modèles OSI et TCP/IP :
C'est finalement ce modèle qui sert véritablement de référence dans le monde de l'Internet. On a
ainsi gardé la plupart des couches de l'OSI (toutes, sauf les couches session et présentation) car
correctement spécifiées. En revanche, ses protocoles n'ont pas eu de succès et on a du coup gardé
ceux de TCP/IP.
3. Protocole IP
3.1. Définition
IP signifie "Internet Protocol", protocole Internet. Il représente le protocole réseau le plus répandu. Il
permet de découper l'information à transmettre en paquets, de les adresser, de les transporter
indépendamment les uns des autres et de recomposer le message initial à l'arrivée. Ce protocole
utilise ainsi une technique dite de commutation de paquets. Il apporte, en comparaison à Ipx/Spx et
Netbeui, l'adressage en couche 3 qui permet, par exemple, la fonction principale de routage.
Il est souvent associé à un protocole de contrôle de la transmission des données appelé TCP, on
parle ainsi du protocole TCP/IP. Cependant, TCP/IP est un ensemble de protocole dont voici les plus
connu.
3.2. Rôle
Le protocole IP fait partie de la couche Internet de la suite de protocoles TCP/IP. C'est un des
protocoles les plus importants d'Internet car il permet l'élaboration et le transport des datagrammes
IP (les paquets de données), sans toutefois en assurer la « livraison ». En réalité, le protocole IP traite
les datagrammes IP indépendamment les uns des autres en définissant leur représentation, leur
routage et leur expédition.
Le protocole IP détermine le destinataire du message grâce à 3 champs :
Toute machine d’un réseau local utilisant TCP/IP est identifiée par une adresse IP unique composée
de 4 octets. Un masque de sous-réseau composé également de 4 octets permet de déterminer d’une
part l’adresse de réseau (ou de sous-réseau) et l’adresse de la machine d’autre part.
À l'origine, plusieurs groupes d'adresses ont été définis dans le but d'optimiser le cheminement (ou
le routage) des paquets entre les différents réseaux. Ces groupes ont été baptisés classes d'adresses
IP. Ces classes correspondent à des regroupements en réseaux de même taille. Les réseaux de la
même classe ont le même nombre d'hôtes maximum.
Classe A
Le premier octet a une valeur comprise entre 1 et 126 ; soit un bit de poids fort égal à 0. Ce
premier octet désigne le numéro de réseau et les 3 autres correspondent à l'adresse de l'hôte.
L'adresse réseau 127.0.0.0 est réservée pour les communications en boucle locale.
Classe B
Le premier octet a une valeur comprise entre 128 et 191 ; soit 2 bits de poids fort égaux à 10. Les
2 premiers octets désignent le numéro de réseau et les 2 autres correspondent à l'adresse de
l'hôte.
Classe C
Le premier octet a une valeur comprise entre 192 et 223 ; soit 3 bits de poids fort égaux à 110. Les
3 premiers octets désignent le numéro de réseau et le dernier correspond à l'adresse de l'hôte.
Classe D
Le premier octet a une valeur comprise entre 224 et 239 ; soit 3 bits de poids fort égaux à 111. Il
s'agit d'une zone d'adresses dédiées aux services de multidiffusion vers des groupes d'hôtes (host
groups).
Classe E
Le premier octet a une valeur comprise entre 240 et 255. Il s'agit d'une zone d'adresses réservées
aux expérimentations. Ces adresses ne doivent pas être utilisées pour adresser des hôtes ou des
groupes d'hôtes.
Pour compenser les problèmes de distribution de l'espace d'adressage IP, la première solution
utilisée a consisté à découper une classe d'adresses IP A, B ou C en sous-réseaux. Cette technique
appelée subnetting a été formalisée en 1985 avec le document RFC950.
Si cette technique est ancienne, elle n'en est pas moins efficace face aux problèmes d'exploitation
des réseaux contemporains. Il ne faut jamais oublier que le découpage en réseaux ou sous-réseaux
permet de cloisonner les domaines de diffusion. Les avantages de ce cloisonnement de la diffusion
réseau sont multiples.
Au quotidien, on évite l'engorgement des liens en limitant géographiquement les annonces de
services faites par les serveurs de fichiers. Les services MicroSoft basés sur netBT sont
particulièrement gourmands en diffusion réseau. En effet, bon nombre de tâches transparentes pour
les utilisateurs supposent que les services travaillent à partir d'annonces générales sur le réseau.
Sans ces annonces par diffusion, l'utilisateur doit désigner explicitement le service à utiliser. Le
service d'impression est un bon exemple.
Il existe quantité de vers et/ou virus dont les mécanismes de propagation se basent sur une
reconnaissance des cibles par diffusion. Le ver Sasser en est un exemple caractéristique. En
segmentant un réseau en plusieurs domaines de diffusion, on limite naturellement la propagation de
code malveillant. Le subnetting devient alors un élément de la panoplie des outils de sécurité.
Pour illustrer le fonctionnement du découpage en sous-réseaux, on utilise un exemple pratique. On
reprend l'exemple de la classe C192.168.1.0 dont le masque réseau est par définition 255.255.255.0.
Sans découpage, le nombre d'hôtes maximum de ce réseau est de 254. Considérant qu'un domaine
de diffusion unique pour 254 hôtes est trop important, on choisit de diviser l'espace d'adressage de
cette adresse de classe C. On réserve 3 bits supplémentaires du 4ème octet en complétant le
masque réseau. De cette façon on augmente la partie réseau de l'adresse IP et on diminue la partie
hôte.
Adresse de
Adresse réseau 192.168. 1. 0 Plage d'adresses utilisables
diffusion
Masque de réseau 255.255.255.224
Sous-réseau 0 192.168. 1. 0 192.168.1. 1 - 192.168.1. 30 192.168.1. 31
Sous-réseau 1 192.168. 1. 32 192.168.1. 33 - 192.168.1. 62 192.168.1. 63
Sous-réseau 2 192.168. 1. 64 192.168.1. 65 - 192.168.1. 94 192.168.1. 95
Sous-réseau 3 192.168. 1. 96 192.168.1.97 - 192.168.1.126 192.168.1.127
Sous-réseau 4 192.168. 1.128 192.168.1.129 - 192.168.1.158 192.168.1.159
Sous-réseau 5 192.168. 1.160 192.168.1.161 - 192.168.1.190 192.168.1.191
Sous-réseau 6 192.168. 1.192 192.168.1.193 - 192.168.1.222 192.168.1.223
Sous-réseau 7 192.168. 1.224 192.168.1.225 - 192.168.1.254 192.168.1.255
Selon les termes du document RFC950, les sous-réseaux dont les bits de masque sont tous à 0 ou
tous à 1 ne devaient pas être utilisés pour éviter les erreurs d'interprétation par les protocoles de
routage dits classful comme RIPv1. En effet, ces protocoles de routages de «première génération» ne
véhiculaient aucune information sur le masque sachant que celui-ci était déterminé à partir de
l'octet le plus à gauche. Dans notre exemple ci-dessus, il y avait confusion aux niveaux de l'adresse
de réseau et de diffusion.
- L'adresse du sous-réseau 192.168.1.0 peut être considérée comme l'adresse réseau de 2
réseaux différents : celui avec le masque de classe C (255.255.255.0) et celui avec le masque
complet après découpage en sous-réseaux (255.255.255.224).
- De la même façon, l'adresse de diffusion 192.168.1.255 est la même pour 2 réseaux
différents : 192.168.1.0 ou192.168.1.224.
Depuis la publication du document RFC950, en 1985, les protocoles de routage qui servent à
échanger les tables d'adresses de réseaux connectés entre routeurs ont évolué. Tous les protocoles
contemporains sont conformes aux règles de routage inter-domaine sans classe (CIDR). Les
protocoles tels que RIPv2, OSPF et BGP intègrent le traitement des masques de sous-réseaux. Ils
peuvent même regrouper ces sous-réseaux pour optimiser le nombre des entrées des tables de
routage. Pour appuyer cet argument, le documentRFC1878 de 1995 spécifie clairement que la
pratique d'exclusion des sous-réseaux all-zeros et all-ones est obsolète.
5. Les exceptions
- Le réseau 127.0.0.0 est réservé pour les tests de boucle locale avec notamment l’adresse IP
127.0.0.1 qui est l’adresse « localhost » c’est-à-dire de boucle locale de votre PC.
- Le réseau 0.0.0.0 est lui aussi réservé (et utilisé notamment pour définir une route par défaut
sur un routeur).
PARTIE III
LES MEDIAS RESEAUX
1. Le câble coaxial
Utilisé dans les réseaux de type bus(Ethernet). Le signal transporté est protégé des interférences
électriques et subit qu'une faible atténuation, qui permet des débits relativement importants sur des
distances assez grandes. On peut y acheminer un nombre important de messages simultanément.
- La gaine permet de protéger le câble de l'environnement extérieur.
- Le blindage (enveloppe métallique) permet de protéger les données transmises sur le support des
parasites pouvant causer une distorsion des données.
- L'isolant constitué d'un matériau diélectrique permettant d'éviter tout contact avec le blindage,
provoquant des interactions électriques.
- L'âme, accomplissant la tâche de transport des données, composée d’un ou de plusieurs brins
torsadés.
Grâce à son blindage, il peut être utilisé sur des longues distances et à haut débit (contrairement à
un câble paire torsadé), et supporte un débit de 10 Mbits/s sur plusieurs centaines de mètres mais
est d'un prix plus élevé.
Sa bande passante maximum est d'environ 150 MHz. Les pertes de signal sont de nature multiple sur
un câble coaxial : l'augmentation de la longueur du câble, l'augmentation de la fréquence et la
diminution du diamètre du conducteur mènent à des pertes de signal
- 10 Base 2 ou Ethernet fin : 10 Mbit/s sur 200 m maximum, diamètre 5 mm, connecteur de
type coupleur BNC en T Femelle/Mâle/Femelle, 30 postes maximum.
- 10 Base 5 ou Ethernet épais : 10 Mbit/s sur 500 m maximum, diamètre 10 mm, connecteur
de type coupleur BNC en T Femelle/Mâle/Femelle, 100 postes maximum.
- 10 Broad 36 : 10 Mbit/s sur de longue distance.
Le BNC est un réseau qui ne doit pas être coupé, n'oubliez donc pas les bouchons de 50 ohms de
terminaison, ils éliminent les "réverbérations sur le câble" : le signal transmis revient sur le câble et
les stations croyant à un signal véritable attendent que la ligne soit libre
Son intérêt principal est que cette même paire torsadée peut servir au réseau téléphonique, au
réseau informatique et vidéo ; elle pourra être utilisée ultérieurement pour évoluer vers des réseaux
100 Base T et même GigaBit. On rencontre la paire torsadée très souvent comme support des
réseaux 10/100 Base T mais aussi selon d'autres normes IEEE (Institute for Electrical and Electronics
Engineers). Voici les différentes normes de l'Ethernet en matière de câble à paire torsadée :
- 10 Base T : sur 100 mètres maximum, vitesse de 10 Mbps, chaque extrémité d'un tel câble
étant muni d'une prise RJ45.
- 100 Base TX : sur 100 mètres maximum, vitesse de 100 Mbps, chaque extrémité d'un tel câble
étant muni d'une prise RJ45.
- 1000 Base T : sur 100 mètres maximum, vitesse de 1000 Mbps, chaque extrémité d'un tel
câble étant muni d'une prise RJ45.
La norme EIA/TIA
Connecteur dit: RJ45 (souvent utilisée pour terminer les câbles de type paire torsadé et comporte 8
broches de connexions électriques). (existe aussi: RJ9, RJ11, RJ12…)
3. La fibre optique
La fibre optique en verre, elle transmet les messages, qui sont codés numériquement en impulsions
lumineuses et transmis sur de grandes distances le long de ces minces fibres. Sur ce type de support,
les signaux transmis sont complètement insensibles aux rayonnements électromagnétiques, ne
subissant ainsi aucune altération. Un câble à fibres optiques peut acheminer simultanément
plusieurs milliers de messages. La fibre optique permet de très grandes vitesses sur de grandes
distances (150 mégabits par seconde (Mbits/s) sur une dizaine de kilomètres. Grâce à de telles
vitesses, il devient possible de transmettre en temps réel des sons, et même des images animées.
Les grands avantages de la fibre optique par rapport aux autres supports filaires sont : peu de perte
de signal, vitesse de transmission élevée, faible poids, immunité aux interférences
électromagnétiques, pas d'échauffement, etc.
Deux types de fibres sont utilisés : la fibre monomode (SMF - Single Mode Fiber) et la fibre
multimode (MMF - Multi Mode Fiber). En optique, le mode c'est le nombre de chemins possible pour
un signal lumineux. Dans une fibre multimode, la lumière peut emprunter un grand nombre de
chemins alors que dans une fibre monomode, elle est est prisonnière d'un trajet direct. La fibre
monomode est une fibre plus performante que la fibre multimode, mais elle nécessite l'utilisation de
sources lumineuses (laser) très puissantes.
Voici les différentes normes de l'Ethernet en matière de fibre optique :
VANGAH Aristide | Réseaux Locaux – Première Edition Page 58
Cours de Réseaux Locaux – Première Année
FOIRL (Fiber Optic Inter Repeater Link / lien inter-répéteur sur fibre optique) : le standard original
pour l'Ethernet sur la fibre optique. Vitesse de 10 Mbps.
- 10 Base-FL : mise à jour du standard FOIRL, vitesse de 10 Mbps.
- 100 Base-FX : vitesse de 100 Mbps.
- 1000 Base-LX : monomode, vitesse de 1000 Mbps, portée de 3 km.
- 1000 Base-LX : multimode, vitesse de 1000 Mbps, portée de 550 m.
- 1000 Base-SX : multimode, diamètre de 50 micromètres, vitesse de 1000 Mbps, portée de
550 m.
- 1000 Base-SX : multimode, diamètre de 64 micromètres, vitesse de 1000 Mbps, portée de
275 m.
- 1000 Base-LH : vitesse de 1000 Mbps, portée de 70 km.
- 10G Base-SR : multimode, vitesse de 10 Gbps, portée de 26 à 82 m.
- 10G Base-LX4 : multimode, vitesse de 10 Gbps, portée de 240 à 300 m.
- 10G Base-LX4 : monomode, vitesse de 10 Gbps, portée de 10 Km.
- 10G Base-LR et ER : monomode, vitesse de 10 Gbps, portée de 10 à 40 Km.
Enfin, la bande passante d'une fibre optique étant très large (plusieurs MHz), il est aisé de faire du
multiplexage fréquentiel pour faire transiter simultanément plusieurs communications.
1. Historique
En 1997; alors que l'attention est accaparée par le succès d'Internet et l'euphorie boursière
montante, un événement est passé inaperçu sauf pour quelques spécialistes et observateurs:
l'adoption du standard IEEE 802.11 ou Ethernet sans fil. Exploitant la bande de fréquence de
2,4 GHz, le 802.11 plafonne à un débit de 2 Mbits/s au maximum. Ce précurseur est suivi de
plusieurs déclinaisons dont le célèbre Wi-Fi qui connaît un franc succès, aidé par le volontarisme des
fabricants, distributeurs et fournisseurs de services... Wi-Fi, est un nom composé à la manière de Hi-
Fi et signifiant Wireless Fidelity. Il désigne les différentes déclinaisons de la norme IEEE 802.11 qui
permet à plusieurs ordinateurs de communiquer sans fil en utilisant comme support les ondes radio.
La norme 802.11 s'attache à définir les couches basses du modèle OSI pour une liaison sans fil
utilisant des ondes électromagnétiques, c'est-à-dire :
La couche physique (notée parfois couche PHY), proposant trois types de codage de l'information.
La couche liaison de données, constitué de deux sous-couches : le contrôle de la liaison logique
(Logical Link Control, ou LLC) et le contrôle d'accès au support (Media Access Control, ou MAC)
Dans un réseau, la transmission des informations entre deux ordinateurs par rayonnement
infrarouge ou par ondes radioélectriques est possible.
Un réseau sans fil (en anglais wireless network) est, comme son nom l'indique, un réseau dans lequel
au moins deux terminaux (ordinateur portable, etc.) peuvent communiquer sans liaison filaire.
Les modems : Le réseau téléphonique est prévu pour transporter un courant dont la variation
représente le son de la voix. Les ordinateurs communiquant en échangeant des 1 et des 0, il suffit de
transformer ces valeurs en signaux sonores. (une fréquence pour le 1 et une autre pour le 0.) Cette
conversion est exécutée par le modem, abréviation de modulateur-démodulateur. Le modem est en
effet capable d'effectuer la conversion dans les deux sens.
Le Wi-Fi est un ensemble de fréquences radio qui élimine les câbles, partage une connexion Internet
et permet l'échange de données entre plusieurs postes. La technologie est connue aux Etats-Unis
depuis 1997. Là-bas, on recense 11 millions de points d'accès contre 80 dans l'Hexagone. Mais la
France assouplit sa législation sur les ondes radio et s'emballe à son tour pour le Wi-Fi : les grands
opérateurs montrent leur intérêt, les périphériques compatibles s'installent en rayon. Le passage aux
réseaux sans fil ouvre de nouvelles perspectives d'usage communautaire de l'informatique.
Ils sont équipés d’antennes et fournissent la connectivité sans fil sur une zone de données appelés
cellule.
Les composants Wi-Fi ne sont pas plus onéreux que ceux des réseaux filaires, bientôt toutes les
plates-formes seront vendues avec des modules Wi-Fi intégrés. C'est déjà le cas dans le monde des
PC portables, qui, sous l'impulsion d'Intel, fait sa révolution sans fil grâce au Centrino.
Le principe:
En mode infrastructure, chaque ordinateur station (notée STA) se connecte à un point d'accès via
une liaison sans fil. L'ensemble formé par le point d'accès et les stations situés dans sa zone de
couverture est appelé ensemble de services de base (en anglais Basic Service Set, noté BSS) et
constitue une cellule. Chaque BSS est identifié par un BSSID, un identifiant de 6 octets (48 bits). Dans
le mode infrastructure, le BSSID correspond à l'adresse MAC du point d'accès. Il s'agit généralement
du mode par défaut des cartes 802.11b. Il est possible de relier plusieurs points d'accès entre eux
(ou plus exactement plusieurs BSS) par une liaison appelée système de distribution (notée DS pour
Distribution System) afin de constituer un ensemble de services étendu (Extended Service Set ou
ESS). Le système de distribution (DS) peut être aussi bien un réseau filaire, qu'un câble entre deux
points d'accès ou bien même un réseau sans fil !
Un ESS est repéré par un ESSID (Service Set Identifier), c'est-à-dire un identifiant de 32 caractères de
long (au format ASCII) servant de nom pour le réseau. L'ESSID, souvent abrégé en SSID, représente le
nom du réseau et représente en quelque sort un premier niveau de sécurité dans la mesure où la
connaissance du SSID est nécessaire pour qu'une station se connecte au réseau étendu.
Lorsqu'un utilisateur nomade passe d'un BSS à un autre lors de son déplacement au sein de
l'ESS, l'adaptateur réseau sans fil de sa machine est capable de changer de point d'accès selon la
qualité de réception des signaux provenant des différents points d'accès. Les points d'accès
En mode ad hoc, les machines sans fil clientes se connectent les unes aux autres afin de constituer
un réseau point à point (peer to peer en anglais), c'est-à-dire un réseau dans lequel chaque machine
joue en même temps de rôle de client et le rôle de point d'accès. L'ensemble formé par les
différentes stations est appelé ensemble de services de base indépendants (en anglais independant
basic service set, abrégé en IBSS). Un IBSS est ainsi un réseau sans fil constitué au minimum de deux
stations et n'utilisant pas de point d'accès. L'IBSS constitue donc un réseau éphémère permettant à
des personnes situées dans une même salle d'échanger des données. Il est identifié par un SSID,
comme l'est un ESS en mode infrastructure.
Dans un réseau ad hoc, la portée du BSS indépendant est déterminée par la portée de chaque
station. Cela signifie que si deux des stations du réseau sont hors de portée l'une de l'autre, elles ne
pourront pas communiquer, même si elles "voient" d'autres stations. En effet, contrairement au
mode infrastructure, le mode ad hoc ne propose pas de système de distribution capable de
transmettre les trames d'une station à une autre. Ainsi un IBSS est par définition un réseau sans fil
restreint.
5. Processus de connexion
Lorsqu’un client est activité au sein d’un WLAN, il commence par écouter un équipement compatible
auquel il est « associé ». Cette exploration peut être active ou passive : l’exploration active et
l’exploration passive.
8. Authentification et association
L’authentification des LAN sans fil a lieu au niveau de la couche 2. Il s’agit de l’authentification d’un
équipement et non de l’utilisateur.
Recherches : Types d’authentification et d’association, Méthodes d’authentification
Le chiffrement
WEP
Tandis que les sirènes du Wi-Fi chantent à qui veut les entendre, les hackers et autres casseurs de
code n'ont pas tardé à démontrer la vulnérabilité du chiffrement WEP (Wired
VANGAH Aristide | Réseaux Locaux – Première Edition Page 66
Cours de Réseaux Locaux – Première Année
Equivalent Privacy) utilisé dans le Wi-Fi. Le principe du fonctionnement du WEP est basé sur des clés
de cryptage partagées interdisant l'accès à toutes les personnes ne connaissant pas ce
mot de passe. Chaque périphérique 802.11 b (cartes, points d'accès, etc.) utilise une clé, soit un mot
de passe, soit une clé dérivée de ce mot de passe. La faille provient du mode de fonctionnement de
l'algorithme de chiffrement (RC4) qui permet à tout décodeur de déduire certaines informations
menant à la reconstitution de la clé. Les parades sont nombreuses mais ne garantissent pas une
efficacité à 100 %. Il est toutefois possible de dissuader les intrus en multipliant les obstacles devant
eux. Des protocoles de sécurité tels que IPSec, SSL ou SSH ne sont pas à la portée du premier
utilisateur venu. Dans tous les cas, le WEP est utile et l'activer c'est déjà éliminer certains risques. Il
existe une autre solution qui consiste à considérer le réseau sans fil comme une zone publique.
Le cas d'un partage de connexion Internet entre voisins est le plus typique de cette configuration à
condition qu'un routeur sans fil sert de passerelle et non pas un PC qui risque de contenir des
informations confidentielles.
WAP
Pour pallier les insuffisances du WEP, un remplaçant est à l'étude. Appelé WPA (Wi-Fi Protected
Access), son fonctionnement repose sur un système d'échange de clés dynamiques, renouvelé tous
les 10 ko de données Ce procédé, appelé TKIP (Temporal Key Integrity Protocol), protége mieux les
clés du décryptage et devrait améliorer sensiblement la sécurité des réseaux sans fil même si
l'algorithme utilisé reste inchangé.
D'après la plupart des constructeurs, il est possible de mettre à jour le firmware de votre matériel
802.11b pour intégrer le WPA.
Il est possible d'utiliser n'importe quel protocole sur un réseau sans fil WiFi au même titre que sur un
réseau ethernet.
1.1. Répéteurs
Sur une ligne de transmission, le signal subit des distorsions et un affaiblissement d'autant plus
importants que la distance qui sépare deux éléments actifs est longue. Généralement, deux noeuds
d'un réseau local ne peuvent pas être distants de plus de quelques centaines de mètres, c'est la
raison pour laquelle un équipement supplémentaire est nécessaire au-delà de cette distance.
Un répéteur (en anglais repeater) est un équipement simple permettant de regénérer un signal entre
deux noeuds du réseau, afin d'étendre la distance de câblage d'un réseau. Le répéteur travaille
uniquement au niveau physique (couche 1 du modèle OSI), c'est-à-dire qu'il ne travaille qu'au niveau
des informations binaires circulant sur la ligne de transmission et qu'il n'est pas capable d'interpréter
les paquets d'informations.
D'autre part, un répéteur peut permettre de constituer une interface entre deux supports physiques
de types différents, c'est-à-dire qu'il peut par exemple permettre de relier un segment de paire
torsadée à un brin de fibre optique...
Un commutateur (switch) est un équipement qui offre une bande passante dédiée pour chaque port
(10,100 ou 1 000 Mbit/s par port) alors que le concentrateur partage la bande passante entre tous
ses ports. Cela revient à créer un segment Ethernet par port.
On distingue les switches cut-through (on the fly, à la volée) et les switches store and forward (les
plus courants aujourd’hui). Les premiers se contentent de régénérer la trame (même les trames
erronées et les collisions), tandis que les seconds la stockent en mémoire avant de la régénérer.
La méthode adaptative cut-through combine les deux principes : dès qu’une trame est en erreur, le
commutateur bascule en mode store and forward pendant un certain temps. La méthode fragment
free, la plus performante, lit les 64 premiers octets avant de décider du mode de transmission.
Avec les concentrateurs-commutateurs, que l’on appelle le plus souvent Switched Hubs ou même
tout simplement Switchs, les trames envoyées à une machine particulière sont directement
aiguillées vers la machine destinatrice, en supprimant toute collision, la topologie logique n’est donc
plus le bus mais l’étoile.
Le Switch scinde le réseau en autant de « sous-réseaux » qu'il a de ports et crée des liens privilégiés
entre chaque élément connecté. Grâce à la fonction d'auto-apprentissage des adresses MAC,
l'information envoyée à travers le Switch est directement dirigée vers la machine de destination.
De plus, chaque machine connectée à un port du Switch dispose d'une bande passante dédiée. Les
machines connectées à un Switch peuvent travailler en full duplex c'est-à-dire qu'elles peuvent
émettre et recevoir en même temps.
Décongestion du réseau
Les données sont envoyées d'un port à un autre sans interférer sur les autres ports.
Augmentation de la bande passante
Si le Switch fonctionne à 100Mbps, chaque port bénéficie d'une bande passante de 100 Mbps.
Accélération du transfert de données
Le Switch permet des communications simultanées autant de fois que le nombre de ports du Switch
divisé par 2. Chaque port est full duplex, ce qui permet d'émettre et de recevoir en même temps.
Les transmissions de données, c’est de pouvoir transmettre et transférer des données à partir d’un
réseau.
- Le but d'un réseau est de transmettre des informations d'un ordinateur à un autre. Il faut décider
du type de codage de la donnée à envoyer, c'est-à-dire sa représentation informatique. Elle sera
différente selon le type de données, car il peut s'agir de : - Données sonores, textuelles,
graphiques, et vidéos
Pour que la transmission de données puisse s'établir, il doit exister une ligne de transmission,
appelée aussi voie de transmission ou canal, entre les deux machines.
VANGAH Aristide | Réseaux Locaux – Première Edition Page 72
Cours de Réseaux Locaux – Première Année
Ces voies de transmission sont constituées de plusieurs tronçons permettant de faire circuler les
données sous forme d'ondes électromagnétiques, électriques, lumineuses ou même acoustiques.
Pour qu'il puisse y avoir un échange de données, un codage des signaux de transmission doit être
choisi, celui-ci dépend essentiellement du support physique utilisé pour transférer les données, ainsi
que de la garantie de l'intégrité des données et de la vitesse de transmission.
Transmission simultanée de données
La transmission de données est "simple" lorsque seules deux machines sont en communication, ou
lorsque l'on envoie une seule donnée. Dans le cas contraire il est nécessaire de mettre en place
plusieurs lignes de transmission ou bien de partager la ligne entre les différents acteurs de la
communication. Ce partage est appelé
multiplexage(capacité à transmettre sur un seul support physique (appelé voie haute vitesse), des
données provenant de plusieurs paires d'équipements (émetteurs et récepteurs))
Les câbles BUS de terrain On appelle bus, en informatique, un ensemble de liaisons physiques
(câbles, pistes de circuits imprimés, etc.) pouvant être exploitées en commun par plusieurs éléments
matériels afin de communiquer.
Les bus ont pour but de réduire le nombre de « voies » nécessaires à la communication des
différents composants, en mutualisant les communications sur une seule voie de données.
En réalité chaque bus est généralement constitué de 50 à 100 lignes physiques distinctes,
classées en trois sous-ensembles fonctionnels : (le bus d’adresse, de données, et de contrôle ).
Le système de BUS de terrain est utilisé dans les réseaux numériques de contrôles machines et
d’unités de fabrication.
Les BUS de terrains doivent répondre aux critères suivant:
• utilisation en zones à risques ou non
• hautes vitesses
• importants débits
• hautes performances en temps réels
• propriétés d’analyses
• alimentation électrique via le bus
3types de structures de réseaux : topologie en Bus, en Etoile, en Anneau
Ethernet est aujourd’hui la technologie de réseau local dominante sur le plan mondial.
Ethernet est une famille de technologies de réseau local que le modèle de référence OSI rend plus
facile à appréhender. Tous les réseaux locaux doivent traiter le problème de base qui est l’attribution
de noms à chaque station ou nœud. Les spécifications Ethernet prennent en charge différents
médias, bandes passantes et autres variantes des couches 1 et 2. Cependant, le format de trame de
base et le système d’adressage sont les mêmes pour toutes les variantes d’Ethernet.
Différentes stratégies MAC ont été élaborées pour permettre à plusieurs stations d’accéder
aux médias physiques et aux équipements de réseau. Il est important d’expliquer comment les
équipements de réseau obtiennent l’accès aux médias de réseau pour que les étudiants puissent
comprendre et dépanner le réseau tout entier.
Ce module porte sur certains des objectifs des examens CCNA 640-801, INTRO 640-821 et ICND 640-
811.
À la fin de ce module, les étudiants doivent être en mesure de réaliser les tâches
suivantes:
Décrire les notions de base de la technologie Ethernet
Expliquer les règles d’attribution de nom de la technologie Ethernet
Expliquer la relation entre Ethernet et le modèle OSI
La plus grande partie du trafic sur Internet débute et aboutit sur des connexions Ethernet.
Depuis ses débuts dans les années 70, Ethernet a évolué pour répondre à la demande accrue en
réseaux locaux haut débit. Lorsque les médias à fibre optique ont été introduits, Ethernet s’est
adapté pour tirer parti de la bande passante supérieure et du faible taux d’erreur qu’offre cette
technologie. À présent, le même protocole qui transportait les données à 3 Mbits/s en 1973 assure
des transmissions à 10 Gbits/s.
L’introduction de Gigabit Ethernet a étendu la technologie de réseau local originale à un tel point
qu’Ethernet est maintenant une norme des réseaux MAN et WAN.
À l’origine, l’idée était de permettre à deux hôtes au moins d’utiliser le même média sans
aucune interférence entre les signaux. Ce problème d’accès multiple de l’utilisateur à un média
partagé a été étudié au début des années 70 à l’Université d’Hawaï. Un système nommé Alohanet a
été développé pour donner à plusieurs stations des Iles Hawaï un accès structuré à la fréquence
radio partagée dans l’atmosphère. Ce travail a par la suite constitué la base de la méthode d’accès
Ethernet connue sous l’acronyme CSMA/CD.
Le premier réseau local au monde a été la version originale d’Ethernet. Robert Metcalfe et
ses collaborateurs de Xerox l’on conçu il y a plus de trente ans. La première norme Ethernet a été
publiée en 1980 par un consortium de Digital Equipment Company, Intel et Xerox (DIX). Metcalfe
souhaitant qu’Ethernet soit une norme standard dont tout le monde puisse bénéficier, elle a été
publiée en tant que norme ouverte. Les premiers produits développés respectant la norme Ethernet
ont été commercialisés au début des années 80. Ethernet transmettait alors à 10 Mbits/s sur un
câble coaxial épais et sur une distance pouvant atteindre 2 kilomètres (km). Ce type de câble coaxial
de la largeur d’un petit doigt était appelé thicknet.
En 1985, le comité de normalisation IEEE pour les réseaux locaux et métropolitains a publié
des normes pour les réseaux locaux. Ces normes commencent par le numéro 802. La norme Ethernet
porte le numéro 802.3. L’IEEE a voulu faire en sorte que ses normes soient compatibles avec l’ISO
(International Standards Organization) et le modèle OSI. Pour ce faire, la norme IEEE 802.3 devait
répondre aux besoins de la couche 1 et de la partie inférieure de la couche 2 du modèle OSI. En
conséquence, certaines modifications mineures de la norme Ethernet originale ont été apportées à
la 802.3.
Les différences entre les deux normes sont si mineures que n’importe quelle carte réseau
Ethernet peut transmettre et recevoir à la fois des trames Ethernet et 802.3. Pour l’essentiel, les
normes Ethernet et IEEE 802.3 sont identiques.
La bande passante de 10 Mbits/s d’Ethernet était plus que suffisante pour les lents PC des
années 80. Au début des années 90, ceux-ci devinrent bien plus rapides, les tailles des fichiers
augmentèrent et des goulets d’étranglement commencèrent de se produire. La plupart des
problèmes étaient causés par la faible disponibilité de la bande passante. En 1995, l’IEEE annonça
une norme pour un Ethernet à 100 Mbits/s. Vinrent ensuite des normes pour Gigabit Ethernet en
1998 et 1999.
Toutes les normes sont, pour l’essentiel, compatibles avec la norme Ethernet originale. Ainsi,
une trame Ethernet pourrait quitter la carte réseau d’un PC en empruntant un câble coaxial ancien à
10 Mbits/s, être dirigée sur une liaison à fibre optique Ethernet à 10 Gbits/s et aboutir sur une carte
réseau à 100 Mbits/s. Tant que la trame reste sur les réseaux Ethernet, elle n’est pas modifiée. Pour
cette raison, Ethernet est réputé très évolutif. La bande passante du réseau pourrait être augmentée
plusieurs fois sans entraîner de modification de la technologie Ethernet.
La norme Ethernet originale a été modifiée plusieurs fois pour gérer de nouveaux médias et
des taux de transmission plus élevés. Ces modifications fournissent des normes pour les nouvelles
technologies et maintiennent la compatibilité entre les variantes d’Ethernet.
Ethernet n’est pas une technologie de réseau unique mais une famille de technologies qui
inclut l’existant, Fast Ethernet et Gigabit Ethernet. Les vitesses d’Ethernet s’échelonnent entre 10,
100, 1000 ou 10 000 Mbits/s. Le format de trame de base et les sous-couches IEEE des couches OSI 1
et 2 restent cohérents quelle que soit la forme d’Ethernet.
Chaque fois qu’Ethernet doit être étendu pour ajouter un nouveau média ou une nouvelle
capacité, l’IEEE publie un nouveau supplément à la norme 802.3. Les nouveaux suppléments sont
identifiés par une ou deux lettres (p. ex. 802.3u). Une description abrégée, appelée identificateur,
est également affectée au supplément.
Ethernet repose sur la signalisation de bande de base, qui utilise la totalité de la bande
passante du média de transmission. Le signal de données est transmis directement sur le média de
transmission.
Dans la signalisation à large bande, le signal de données n’est plus placé directement sur le
média de transmission. Ethernet utilisait la signalisation à large bande dans le cadre de la norme
10Broad36. 10Broad36 est la norme de l’IEEE correspondant à un réseau Ethernet 802.3 qui utilise la
transmission à large bande avec un câble coaxial épais fonctionnant à 10 Mbits/s. 10Broad36 est à
présent considérée comme obsolète. Un signal analogique ou de porteuse est modulé par le signal
de données puis transmis. Les émissions radiophoniques et la TV par câble utilisent la signalisation à
large bande.
L’IEEE ne peut pas forcer les fabricants à se conformer complètement à une quelconque
norme. L’IEEE a pour cela deux objectifs principaux:
Fournir les informations nécessaires pour construire des équipements qui sont
conformes aux normes Ethernet
Promouvoir l’innovation auprès des fabricants
Ethernet opère dans deux domaines du modèle OSI. Il s’agit de la moitié inférieure de la
couche liaison de données, que l’on appelle sous-couche MAC, et la couche physique.
Les données qui transitent entre deux stations Ethernet passent souvent par un répéteur.
Toutes les stations du même domaine de collision voient le trafic passant par un répéteur. Un
domaine de collision est un domaine partagé. Les problèmes qui proviennent d’une partie d’un
domaine de collision auront en principe un impact sur le domaine de collision tout entier.
Un répéteur transmet le trafic à tous les autres ports. Il n’envoie jamais de trafic par le port
qui a servi à le recevoir. Tout signal détecté par le répéteur sera transmis. Si le signal subit une
dégradation due à l’atténuation ou au bruit, le répéteur tentera de reconstruire et de régénérer le
signal.
Afin de garantir une bande passante et une opérabilité minimales, les normes spécifient le
nombre maximum de stations par segment, la longueur maximum de segment, ainsi que le nombre
maximum de répéteurs entre stations. Les stations séparées par des répéteurs se trouvent à
l’intérieur du même domaine de collision. Les stations séparées par des ponts ou des routeurs se
trouvent dans des domaines de collision différents.
Un système d’adressage est nécessaire pour identifier de façon unique les ordinateurs et les
interfaces qui permettent une distribution locale des trames sur Ethernet. Ethernet utilise des
adresses MAC qui comportent 48 bits et qui sont exprimées à l’aide de douze chiffres hexadécimaux.
Les six premiers chiffres hexadécimaux, qui sont administrés par l’IEEE, identifient le fabricant ou le
fournisseur. Cette partie de l’adresse MAC est appelée identifiant unique d’organisation (OUI). Les
six autres chiffres hexadécimaux forment le numéro de série d’interface ou une autre valeur
administrée par le fabricant. On dit parfois des adresses MAC qu’elles sont rémanentes (BIA -
burned-in adresses) parce qu’elles demeurent en mémoire morte (ROM) et sont copiées en mémoire
vive (RAM) lors de l’initialisation de la carte réseau.
Au niveau de la couche liaison de données, des en-têtes et des en-queues MAC sont ajoutés
aux données de la couche supérieure. Ces en-têtes et en-queues contiennent des informations de
contrôle destinées à la couche liaison de données du système de destination. Les données des
couches supérieures sont encapsulées dans la trame liaison de données, entre l’en-tête et l’en-
queue, puis envoyées sur le réseau.
La carte réseau utilise l’adresse MAC afin de déterminer si un message doit être transmis aux
couches supérieures du modèle OSI. Elle n’utilise pas de temps processeur pour effectuer cette
évaluation, ce qui améliore les temps de communication sur le réseau Ethernet.
Sur un réseau Ethernet, lorsqu’un équipement envoie des données, il peut ouvrir une voie de
communication en utilisant l’adresse MAC de l’autre équipement. L’équipement source attache un
en-tête avec l’adresse MAC de l’équipement de destination prévu, et envoie des données sur le
réseau. Tandis que les données se déplacent sur le média réseau, la carte réseau de chaque
équipement du réseau vérifie si son adresse MAC correspond à l’adresse physique de destination
VANGAH Aristide | Réseaux Locaux – Première Edition Page 80
Cours de Réseaux Locaux – Première Année
transportée par la trame de données. En l’absence de correspondance, la carte réseau ignore la
trame de données. Lorsque les données atteignent le nœud de destination, la carte réseau fait une
copie et transmet la trame aux couches OSI. Sur un réseau Ethernet, tous les nœuds doivent
examiner l’en-tête MAC.
Tous les équipements qui sont connectés à un réseau local Ethernet possèdent des interfaces
adressées MAC. Cela inclut les stations de travail, imprimantes, routeurs et commutateurs.
Les trains binaires codés sur un média physique constituent une réalisation technologique
remarquable. Cependant, à eux seuls, ils ne suffisent pas à assurer la communication. Le verrouillage
de trame permet de récupérer des informations essentielles qu’il n’était pas possible d’obtenir
uniquement avec les trains binaires codés. Ces informations sont les suivantes:
Quels sont les ordinateurs en communication?
Quand commence la communication entre des ordinateurs et quand se termine-t-
elle?
Quelles erreurs se sont produites lors de la communication entre les ordinateurs?
Quel sera le prochain ordinateur à communiquer?
Le verrouillage de trame est le processus d’encapsulation de la couche 2. Une trame est une
unité de données de protocole de couche 2. Un graphique de tension en fonction du temps pourrait
être utilisé pour visualiser les bits. Cependant, il peut s’avérer trop difficile de représenter sous
forme de graphique les informations d’adresse et de contrôle pour les unités de données plus
importantes. Vous pouvez également utiliser le schéma de structure de trame, qui est articulé sur le
diagramme de tension en fonction du temps. Les schémas de format de trame se lisent de gauche à
droite, comme un oscillogramme. Les schémas de structure de trame font apparaître différents
regroupements de bits (ou champs), qui remplissent d’autres fonctions.
Il existe plusieurs types de trame différents, décrits par diverses normes. Une trame
générique comprend des sections appelées champs. Chaque champ est constitué d’octets. Les noms
des champs sont les suivants:
Champ de début de trame
Champ d’adresse
VANGAH Aristide | Réseaux Locaux – Première Edition Page 81
Cours de Réseaux Locaux – Première Année
Champ de longueur/de type
Champ de données
Champ FCS (Frame Check Sequence = Séquence de contrôle de trame)
Les ordinateurs connectés à un média physique doivent pouvoir signaler qu’ils s’apprêtent à
transmettre une trame. Différentes technologies apportent une solution. Quelle que soit la
technologie, toutes les trames débutent par une séquence d’octets pour signaler la transmission des
données.
Toutes les trames contiennent des informations d’identification, telles que le nom du nœud
source, ou adresse MAC source, et celui du nœud de destination, ou adresse MAC de destination. La
plupart des trames contiennent des champs spécialisés. Dans certaines technologies, un champ de
longueur indique la longueur exacte de la trame en octets. Certaines trames comportent un champ
de type précisant le protocole de couche 3 utilisé par l’équipement qui veut envoyer des données.
Les trames sont utilisées pour envoyer des données de couche supérieure, puis des données
d’application utilisateur d’une source à une destination. Le paquet de données inclut le message à
envoyer ou les données d’application utilisateur. À des fins de synchronisation, d’autres octets
peuvent être ajoutés pour que les trames aient une longueur minimale. Des octets LLC sont
également ajoutés au champ de données dans les trames IEEE standard. La sous-couche LLC prend
les données de protocole réseau, c’est-à-dire un paquet IP, et y ajoute des informations de contrôle
pour faciliter l’acheminement de ce paquet IP jusqu’au nœud de destination. La couche 2
communique avec les couches de niveau supérieur par le biais de la sous-couche LLC.
Toutes les trames, ainsi que les bits, les octets et les champs qu’elles contiennent, peuvent
comporter des erreurs provenant d’une multitude de sources. Le champ de la séquence de contrôle
de trame (FCS) contient un numéro, calculé par l’ordinateur source, qui repose sur les données
contenues dans la trame. Ce numéro est ajouté à la fin de la trame qui est envoyée. Lorsque le nœud
de destination reçoit la trame, il calcule à nouveau la séquence de contrôle de trame et la compare à
celle qui est incluse dans la trame. Si les deux numéros sont différents, il y a une erreur et la trame
est abandonnée.
Étant donné que la source ne peut pas détecter que la trame a été abandonnée, la
retransmission doit être lancée par des protocoles orientés connexion de couche supérieure
fournissant le contrôle de flux de données. Habituellement la retransmission a lieu, parce que ces
protocoles, tels que TCP, s’attendent à ce qu’un accusé de réception de trame (ACK) soit envoyé par
la station homologue dans un laps de temps donné.
Il y a trois façons de calculer le numéro de séquence de contrôle de trame:
Code de redondance cyclique (CRC), exécution des calculs sur les données.
Parité bidimensionnelle, place des octets individuels dans une matrice bidirectionnelle et
effectue des contrôles de redondance verticalement et horizontalement sur la matrice, ce qui crée
ainsi un octet supplémentaire produisant un nombre pair ou impair de 1 binaires.
Le nœud qui transmet les données doit obtenir l’attention des autres équipements pour
commencer et terminer une trame. Le champ de longueur indique où la trame se termine. La trame
se termine après la séquence de contrôle de trame. Il y a parfois une séquence formelle d’octets
appelée «délimiteur de fin de trame».
Sur la couche liaison de donnée, la structure de trame est pratiquement identique pour
toutes les vitesses d’Ethernet, de 10 Mbits/s à 10 000 Mbits/s. Cependant, au niveau de la couche
physique, presque toutes les versions d’Ethernet sont différentes. À chaque vitesse est associé un
ensemble distinct de règles de conception d’architecture.
Dans la version Ethernet qui a été développée par DIX avant l’adoption de la version IEEE
802.3, le préambule et le délimiteur de début de trame (SOF) ont été combinés en un champ unique.
La configuration binaire était identique. Le champ de longueur/type comportait uniquement la
longueur dans les premières versions d’IEEE et uniquement le type dans la version DIX. Ces deux
utilisations du champ furent officiellement combinées dans la version IEEE ultérieure puisque les
deux utilisations étaient courantes.
Le champ de type Ethernet II est incorporé dans la définition de trame 802.3 actuelle.
Lorsqu’un nœud reçoit une trame, il doit examiner le champ de longueur/type afin de déterminer
quel protocole de couche supérieure est présent. Si la valeur de ces deux octets est égale ou
supérieure à la valeur hexadécimale 0x0600 (1536 en notation décimale), alors le contenu du champ
de données est décodé suivant le protocole indiqué. La structure de trame Ethernet II est celle
utilisée dans les réseaux TCP/IP.
Une trame Ethernet 802.3 comprend les champs autorisés ou obligatoires suivants:
Préambule
Délimiteur de début de trame (SOF)
Adresse de destination
Adresse source
Longueur/Type
En-tête et données
Séquence de contrôle de trame (FCS)
Extension
L’adresse de destination peut être une adresse d’unicast, une adresse de multicast ou une adresse
de broadcast. Le champ d’adresse source contient l’adresse source MAC. Celle-ci est généralement
l’adresse d’unicast du nœud Ethernet qui a transmis la trame. Cependant, de nombreux protocoles
virtuels utilisent, et parfois partagent, une adresse MAC source afin d’identifier l’entité virtuelle.
Le champ de longueur/type peut être utilisé de deux façons. Si la valeur est inférieure à 1536
en notation décimale, soit 0x600 en notation hexadécimale, alors elle indique la longueur.
L’interprétation de la longueur est utilisée lorsque la couche LLC fournit l’identification de protocole.
La valeur de type précise le protocole de couche supérieure qui reçoit les données une fois le
traitement Ethernet terminé. La longueur indique le nombre d’octets de données qui suit ce champ.
Le champ de données -avec remplissage le cas échéant- peut être de n’importe quelle
longueur, pourvu que cela n’entraîne pas un dépassement de la taille maximum de la trame. L’unité
de transfert d’informations maximale (MTU) pour Ethernet étant de 1500 octets, les données ne
doivent pas dépasser cette taille. Le contenu de ce champ n’est pas spécifié. Une quantité non
spécifiée de données est insérée immédiatement après les données utilisateur lorsqu’il n’y a pas
suffisamment de données utilisateur pour que la trame ait la longueur minimale.
Ces données supplémentaires sont appelées données de remplissage. Ethernet exige que
chaque trame ait une longueur comprise entre 64 et 1518 octets.
Une séquence de contrôle de trame (FCS) contient un code de redondance cyclique (CRC) de
4 octets créé par l’unité émettrice et recalculé par l’unité réceptrice afin de s’assurer qu’aucune
trame n’a été endommagée. La corruption d’un seul bit, où que ce soit entre le début de l’adresse de
destination et la fin du champ FCS, entraînera une différence dans la somme de contrôle. Par
conséquent, la séquence de contrôle de trame s’inclut elle-même. Il n’est pas possible de faire la
distinction entre la corruption de la FCS et celle d’un autre champ utilisé dans le calcul.
6.2.1 - MAC
L’expression MAC (Media Access Control) fait référence aux protocoles qui, dans un
environnement à média partagé (domaine de collision), déterminent l’ordinateur autorisé à
transmettre des données. Avec la procédure LLC, la procédure MAC forme la version IEEE de la
couche 2, c’est-à-dire qu’elles sont toutes deux des sous-couches de la couche 2. Il y a deux grandes
catégories de protocole MAC, l’une déterministe, l’autre non déterministe.
Token Ring et FDDI sont des exemples de protocoles déterministes. Dans un réseau Token
Ring, les hôtes sont disposés en anneau et un jeton de données spécial circule d’un hôte à l’autre
Les protocoles MAC non déterministes font appel à la méthode dite du " premier arrivé,
premier servi ". Le système CSMA/CD (Carrier Sense Multiple Access with Collision Detection ou
détection de porteuse avec accès multiple et détection de collision) est simple. La carte réseau
guette l’absence de signal sur le média, puis commence à transmettre. Si deux nœuds transmettent
simultanément, une collision se produit et aucun d’eux n’est alors en mesure de transmettre.
Il existe trois technologies répandues de couche 2 : Token Ring, FDDI et Ethernet. Toutes trois
précisent des éléments de couche 2 (par exemple : LLC, attribution de noms, verrouillage de trame
et MAC), ainsi que des composants de signalisation et des éléments de média de couche 1. Les
technologies utilisées par chacune d’elles sont les suivantes :
Ethernet, utilise une topologie de bus logique (flux d’informations sur un bus
linéaire) et une topologie physique en étoile ou en étoile étendue (câblage en
étoile).
Token Ring, utilise une topologie logique en anneau pour contrôler le flux
d’informations et une topologie physique en étoile.
FDDI, utilise une topologie logique en anneau pour contrôler le flux d’informations
et une topologie physique à deux anneaux.
Ethernet est une technologie de broadcast à média partagé. La méthode d’accès CSMA/CD
utilisée par le réseau Ethernet remplit les trois fonctions suivantes:
Transmission et réception de trames de données
Décodage des trames de données et vérification de ces trames afin de s’assurer
qu’elles ont une adresse valide avant de les transmettre aux couches supérieures du
modèle OSI
Détection d’erreurs à l’intérieur des trames de données ou sur le réseau
VANGAH Aristide | Réseaux Locaux – Première Edition Page 86
Cours de Réseaux Locaux – Première Année
Dans la méthode d’accès CSMA/CD, les équipements de réseau qui ont des données à
transmettre sur le média réseau ne le font qu’après écoute de porteuse. Concrètement, cela signifie
que lorsqu’un nœud souhaite transmettre des données, il doit d’abord s’assurer que le média réseau
est libre. Si le nœud détermine que le réseau est occupé, il attendra pendant une durée aléatoire
avant de réessayer. Si le nœud détermine que le média est libre, il commence la transmission et
l’écoute. Le nœud se met à l’écoute pour s’assurer qu’aucune autre station ne transmet en même
temps. Une fois la transmission de données terminée, l’équipement se remet en mode d’écoute.
Les équipements de réseau détectent qu’une collision s’est produite lorsque l’amplitude du
signal augmente sur le média réseau. Lorsqu’une collision se produit, chaque nœud émetteur
continue de transmettre des données pendant une courte période afin de s’assurer que tous les
nœuds détectent la collision. Lorsque tous les nœuds ont détecté la collision, l’algorithme de
réémission temporisée est appelé et la transmission s’arrête. Les nœuds arrêtent de transmettre
pendant une période aléatoire, déterminée par l’algorithme de réémission temporisée. À l’expiration
du délai, chaque nœud peut tenter d’accéder à nouveau au média réseau. Les équipements
impliqués dans la collision ne sont pas prioritaires pour la transmission des données.
6.2.3 - Synchronisation Ethernet
Toute station d’un réseau Ethernet qui souhaite transmettre un message " écoute " d’abord
pour s’assurer qu’aucune autre station n’est en cours de transmission. Si le câble est silencieux, elle
entame immédiatement la transmission. Le signal électrique met un certain temps à parcourir le
câble (délai), et chaque répéteur suivant introduit un bref temps de latence lors de la transmission
de la trame entre deux ports. En raison du délai et du temps de latence, il est possible pour plusieurs
stations de commencer la transmission au même moment ou quasiment au même moment, ce qui
engendre une collision.
Si la station connectée fonctionne en mode full duplex, alors elle peut envoyer et recevoir de
façon simultanée et les collisions ne doivent pas se produire. Le mode full duplex modifie également
les paramètres de synchronisation et élimine le concept de tranche de temps. Le fonctionnement en
full duplex permet de concevoir une architecture réseau plus étendue puisque la restriction de
synchronisation pour la détection de collisions est éliminée.
Les stations qui reçoivent la trame recalculent la FCS pour déterminer si le message entrant est
valide, puis transmettent les messages valides à la couche supérieure suivante de la pile de
protocoles.
Les versions à 10 Mbits/s ou moins d’Ethernet sont asynchrones. Asynchrone signifie que
chaque station réceptrice utilisera les huit octets d’informations de synchronisation afin de
synchroniser le circuit de réception avec les données entrantes, puis les abandonnera. Les
implémentations à 100 Mbits/s et plus d’Ethernet sont synchrones. Synchrone signifie que les
informations de synchronisation ne sont pas nécessaires, cependant, pour des raisons de
compatibilité le préambule et le délimiteur de début de trame (SFD) sont présents.
Pour toutes les vitesses de transmission Ethernet égales ou inférieures à 1000 Mbits/s, la
norme stipule qu’une transmission ne peut pas être inférieure à une tranche de temps. La tranche de
temps pour l’Ethernet 10 et 100 Mbits/s est de 512 temps de bit, soit 64 octets. La tranche de temps
pour l’Ethernet 1000 Mbits/s est de 4096 temps de bit, soit 512 octets. La tranche de temps est
calculée en se basant sur des longueurs de câble maximales dans l’architecture de réseau légale la
VANGAH Aristide | Réseaux Locaux – Première Edition Page 88
Cours de Réseaux Locaux – Première Année
plus étendue. Tous les délais de propagation sont au maximum légal et le signal de bourrage 32 bits
est utilisé lorsque des collisions sont détectées.
La tranche de temps calculée réelle est à peine supérieure à la durée théorique requise pour
aller jusqu’aux points les plus éloignés du domaine de collision, entrer en collision avec une autre
transmission au dernier moment possible, retourner les fragments de collision à la station émettrice
et les détecter. Pour que le système fonctionne, la première station doit détecter la collision avant
d’avoir terminé d’envoyer la taille de trame légale la plus petite. Pour permettre à l’Ethernet 1000
Mbits/s de fonctionner en mode half duplex, le champ d’extension a été ajouté aux seules fins
d’occuper l’émetteur suffisamment longtemps pour le retour d’un fragment de collision lors de
l’envoi de petites trames. Ce champ n’est présent que sur les liaisons 1000 Mbits/s en half duplex et
permet aux trames de taille minimale d’être assez longues pour satisfaire aux exigences de tranche
de temps. Les bits d’extension sont abandonnés par la station réceptrice.
Sur Ethernet 10 Mbits/s, il faut 100 nanosecondes (ns) pour transmettre un bit au niveau de
la couche MAC. À 100 Mbits/s il faut 10 ns pour la transmission de ce bit et donc seulement 1 ns à
1000 Mbits/s. Selon une estimation approximative, la valeur de 20,3 cm par nanoseconde est
souvent utilisée pour calculer le délai de propagation le long d’un câble UTP. Pour cent mètres de
câble à paires torsadées non blindées, cela signifie qu’il faut 5 temps de bit à peine à un signal
10BaseT pour parcourir la longueur du câble.
Pour que l’Ethernet CSMA/CD puisse fonctionner, la station émettrice doit avoir connaissance
d’une collision avant d’avoir terminé la transmission d’une trame de taille minimum. À 100 Mbits/s,
la synchronisation du système est à peine capable de servir 100 mètres de câble. À 1000 Mbits/s, des
ajustements spéciaux sont nécessaires du fait qu’environ une trame de taille minimum serait
transmise avant que le premier bit n’atteigne la fin des premiers 100 mètres de câble UTP. Pour
cette raison, le mode half duplex n’est pas autorisé dans le 10-Gigabit Ethernet.
L’espacement minimum entre deux trames n’entrant pas en collision est appelé espacement
intertrame. Cet espacement a pour limites le dernier bit du champ de la FCS de la première trame et
le premier bit du préambule de la deuxième trame.
Lorsqu'une trame est envoyée, toutes les stations d'un réseau Ethernet 10 Mbits/s doivent
attendre au minimum une durée de 96 bits, soit 9,6 microsecondes, avant qu’une autre station ait le
droit de transmettre la trame suivante. Sur les versions plus rapides d’Ethernet, l’espacement reste
Lorsque la collision s’est produite et que toutes les stations rendent le câble inactif (en
attente de l’espacement intertrame complet), alors les stations à l’origine de la collision doivent
observer un délai supplémentaire et potentiellement de plus en plus long avant de tenter de
retransmettre la trame entrée en collision. Le délai d’attente est conçu intentionnellement pour être
aléatoire afin que les deux stations n’observent pas le même délai avant de retransmettre, ce qui
entraînerait d’autres collisions. Pour cela, on étend l’intervalle qui sert de base à la sélection du
temps de retransmission lors de chaque tentative de retransmission. La période d’attente est
mesurée par incréments de tranche de temps.
Si la couche MAC est incapable d’envoyer la trame après seize tentatives, elle abandonne et
génère une erreur sur la couche réseau. Une telle situation est assez rare et ne peut se produire
qu’en cas de surcharge extrême du réseau, ou lorsqu’il existe un problème physique.
La condition d’erreur la plus commune sur les réseaux Ethernet est la collision. La collision
est le mécanisme qui permet de résoudre un conflit d’accès au réseau. Lorsqu’elles sont peu
nombreuses, les collisions constituent pour les nœuds de réseau un moyen simple, rapide et léger en
terme de charge administrative, d’arbitrer les conflits d’accès aux ressources réseau. Lorsque le
conflit devient trop important, les collisions peuvent devenir de sérieux obstacles pour le
fonctionnement effectif du réseau.
Les collisions entraînent une perte de la bande passante réseau qui est équivalente à la
transmission initiale et au signal de bourrage de collision. Il s’agit d’un délai de consommation qui
affecte tous les nœuds de réseau et qui peut provoquer une réduction significative du débit du
réseau.
La grande majorité des collisions se produit au tout début de la trame, souvent avant le
délimiteur de début de trame (SFD). Les collisions qui se produisent avant le SFD ne sont
généralement pas signalées aux couches supérieures, comme si elles n’avaient pas eu lieu. Dès
qu’une collision est détectée, les stations émettrices transmettent un signal de " bourrage " sur 32
bits (jam) qui signale la collision. Cela est effectué afin que toute donnée transmise soit
complètement corrompue et que toutes les stations aient une chance de détecter la collision.
Dans la figure, deux stations écoutent pour s’assurer que le câble est inactif, puis elles
transmettent. La station 1 a pu transmettre une grande partie de la trame avant que le signal
n’atteigne le dernier segment de câble. La station 2 n’avait pas reçu le premier bit de la transmission
avant de commencer sa propre transmission et a pu envoyer plusieurs bits avant que sa carte réseau
ne décèle la collision. La station 2 a immédiatement tronqué la transmission en cours, remplacé le
signal de bourrage 32 bits et mis fin à toutes les transmissions. Au cours de la collision et de
l’événement de bourrage subi par la station 2, les fragments de collision ont tenté de retourner à la
station 1 en traversant le domaine de collision répété. La station 2 a terminé la transmission du
signal de bourrage 32 bits et s’est tue avant que la collision ne se propage vers la station 1 qui
ignorait encore la collision et continuait de transmettre. Lorsque les fragments de collision ont
finalement atteint la station 1, elle a également tronqué la transmission en cours et substitué un
signal de bourrage 32 bits au reste de la trame qu’elle était en train de transmettre. Dès l’envoi du
signal de bourrage 32 bits, la station 1 a cessé toute transmission.
Un signal de bourrage peut être constitué de n’importe quelles données binaires, tant qu’il ne
forme par une somme de contrôle valide pour la partie de la trame déjà transmise. Le modèle de
données le plus communément observé pour un signal de bourrage est simplement un modèle
répétitif de un, zéro, un, zéro identique au préambule. Dans un analyseur de protocole, ce modèle
s’affiche comme une séquence répétitive de 5 ou A en notation hexadécimale. Les messages
corrompus et partiellement transmis sont souvent appelés fragments de collision ou rebuts. Les
collisions normales sont d’une longueur inférieure à 64 octets et échouent à la fois au test de
longueur minimale et au test de somme de contrôle FCS.
Pour créer une collision locale sur du câble coaxial (10Base2 et 10Base5), le signal circule sur
le câble jusqu’à ce qu’il rencontre un signal de l’autre station. Les ondes se chevauchent alors,
annulant certaines parties du signal ou dédoublant d’autres parties. Le dédoublement du signal
élève le niveau de tension de ce dernier au-delà du maximum autorisé. Cette condition de surtension
est ensuite ressentie par toutes les stations du segment de câble local comme une collision.
Au début, la forme d’onde de la figure représente des données normales codées
Manchester. Quelques cycles plus loin dans l’échantillon, l’amplitude de l’onde se met à doubler.
C’est le début de la collision, lorsque les deux formes d’onde se chevauchent. Juste avant la fin de
l’échantillon, l’amplitude retourne à la normale. Cela se produit lorsque la première station à
détecter la collision arrête de transmettre et que le signal de bourrage de la deuxième station en
collision est encore observé.
Sur un câble UTP, tel que 10BaseT, 100BaseTX et 1000BaseT, une connexion n’est détectée
sur le segment local que lorsqu’une station détecte un signal sur la paire réceptrice en même temps
qu’il envoie sur la paire émettrice. Puisque les deux signaux sont sur des paires différentes, il n’y a
aucune modification caractéristique du signal. Les collisions ne sont reconnues sur du câble UTP que
lorsque la station fonctionne en mode half duplex. À ce titre, la seule différence fonctionnelle entre
le fonctionnement en mode half duplex et en mode full duplex consiste à savoir s’il est possible ou
non d’utiliser de façon simultanée les paires de transmission et de réception. Si la station n’est pas
en train de transmettre, elle ne peut pas détecter une collision locale.
Réciproquement, une défaillance du câble due à une diaphonie excessive peut faire percevoir
à une station sa propre transmission comme une collision locale. Les caractéristiques d’une collision
distante sont celles d’une trame de longueur inférieure à la longueur minimum, dont la somme de
contrôle FCS est invalide, mais qui ne manifeste pas de signe de collision locale tel qu’une surtension
ou une activité de réception/transmission simultanée. Cette sorte de collision résulte habituellement
VANGAH Aristide | Réseaux Locaux – Première Edition Page 92
Cours de Réseaux Locaux – Première Année
de collisions qui se produisent du côté éloigné d’une connexion répétée. Un répéteur ne transmettra
pas un état de surtension, et ne peut pas être à l’origine de l’activité simultanée des paires TX et RX
de la station. La station doit être en train de transmettre pour que les deux paires soient actives, ce
qui constitue une collision locale. Sur les réseaux UTP, il s’agit d’un type de collision couramment
observable.
Il ne reste aucune possibilité pour une collision normale ou légale après que les 64 premiers
octets aient été transmis par les stations émettrices. Les collisions qui se produisent après les 64
premiers octets sont appelées "collisions tardives". La différence la plus significative entre les
collisions tardives et les collisions qui se produisent avant les 64 premiers octets réside dans le fait
que la carte réseau Ethernet retransmettra automatiquement une trame entrée en collision de façon
normale, mais ne le fera pas pour une trame dont la collision a été tardive. Au niveau de la carte
réseau, tout s’est bien déroulé, et les couches supérieures de la pile de protocoles doivent
déterminer que la trame a été perdue. Hormis la retransmission, une station qui détecte une
collision tardive la traite exactement de la même façon qu’une collision normale.
Alors que les collisions locales et distantes sont considérées comme faisant partie du
fonctionnement normal d’Ethernet, les collisions tardives sont considérées comme des erreurs. La
présence d’erreurs dans un réseau suggère toujours qu’une investigation plus poussée va suivre. En
fonction des erreurs détectées, la gravité du problème détermine l’urgence du dépannage. Ainsi
quelques erreurs détectées en plusieurs minutes ou en plusieurs heures seront d’une priorité basse.
Par contre, des milliers d’erreurs détectées en quelques minutes relèveront de l’urgence.
Le jabber est défini dans différentes sections de la norme 802.3 comme une transmission
d’une durée d’au moins 20 000 à 50 000 temps de bit. Cependant, la plupart des outils de diagnostic
signalent ce type d’erreur chaque fois qu’une transmission détectée dépasse la taille de trame légale
maximum, qui est bien inférieure à une durée de 20 000 à 50 000 temps de bit. De façon plus
appropriée, on parlera de trames longues plutôt que de jabber.
Une trame longue est une trame, étiquetée ou non, dont la longueur dépasse la taille légale.
Il n’est pas tenu compte du fait que la trame a une somme de contrôle FCS valide. Cette erreur
signifie en général que du jabber a été détecté sur le réseau.
Une trame courte est une trame qui est plus petite que la taille minimum légale de 64 octets,
et dont la séquence de contrôle de trame est bonne. Certains analyseurs de protocole et moniteurs
de réseau appellent ces trames " runts ". En général, la présence de trames courtes ne veut pas dire
que le réseau est défaillant.
Le terme de jargon runt désigne en général quelque chose d’inférieur à la taille de trame
légale. Il peut se rapporter à des trames courtes dont la somme de contrôle FCS est valide, bien qu’il
soit plutôt employé pour les fragments de collision.
Une trame reçue dont la séquence de contrôle de trame est mauvaise (également appelée
somme de contrôle ou erreur CRC), diffère de la transmission originale d’au moins un bit. Dans une
trame FCS erronée, les informations d’en-tête sont probablement correctes, mais la somme de
contrôle calculée par la station réceptrice ne correspond pas à celle rattachée à la fin de la trame par
la station émettrice. La trame est alors abandonnée.
Un nombre élevé d’erreurs FCS d’une seule station est habituellement le signe d’une carte
réseau défaillante et/ou de pilotes logiciels défaillants ou corrompus, ou encore d’un mauvais câble
reliant cette station au réseau. Si les erreurs FCS sont associées à de nombreuses stations, elles sont
généralement dues à un mauvais câblage, à une version inappropriée du pilote de la carte réseau, à
un port de concentrateur défaillant ou à un bruit induit dans les systèmes de câbles.
On parle d’erreur d’alignement lorsqu’un message ne se termine pas par une frontière entre
octets. Plutôt qu’un nombre correct de bits binaires formant des groupements d’octets complets, on
observe des bits supplémentaires (moins de huit). Une telle trame est tronquée à la frontière entre
octets la plus proche, et une erreur d’alignement est signalée si la somme de contrôle FCS échoue.
Cette erreur est souvent due à des pilotes incorrects ou à une collision, et elle s’accompagne
fréquemment d’une défaillance de la somme de contrôle FCS.
Fluke Networks a inventé le terme fantôme (ghost) pour désigner l’énergie (bruit) détectée
sur le câble qui semble être une trame, mais à laquelle il manque un SFD valide. Pour être qualifiée
de fantôme, la trame doit être d’une longueur de 72 octets au moins, préambule compris. Sinon, elle
entre dans la catégorie des collisions distantes. En raison de la nature particulière des fantômes, il
est important de noter que les résultats des tests dépendent grandement de l’endroit du segment
où la mesure est effectuée.
Lorsque Ethernet est passé de 10 à 100, puis à 1000 Mbits/s, il est devenu nécessaire de
rendre chaque technologie interopérable, au point de pouvoir connecter directement les interfaces
10, 100 et 1000. Un processus appelé autonégociation des vitesses en half duplex ou full duplex a été
développé. Plus particulièrement, au moment où Fast Ethernet a été introduite, la norme incluait
une méthode permettant de configurer de façon automatique une interface donnée afin de
l’adapter à la vitesse et aux capacités du partenaire de liaison. Ce processus indique comment deux
partenaires de liaison peuvent négocier automatiquement une configuration offrant le meilleur
niveau de performances communes. Il présente l’avantage supplémentaire de n’impliquer que la
partie inférieure de la couche physique.
La norme 10BaseT exigeait que chaque station transmette une impulsion de liaison toutes les
16 millisecondes environ, c’est-à-dire à chaque fois que la station n’était pas engagée dans la
transmission d’un message. L’autonégociation a adopté ce signal et l’a renommé impulsion de liaison
normale (NLP). Lorsqu’une série de NLP est envoyée en groupe à des fins d’autonégociation, ce
groupe est appelé rafale FLP (impulsion de liaison rapide). Chaque rafale FLP est envoyée selon le
même intervalle de synchronisation qu’une NLP, et elle est conçue pour permettre à des
équipements 10BaseT anciens de fonctionner normalement en cas de réception d’une rafale FLP.
Les partenaires de liaison sont autorisés à ignorer l’offre de configuration pour laquelle ils
sont équipés. Cela permet à l’administrateur réseau de forcer des ports à une configuration de
vitesse et de mode duplex donnée, sans désactiver l’autonégociation.
Lorsqu’une station d’autonégociation tente pour la première fois d’établir une liaison, elle est
supposée activer 100BaseTX pour tenter d’établir une liaison de façon immédiate. En présence de la
signalisation 100BaseTX, et si la station prend en charge 100BaseTX, elle tentera d’établir une liaison
sans négocier. Si la signalisation produit une liaison ou en cas de réception de rafales FLP, la station
poursuivra avec cette technologie. Si un partenaire de liaison ne propose pas de rafale FLP, mais des
NLP, cet équipement est automatiquement supposé être une station 10BaseT. Durant l’intervalle
initial de recherche d’autres technologies, le chemin de transmission envoie des rafales FLP. La
norme n’autorise la détection parallèle d’aucune autre technologie.
Si une liaison est établie au moyen de la détection parallèle, elle doit obligatoirement se faire
en half duplex. Il existe seulement deux méthodes pour réaliser une liaison full duplex. L’une d’elle
consiste à effectuer un cycle complet d’autonégociation, et l’autre à forcer administrativement les
partenaires de liaison au full duplex. Si l’un des partenaires est forcé à se configurer en full duplex,
mais que l’autre tente d’autonégocier, il y a nécessairement un décalage dans le duplex. Cela
Il y a deux modes duplex, le mode half duplex et le mode full duplex. Le mode half duplex est
obligatoire pour les médias partagés. Toutes les implémentations coaxiales sont en half duplex par
nature et ne peuvent pas fonctionner en full duplex. Les implémentations UTP et en fibre optique
peuvent fonctionner en half duplex. Les implémentations en 10 Gbits/s sont spécifiées pour le full
duplex uniquement.
En half duplex, une seule station peut transmettre à la fois. Pour les implémentations
coaxiales, la transmission d’une deuxième station entraîne le chevauchement et l’altération des
signaux. Puisque le câble UTP et la fibre optique transmettent généralement sur des paires séparées,
les signaux ne peuvent se chevaucher ou s’altérer. Ethernet a établi des règles d’arbitrage pour
résoudre les conflits engendrés par des situations où plusieurs stations tentent de transmettre en
même temps. Les deux stations d’une liaison point-à-point en mode full duplex sont autorisées à
transmettre à n’importe quel moment, que l’autre station soit en transmission ou non.
L’autonégociation permet d’éviter la plupart des situations où une station d’une liaison point-
à-point transmet en half duplex et l’autre en full duplex.
Pour le cas où les partenaires de liaison ont la possibilité de partager plus d’une technologie,
reportez-vous à la liste de la figure. Cette liste sert à déterminer quelle technologie doit être choisie
parmi les configurations proposées.
Les implémentations Ethernet à fibre optique ne figurent pas dans cette liste de résolution
prioritaire car l’électronique et l’optique de l’interface ne se prêtent pas à une reconfiguration facile
entre implémentations. Il est supposé que la configuration de l'interface est fixe. Si les deux
interfaces sont en mesure d’autonégocier, c’est qu’elles utilisent déjà les mêmes implémentations
Ethernet. Cependant, il reste quelques choix de configuration à déterminer, tels que la configuration
duplex, ou le choix de la station qui jouera rôle de station maître à des fins de synchronisation.
Résumé
L’une des points communs à toute les formes d’Ethernet est la structure de trame. C’est ce
qui permet aux différents types d’Ethernet de fonctionner ensemble.
Voici plusieurs des champs autorisés ou obligatoires d’une trame Ethernet 802.3:
Préambule
Délimiteur de début de trame
Adresse de destination
Adresse source
Longueur/Type
Données et remplissage
Séquence de contrôle de trame
Dans les versions 10 Mbits/s et plus lentes d’Ethernet, le préambule fournit les informations
de synchronisation dont le nœud récepteur a besoin pour interpréter les signaux électriques qu’il
reçoit. Le délimiteur de début de trame marque la fin des informations de synchronisation. Les
versions à 10 Mbits/s et plus lentes d’Ethernet sont asynchrones, c’est-à-dire qu’elles utilisent les
informations de synchronisation du préambule pour synchroniser le circuit de réception avec les
données entrantes. Les implémentations à 100 Mbits/s et plus rapides d’Ethernet sont synchrones.
Synchrone signifie que les informations de synchronisation ne sont pas nécessaires, mais pour des
raisons de compatibilité, le préambule et le délimiteur de début de trame (SFD) sont quand même
présents.
Les champs d’adresse de la trame Ethernet contiennent des adresses de couches 2 ou MAC.
Toutes les trames sont sujettes à des erreurs de causes diverses. Le champ de la séquence de
contrôle de trame (FCS) contient un nombre, calculé par le nœud source, qui repose sur les données
contenues dans la trame. Lorsqu’il parvient à destination, il est recalculé et comparé afin de vérifier
que les données reçues sont complètes et exemptes d’erreur.
Une fois les données tramées, la sous-couche MAC (Media Access Control) est également en
charge de déterminer quel ordinateur dans un environnement à média partagé ou domaine de
collision, est autorisé à transmettre des données. Il existe deux grandes catégories de MAC,
déterministe (chacun son tour) et non déterministe (premier arrivé, premier servi).
Comme exemple de protocole déterministe, citons Token Ring et FDDI. Le mode de détection
de porteuse avec accès multiple et détection de collision (CSMA/CD) est un système non
déterministe simple. La carte réseau guette l’absence de signal sur le média, puis commence à
transmettre. Si deux nœuds ou plus transmettent simultanément, une collision se produit. Si une
collision est détectée, les nœuds attendent pendant une durée aléatoire puis retransmettent.
L’espacement minimum entre deux trames n’entrant pas en collision est appelé espacement
intertrame. Cet espacement est nécessaire pour donner le temps à toutes les stations de traiter la
trame précédente et de se préparer pour la suivante.
Alors que les collisions locales et distantes sont considérées comme des événements
normaux du fonctionnement d’Ethernet, les collisions tardives sont considérées comme des erreurs.
Les erreurs Ethernet résultent de la détection de trames de longueur supérieure ou inférieure à la
norme, ou à des transmissions trop longues ou illégales, appelées jabber. Runt est un terme de
jargon qui désigne tout élément inférieur à la taille de trame légale.
3. Il peut ignorer l'événement, valider le paquet, et laisser les applications gérer le problème (en
provoquant une erreur, dans le pire des cas...): par ex. UDP/IP.
Cette solution rustique est rarement utilisée; dans ce cas, les applications doivent mettre elles-
mêmes en place des solutions de contrôle.
En conclusion, la complexité du travail de gestion d'erreur (appelée aussi gestion de flux, si l'on tient
compte de la gestion de l'engorgement qui pourrait se produire si l'équipement récepteur n'arrive
plus à réceptionner correctement les paquets pour cause de saturation) dépend de la qualité du
service fourni par le protocole de communication.
6. Paquets Ethernet
D'un point de vue logique, un paquet Ethernet est composé d'une suite de bits ayant une
signification particulière en fonction de leur emplacement dans le paquet. Ce paquet est ensuite
modulé (Manchester Bi-Phasé) afin d'être envoyé sous la forme d'un signal électrique sur les câbles
du réseau.
La taille maximum d'un paquet est de 1518 bytes et la taille minimum de 512 bytes.
- Les premiers bits servent de délimiteur de paquet et de préambule et ne sont utiles que d'un
point de vue électrique (Start).
- La série de bits suivant représente l'adresse Ethernet de destination (appelée aussi adresse
physique ou adresse MAC). Une adresse Ethernet est composée de 6 bytes, ce qui donne,
dans une représentation hexadécimale, une suite du type '00 c0 a4 23 d4 02'; les 3 premiers
bytes sont caractéristiques du fabricant, les 3 derniers appartenant en propre à l'équipement.
Ces adresses sont uniques et attribuées par le fabricant.
- Une adresse de type ff ff ff ff ff ff représente un broadcast, c'est-à-dire un message envoyé à
tous les nœuds du réseau.
- Le troisième bloc de bits représente l'adresse Ethernet source, c'est-à-dire l'adresse propre
de l'équipement.
- Le champ suivant représente soit le type de paquet, soit la longueur du paquet, en fonction
du type de trame utilisée: Ethernet II ou 802.3.
C'est pourquoi nous devons travailler avec deux types de paquets dans des environnements
particuliers (TCP/IP exige des paquets de type Ethernet II, tandis que NetWare peut accepter les
deux types de paquets, en fonction de la configuration des serveurs).
- Le plus grand champ est composé des données et des éventuels caractères de remplissage.
Ces données ne représentent pas les données finales utiles à l'application, mais
7. TCP/IP.
C’est un protocole de communication, issu du monde Unix, en passe de devenir le protocole de
communication incontournable pour interconnecter des machines différentes.
C’est aussi le protocole utilisé sur le réseau mondial Internet.
Le développement de ce protocole est antérieur à la normalisation ISO et ses différentes couches ne
correspondent donc pas exactement au modèle à 7 couches.
En général, TCP/IP est une suite de protocoles comprenant également une couche applicative et de
services.
La couche basse, est la couche IP (Internet Protocol), située juste en dessus d'Ethernet. Elle s'occupe
principalement de gérer l'adressage logique et d'assurer l'acheminement des paquets d'un nœud à
l'autre.
Les adresses logiques sont du type 155.105.50.47 et représente un groupe de 32 bits. Un masque
(mask) du type 255.255.255.0 permet de créer des sous-ensembles logiques (subnet).
La couche TCP (Transmission Control Protocol), appelée la couche haute, s'occupe de gérer les
erreurs et de contrôler le flux en mettant en place des mécanismes de répétition de paquets et
d'ajustage de fenêtre de réception (c'est-à-dire le nombre de paquets qu'il est possible de recevoir
avant de les valider/invalider).
La couche TCP détermine également quel est le service (application) transporté par le paquet au
moyen d'un numéro de port; ces numéros de port sont normalisés et figurent en principe sur une
table présente dans chaque équipement.
L’ensemble de protocole TCP/IP met à disposition des services (applications) comme telnet (terminal
à distance), ftp (File Transfert Protocol, pour l'échange de fichiers), nfs (Network File System, de SUN,
pour permettre le partage de fichiers dans un environnement de type 'bureautique'), lp (Line Printer,
pour les impressions), smtp (Simple Mail Transfer Protocol, pour la messagerie), http (HyperText
Transfer Protocol - World-Wide Web) etc.
On montre sur le schéma suivant, les imbrications des différentes couches lorsqu'une commande dir
est effectuée depuis une session telnet sur une machine Vax fonctionnant avec le protocole TCP/IP :
Le nombre de bits attribués à l'adresse réseau (n), et au nœud plus l'éventuel sous- réseau (32-n)
dépend de la classe de cette adresse.
Au niveau mondial, et sur Internet (c'est-à-dire à l'échelle de la planète), c'est l'adresse du réseau qui
est connue.
En fonction de la valeur des premiers bits, l'adresse sera déclarée de classe A, B ou C.
Si le premier bit est à 0, il s'agit d'une classe A (en décimal de 1.0.0.0 à 127.0.0.0)
VANGAH Aristide | Réseaux Locaux – Première Edition Page 103
Cours de Réseaux Locaux – Première Année
Si les 2 premiers bits sont à 1 0, il s'agit d'une classe B (en décimal de 128.0.0.0 à 191.0.0.0).
Si les 3 premiers bits sont 1 1 0, il s'agit d'une classe C (en décimal de 192.0.0.0 à 254.0.0.0).
Une adresse de classe A est composée de 8 bits d'adresse de réseau et de 24 bits d'adresse de
nœuds. Il y a donc potentiellement, au monde, 128 réseaux de classe A comprenant chacun
quelques millions de nœuds (faites le calcul...).
Une adresse de classe B est composée de 16 bits d'adresse de réseau et de 16 bits d'adresse de
nœuds. Il y a donc potentiellement quelque 16 000 réseau de classe B comprenant chacun environ
16 000 nœuds.
Une adresse de classe C est composée de 24 bits d'adresse de réseau et de 8 bits d'adresse de
nœuds. Il y a donc potentiellement quelque millions d'adresses de réseau de classe C comprenant
chacun 128 nœuds.
Une adresse du type 155.105.50.69 montre qu'il s'agit d'une adresse de classe B appartenant au
réseau 155.105.0.0
7.1.1. Masques et sous-réseaux (subnets)
Un masque (mask) est utilisé pour identifier clairement la partie de l'adresse représentant le réseau
et celle appartenant au nœud. Ce masque est composé de 32 bits: les bits représentant le réseau
sont positionnés à 1.
En effet, le masque pour un réseau de classe B se compose comme suit:
11111111 11111111 -- 00000000 00000000
10011011 01101001 -- 00110010 01000101
réseau -------------- nœud
et prend donc la valeur 255.255.0.0 en mode décimal.
Il est toujours possible de créer, au sein même du réseau de classe donnée, des sous- réseaux
(subnet, ou segment logique, ou segment IP), destinés à créer des structures logiques au niveau du
réseau d'entreprise.
Les masques de sous-réseau (subnetmask) ont été introduits à cet effet.
Une partie des bits d'adresse de nœud sont réservés pour définir les sous-réseaux; le nombre de bits
dédiés à cette fin dépend du nombre de sous-réseaux que l'on veut créer (donc du nombre de
nœuds potentiels qu'il y aura par sous-réseau).
Pour un réseau de classe B, il est ainsi possible de définir 254 sous-réseaux de 254 nœuds en
choisissant un subnetmask de 8 bits.
11111111 11111111--11111111--00000000
10011011 01101001--00110010--01000101
réseau---------------- sous-réseau--- nœud
Dans ce cas de figure, le masque prend donc la valeur 255.255.255.0 en mode décimal.
Une adresse du type 155.105.50.69 montre qu'il s'agit d'une adresse de classe B appartenant au
réseau 155.105.0.0 et au sous-réseau 50.
Entre les différents réseaux et sous-réseaux, les Routeurs permettent l'acheminement des paquets.
7.2. Mécanismes de communication TCP/IP
Pour communiquer en mode TCP/IP, un équipement doit donc générer un paquet TCP, l'encapsuler
dans un paquet IP puis le passer à la couche Ethernet qui le module et l'envoie sur le réseau.
La couche TCP a pour tâche d'identifier le service utilisé à l'aide de son n° de port (23 pour telnet, par
exemple) et d'attribuer un n° à la session en cours (134 par exemple) afin d'identifier les paquets
appartenant à une même session.
Pour deux nœuds qui se trouvent sur le même réseau (ac.ma par exemple), ils n'ont pas besoin
d'utiliser le nom du réseau : la communication s'effectue sur leur seul nom (fsr), car ils appartiennent
au même domaine.
Il y a des machines hôtes (hosts) d'Internet qui utilisent le nom logique pour vérifier l'identité de
l'équipement essayant de se connecter. En absence de nom, la connexion peut être refusée !
7.3. UDP, SNMP, Mail
UDP (User Datagram Protocol) est une couche haute située en dessus d’IP et en parallèle avec TCP.
Le mécanisme d'UDP est beaucoup plus rustique que TCP puisqu'il ne met pas en place de solution
de renvois de paquet(s) en cas d'erreur ou de perte. Cette couche est peu utilisée, si ce n'est pour
des applications ne nécessitant pas une garantie quant à la réussite de chaque transaction (tftp par
exemple (Trivial File Transfert Protocol)).
UDP/IP et TCP/IP peuvent cohabiter sur le même équipement.
SNMP (Simple Network Managment Protocol) est le protocole standard de gestion d'équipement
réseau. SNMP se situe au dessus de la couche UDP.
Pour pouvoir être géré à distance, un équipement doit évidemment supporter ce protocole.
Le système de messagerie (E-mail) SMTP (Simple Mail Transfer Protocol) permet l'échange de
messages et de documents sur le réseau. SMTP est un service TCP/IP et nécessite un serveur de
messagerie (serveur SMTP).
Ce serveur est en contact avec les serveurs de l'ensemble de la communauté Internet, ce qui permet
ainsi d'envoyer des messages dans le monde entier.
8. Equipements réseau
L’ensemble d'infrastructure d'un réseau informatique est composée, outre le câblage cuivre et
optique, de matériel électronique et informatique.
8.1. Tranceivers
Ce sont des équipements de transformation de signal physique d'une nature en un autre signal d'une
autre nature: de BNC-10Base2 à FOIRL (Fiber Optical Inter Repeater Link), ou de AUI (Access Unit
Interface) à 10BaseT par exemple.
Ces composants, qui ne possèdent pas d'adresse physique, ne régénèrent pas le signal et ne peuvent
donc pas augmenter la distance maximum de transmission (qui dépend du type de média, comme
nous l'avons vu).
8.2. Repeaters
Ces répéteurs sont à comparer à des amplificateurs qui régénèrent le signal et qui permettent ainsi
d'étendre la distance maximum de transmission.
Ils peuvent être munis de différents types de tranceivers et possède chacun une adresse physique
par port.
Le réseau reste unique, c'est-à-dire que le trafic entre les nœuds A et B se retrouve également sur la
partie droite du repeater et inversement; les collisions sont propagées.
Ce type d'équipement ne nécessite aucune configuration logicielle.
8.3. Bridges
Les Bridges ou les ponts font partie des équipements d'interconnexion et possèdent au minimum 2
ports munis de Tranceiver ou de connecteur AUI ayant une adresse physique chacun.
Ce type d'équipement, logiciel et matériel, assure une segmentation physique et logique du réseau.
Seul les paquets destinés à un équipement situé de l'autre côté du Bridge le traverse.
Cela signifie que le trafic local entre les nœuds A et B ne traverse pas le Bridge et n'encombre ainsi
pas le segment de droite. Le trafic est filtré, les collisions ne sont pas propagées.
Les Bridges effectuent leur tri (le paquet doit-il passer ou non) sur les adresses physiques des
paquets.
En général, la configuration logicielle de ce type d'équipement est automatique, les possibilités de
filtrage sont assez restreintes et ne permettent pas une grande précision.
8.4. Routeurs
Un Router (routeur, appelé aussi abusivement Gateway) est également un équipement
d'interconnexion muni de 2 ports au minimum et ayant une adresse physique et logique pour chacun
d'eux.
Ces ports peuvent être connectés sur un modem: on parle alors de Remote Router (routeur distant);
dans ce cas, un autre Router muni d'un modem doit se trouver à l'autre extrémité de la liaison
téléphonique.
La configuration logicielle des ces équipements est complexe et permet la création de filtres très fins,
au niveau des couches de protocoles de communications (au niveau de IP, TCP etc.).
Certains équipements combinent les fonctionnalités de Bridge et de Router: les BRouters.
Dans l'exemple précédent, il est possible de décider que la station A peut communiquer en mode
TCP/IP avec les nœuds C et D, tandis que le nœud B ne peut communiquer qu'avec A et qu'en mode
IPX/Netx.
L'autre grande fonction des Routers est l'aiguillage (routage) des paquets à travers le réseau: les
paquets passent d'un Router à l'autre en fonction d'un chemin (route) calculé d'entente entre les
Routers du réseau (et ceci à l'échelle mondiale d'Internet), d'après une série de protocoles de
routage.
Les paquets de l'exemple ci-dessous transitent du nœud A au nœud B en passant par un chemin qui
peut varier d'une fois à l'autre (en fonction de la charge, des Routers hors-service etc.).
VANGAH Aristide | Réseaux Locaux – Première Edition Page 108
Cours de Réseaux Locaux – Première Année
8.5. Hubs
Les Hubs (concentrateurs) permettent la connexion de plusieurs nœuds sur un même point d'accès
sur le réseau, en se partageant la bande-passante totale.
La structure physique qui s'en dégage est une étoile, mais la topologie logique reste un bus (pour
Ethernet).
Les Hubs sont munis, sauf sur les équipements de bas de gamme, d'un port Repeater (optique ou
AUI) permettant la connexion sur le reste du réseau ou sur le backbone.
Il est en général possible d'y installer plusieurs types de modules (bridges ou autres).
9. Couches réseau : PCs
Les informations entrant et sortant de la carte réseau (Adapter) doivent être gérées par le PC.
La carte réseau est pilotée, comme n'importe quel périphérique, par un driver.
Les informations issues du driver (ou destinées à lui) doivent avoir un format tel qu'elles soient
exploitables par les protocoles (logiciels) supérieurs.
Dans un premier temps, les fabricants de cartes réseau proposaient leur propre suite de protocoles,
ce qui évitait les problèmes d'incompréhension entre le driver de la carte à proprement parler et le
reste de la couche réseau; cette façon de faire oblige à utiliser un seul fournisseur pour la partie
logicielle et matérielle, ce dernier n'étant, de plus, pas forcément capable de fournir tous les
protocoles nécessaires.
Une autre solution consiste à construire la partie basse du protocole de communication à l'aide du
driver de la carte: c'est le cas de l'IPX natif de NetWare.
Des constructeurs se sont finalement alliés afin de créer un standard qui permettrait d'utiliser
n'importe quel driver de carte réseau (répondant à ce standard) avec n'importe quelle suite de
protocoles.
De ces accords sont issus trois standards principaux: Packet Driver, ODI (Open Datalink Interface) de
Novell et NDIS (Network Driver Interface Specification) de Microsoft et 3com.
- Packet Driver est une spécification relativement indépendante des constructeurs mais assez
délicate à utiliser.
- NDIS est utilisé sur les NOS (Network Operating System) du type LAN Manager de Microsoft
et de ses dérivés (IBM-LAN server, Windows 95, Windows NT, DEC- Pathwork).
- La spécification ODI de Novell permet, outre l'emploi de n'importe quelle carte supportant ce
standard, l'utilisation en parallèle d’IPX/Netx de plusieurs piles de protocoles (TCP/IP et
IPX/Netx par exemple): on parle de multi-stack.
Le logiciel 'ODI' chargé sur les PCs se nomme lsl.com (Link Support Layer) et est fournit par Novell. Sa
tâche est d'assurer le lien entre le driver de la carte réseau et les couches protocoles supérieures; il
est donc capable de déterminer s'il s'agit d'un paquet IP ou IPX et d'appeler le programme
correspondant (tcpip.exe ou ipxodi.com).
Le driver de la carte réseau compatible ODI (du type driver.com) est fourni par son fabricant
Le programme ipxodi.com (fournit par Novell) communique avec le programme netx.com qui lui-
même transmet les informations aux applications.
En parallèle, le programme tcpip.exe de LanWorkplace (Novell), qui comprend les couches IP et TCP,
s'occupe de la partie TCP/IP de la communication.
LanWorkplace de Novell est une suite d'applications TCP/IP (telnet, ftp, ping etc.) et de couches
réseau (tcpip.exe).
Windows 95 intègre directement les différentes couches réseau mais reprend les mêmes principes
de fonctionnement.