Vous êtes sur la page 1sur 110

Cours de Réseaux Locaux – Première Année

VANGAH Aristide | Réseaux Locaux – Première Edition Page 1


Cours de Réseaux Locaux – Première Année

PARTIE 1
NOTIONS DE BASE SUR LES RESEAUX

LECON 1 : INTRODUCTION AUX RESEAUX

Historique
Les réseaux locaux Ethernet sont les plus courants, grâce à la simplicité de leur mise en œuvre et à
l'augmentation progressive des débits de connexion (transmission), passés à 10 Mbit/s,
puis 100 Mbit/s, pour atteindre 1 puis 10 Gbit/s au XXIe siècle. La norme Ethernet est référencée par
la série des normes 802.3 de l'IEEE qui régissent le monde Ethernet.
À l'origine, les réseaux locaux étaient limités aux commutateurs interconnectés. Le concept
de réseau local virtuel (VLAN) permet de créer des réseaux locaux logiquement distincts à l'intérieur
d'un même commutateur, comme s'il s'agissait de réseaux physiques distincts. Les protocoles IEEE
802.1Q et ISL permettent d'étendre des VLAN entre commutateurs.
L'interconnexion entre les nœuds du réseau local était initialement réalisée par des câbles en cuivre
(coaxial ou paires torsadées) ; on trouve aussi maintenant des liens en fibre optique et des réseaux
locaux sans fil, tels les réseaux Wi-Fi.
Ethernet fait également référence au niveau 2 du modèle OSI (liaison). On utilise les adresses MAC
qui sont inscrites par défaut dans le matériel des cartes réseaux pour identifier chaque nœud sur le
réseau. Bien que par le passé plusieurs protocoles de niveau 3 aient été utilisés
comme AppleTalk et IPX, le protocole IP règne désormais en maître tant sur les réseaux locaux que
dans les réseaux étendus
Un réseau local, souvent désigné par l'acronyme anglais LAN de Local Area Network, est un réseau
informatique tel que les terminaux qui y participent (ordinateurs, etc.) s'envoient des trames au
niveau de la couche de liaison sans utiliser d’accès à internet. On définit aussi le LAN par le domaine
de diffusion, c'est-à-dire l'ensemble des stations qui reçoivent une même trame de
diffusion (broadcast frame). Au niveau de l'adressage IP, un réseau local correspond généralement à
un sous-réseau IP (même préfixe d'adresse IP). On interconnecte les réseaux locaux au moyen
de routeurs.
Une autre approche consiste à définir le réseau local par sa taille physique. C'est généralement un
réseau à une échelle géographique relativement restreinte, par exemple une salle informatique, une
habitation particulière, un bâtiment ou un site d'entreprise.
Dans le cas d'un réseau d'entreprise, on utilise aussi le terme RLE pour réseau local d'entreprise.

1. Définition
Un réseau est un ensemble de moyens matériels et logiciels géographiquement dispersés destinés à
offrir des services informatiques.
Un réseau informatique est un ensemble d’équipements reliés entre eux par des liens physiques ou
non et échangeant des informations (sous forme binaire).

2. Objectifs

VANGAH Aristide | Réseaux Locaux – Première Edition Page 2


Cours de Réseaux Locaux – Première Année
L’objectif principal d’un réseau informatique est le partage de ressources communes : ressources
matériels (imprimante, disque dur…) et ressources logiciels (bases de données, serveur de fichiers…).

3. Caractéristiques d’un réseau


Il existe principalement trois éléments de caractérisation des réseaux :
- La technique de transmission utilisée
- La taille du réseau
- La technologie de commutation

4. Terminologie
- Téléinformatique : La téléinformatique est l’association de techniques des télécommunications et
de l'informatique afin de permettre l’accès à distance en vue de réaliser l'échange de données et des
traitements automatiques de l’information.
- Télématique : La télématique est l’ensemble des techniques qui combinent les moyens de
l'informatique avec ceux des télécommunications. Elle recouvre les applications et services offert par
la téléinformatique.
- Nœud : Un matériel équipement (ordinateur, concentrateur, imprimante etc.) du réseau
informatique possédant une adresse physique.
- Nœud TCP/IP : Un équipement fonctionnant avec le protocole TCP/IP.
- Adresse physique : Une adresse unique attribuée par le fabricant, gérée par un organisme
international et inscrite de façon définitive dans l'équipement.
Appelée aussi adresse Ethernet ou adresse MAC (Media Access Control).
- Adresse logique : Une adresse unique attribuée par les répondants informatique locaux et gérée
par le NIC pour les adresses IP (organisme international).
- Paquet/Trame : Une information électrique transitant sur le réseau et représentant une suite de
bits. Il s'agit de l'unité de base du réseau (frame).
- Protocole : Une description des mécanismes permettant la gestion des paquets d'information et
leur transition du réseau à l'application. Par extension, logiciel (software) fonctionnant sur une
machine et permettant cette gestion interne.
- Suite de protocoles : Un ensemble de protocoles communiquant entre eux.
- Couche réseau : Un composant protocole fonctionnant sur un équipement et lui permettant de
communiquer à travers le réseau.
- Media : Un support permettant le passage de l'information: différents types de câble, ondes
hertziennes, laser etc.
- Réseau de données : Ensemble des unités fonctionnelles qui établissent des circuits de données
entre des terminaux.
- Bande-passante : La bande passante est la plage de fréquences (la différence entre le composant
de signal de plus haute fréquence et celui de plus basse fréquence) utilisée par un signal
électronique sur un moyen de transmission donné.
- Débit binaire : Comme le cas de la téléphonie ou de Wi-Fi, la bande passante détermine la quantité
d'informations capables de transiter par seconde sur un media donné.
- Backbone : Un réseau physique (câble et matériel actif) servant de colonne vertébrale au reste du
réseau. En général composée de fibres optiques est assurant parfois une plus grande bande-
passante (155Mbits/s).
- Interconnexion : Un ensemble matériel et logiciel permettant la connexion d'équipements utilisant
des média et des protocoles différents.

VANGAH Aristide | Réseaux Locaux – Première Edition Page 3


Cours de Réseaux Locaux – Première Année
- Segment de réseau : Un segment de réseau est une portion d'un réseau informatique dans lequel
chaque appareil communique en utilisant la même couche physique. Les appareils qui étendent
cette couche physique, comme les répéteurs ou les concentrateurs réseau (hub), réalisent une
extension du segment. Toutefois, les appareils qui fonctionnent au niveau de la couche de liaison de
données ou au-dessus, créent de nouvelles couches physiques, et ainsi, réalisent une création de
segment plutôt qu'une extension de segment.
- Segment physique : Un câble ou ensemble de câbles reliés sans équipement électronique
d'interconnexion (il s'agit d'un seul domaine de collisions).
- Segment logique : Un sous réseau regroupant des nœuds correspondant à un même groupe
d'adressage; un segment logique peut englober plusieurs segments physiques.

5. Notion de couches
Sur un réseau informatique, les mécanismes utilisés peuvent être représentés sous la forme de
poupées russes : la grande poupée extérieure représente les paquets d'informations qui circulent
réellement sur le réseau (l'information électrique) chaque poupée intérieure pouvant être vue
comme un protocole, la dernière poupée représentant l'information utile, c'est-à-dire nécessaire à
l'utilisateur final.
Chacune de ces poupées a une fonction particulière, offre un service déterminé, qui sera décrit dans
les chapitres ultérieurs.
On distingue essentiellement les couches basses, hautes et applicatives.

Au niveau terminologie technique, on parle de couches organisées en piles (stacks).


Par l'ISO (International Standards Organization) on définit un modèle théorique à 7 couches : le
modèle OSI (Open System Interconnections) où chacune des couches est encapsulée dans la couche
inférieure.
Les couches basses s’occupent et précisent comment la connexion physique est réalisée sur le câble
et les couches hautes définissent l'interaction avec les applications finales, la communication entre
nœuds s'effectuant virtuellement entre chaque couche.

VANGAH Aristide | Réseaux Locaux – Première Edition Page 4


Cours de Réseaux Locaux – Première Année

C’est un modèle théorique, très lourd à mettre en œuvre, et n'est pratiquement pas respecté, sauf
par quelques suites de protocoles de type plutôt expérimental.
Cependant, on essaye toujours de se référer à ce modèle et à faire coïncider tant bien que mal les
protocoles existant avec ces 7 couches.

6. Intérêt d'un réseau


La nécessité de communication et du partage des informations et des ressources en temps réel,
impose (aujourd'hui aux entreprises) la mise en réseau des équipements informatiques en vue
d'améliorer leur rendement. Un réseau permet :
- La communication entre les utilisateurs (grâce au courrier électronique, la discussion en
direct,...)
- La communication entre les processus (entre des machines industrielles)
- La garantie de l'unicité de l'information (bases de données)
- Le partage de fichiers, d'applications.

VANGAH Aristide | Réseaux Locaux – Première Edition Page 5


Cours de Réseaux Locaux – Première Année
CHATITRE II : LES SUPPORTS DE TRANSMISSION ET
EQUIPEMENTS D’INTERCONNEXION

I. SUPPORTS DE TRANSMISSION
Afin que les informations circulent au sein d'un réseau, il est nécessaire de
relier les différentes unités de communications à l'aide d'un support de transmission. Un
support de transmission est un canal physique qui permet de relier des ordinateurs et
des périphériques. Les supports de transmission les plus utilisés sont : les câbles, la
fibre optique et les systèmes sans fil.
Le câble est le type de support de transmission le plus ancien, mais aussi le
plus utilisé. Le câble est généralement constitué de fils de cuivre recouverts par une
gaine plastique. C'est le support le moins cher. Il existe trois types de câbles : coaxial,
la paire torsadée non blindée et la paire torsadée blindée.
La fibre optique est un support de transmission très utilisé dans les réseaux de
grandes tailles. Le principe de la fibre optique est d'acheminer des informations en
envoyant des signaux lumineux dans un conducteur central en silice ou en plastique.
Cette solution permet de transmettre très rapidement des informations, mais coûte
encore cher.
Sur les réseaux où les ordinateurs sont distants ou ne peuvent être connectés
physiquement, la solution consiste à utiliser un support de transmission sans fil. Ces
réseaux sans fil utilisent généralement : les rayons infrarouges, les micro-ondes, les
ondes radio ou encore un satellite.

Les supports de transmission sont nombreux. Parmi ceux-ci, on distingue : les


supports métalliques, non métalliques et immatériels. Les supports métalliques, comme
les paires torsadées et les câbles coaxiaux, sont les plus anciens et les plus largement
utilisés ; ils transportent des courants électriques. Les supports de verre ou de plastique,
comme les fibres optiques, transmettent la lumière, tandis que les supports immatériels
des communications sans fil propagent des ondes électromagnétiques et sont en plein
essor
Les supports de transmission sont à scinder en deux catégories.

VANGAH Aristide | Réseaux Locaux – Première Edition Page 6


Cours de Réseaux Locaux – Première Année
1. Les supports de transmission guidés
- Le Câble coaxial
Le câble coaxial est un support de transmission composé d'une âme qui est un conducteur
rigide en cuivre enfermé dans un matériau isolant, lui-même entouré d'une tresse conductrice. Une

gaine en plastique protectrice recouvre le tout. Pour connecter les ordinateurs entre eux, il faut

utiliser des connecteurs de type BNC en « T » .


Grâce à sa constitution et son blindage, un câble coaxial offre à la fois une large bande passante et

une excellente immunité contre le bruit. La largeur de bande dépend de la qualité du câble, de sa

longueur et du rapport signal sur bruit. Dans les câbles modernes, elle se rapproche de 1 GHz.

Au niveau des réseaux en bus, il faut placer un bouchon de terminaison à chaque


extrémité du câble pour absorber les signaux. La câble coaxial est composé d'un fil de
cuivre rigide enveloppé d'une couche plastique. Elle même entourée d'une feuille ou
tresse métallique. L'ensemble du câble est recouvert d'une gaine plastique souple. Bien
que la feuille ou tresse métallique protège les transmissions des informations contre les
interférences, les signaux électriques voisins peuvent perturber la transmission des
signaux. La largeur de la bande mesure la quantité d'informations qui peut être
transférée simultanément à l'aide d'un support donné. Dans les réseaux qui utilisent le
câble coaxial, la vitesse de transmission moyenne est de 10 Mbps.

Types de cables

Le câble coaxial fin : Le câble coaxial fin est distingué par son diamètre de 6
mm, un fil flexible, un débit de 10Mégabits/s et souvent utilisé pour la télévision.

Le câble coaxial épais : Le câble coaxial épais présente des caractéristiques de


diamètre de 12 mm, un fil rigide, un débit de 10Mégabits/s et essentiellement
utilisé pour transmettre des données de plus longue distance grâce à l’épaisseur
du fil en cuivre qui résiste mieux aux interférences

Categories de cables
Le cable coaxial PVC est particulièrement adapté aux applications studio et à la
transmission des informations d'image. Pour la transmission des signaux analogiques
et digitaux comme du SDI, SDV, SDTI, HDTV

VANGAH Aristide | Réseaux Locaux – Première Edition Page 7


Cours de Réseaux Locaux – Première Année
Le cable coaxial teflon est un câble fiable pour toute application dans laquelle le
signal haute frequence doit subir un minimum de déformation et d'affaiblissement,
ou à celle où l'élimination des interférences extérieurs est prépondérante.
- La paire torsadée

Il s'agit d'un des supports de transmission les plus anciens et qui est toujours d'actualité.

La paire torsadée se compose de deux fils de cuivres isolés d'une épaisseur d'environ
1mm. Ces fils sont enroulés l'un sur l'autre de façon hélicoïdale, telle une molécule
d'ADN. Cela permet de réduire les radiations électromagnétiques perturbatrices, car les
ondes rayonnées de chaque torsade s'annulent (alors que deux fils parallèles constituent
une antenne rayonnante).

Les paires torsadées peuvent servir à transmettre des signaux analogiques ou


numériques. La bande passante dépend de l'épaisseur du câble et de la distance à
parcourir, mais il est possible dans la plupart des cas d'atteindre plusieurs Mbit/s sur
quelques kilomètres. En raison de ses performances satisfaisantes et de son faible coût,
la paire torsadée est largement utilisée et elle le sera vraisemblablement encore
longtemps.
Une paire torsadée est une ligne de transmission constituée de deux fils conducteurs enroulés en
hélice l'un autour de l'autre. Cette configuration a pour but de maintenir exactement la distance
entre les fils et de diminuer la diaphonie.

Le maintien de la distance entre fils de paire sert à définir une impédance caractéristique de la
paire, pour supprimer les réflexions de signaux aux raccords et en bout de ligne. Les contraintes
géométriques (épaisseur de l'isolant/diamètre du fil) maintiennent cette impédance autour de 100
ohms :

 100 ohms pour les réseaux ethernet en étoile


 150 ou bien 105 ohms pour les réseaux token ring
 100 ou bien 120 ohms pour les réseaux de téléphonie
 90 ohms pour les câbles USB.

Plus le nombre de torsades est important, plus la diaphonie est réduite. Le nombre de torsades
moyen par mètre est membre de la spécification du câble, mais chaque paire d'un câble est
torsadée de manière un peu différente pour éviter la diaphonie.

L'utilisation de la signalisation différentielle symétrique sert à diminuer davantage les


interférences.

Les types de blindages


Les paires torsadées sont souvent blindées afin de limiter les interférences. Comme
le blindage est fait de métal, celui-ci constitue également un référentiel de masse. Le
blindage peut être appliqué individuellement aux paires ou à l'ensemble formé par
VANGAH Aristide | Réseaux Locaux – Première Edition Page 8
Cours de Réseaux Locaux – Première Année
celles-ci. Lorsque le blindage est appliqué à l'ensemble des paires, on parle
d'écrantage.

Il existe cinq types de paires torsadées :

Paire torsadée non blindée

Unshielded Twisted Pair (UTP) - dénomination officielle U/UTP

La paire torsadée non blindée (ou UTP pour Unshielded twisted pair) n'est pas
entourée d'un blindage protecteur. C'est le type de câble souvent utilisé pour
le téléphone et certains réseaux informatiques.

Paire torsadée écrantée

Foiled Twisted Pair (FTP) ou Screened Unshielded Twisted Pair


- dénomination officielle (F/UTP).

Les paires torsadées ont un blindage général assuré par une feuille d'aluminium.
L'écran est disposé entre la gaine extérieure et les 4 paires torsadées. Elle est
utilisée pour le téléphone et les réseaux informatiques.

Paire torsadée blindée

Shielded Twisted Pair (STP) - nouvelle dénomination U/FTP.

Chaque paire torsadée blindée (ou STP pour Shielded twisted pairs) est entourée
d'une couche conductrice de blindage, de façon similaire à un câble coaxial. Cela
permet une meilleure protection contre les interférences. Elle est communément
utilisée dans les réseaux token ring

Paire torsadée écrantée et blindée

Shielded and Foiled Twisted Pair (SFTP) - nouvelle


dénomination SF/UTP.

VANGAH Aristide | Réseaux Locaux – Première Edition Page 9


Cours de Réseaux Locaux – Première Année
Câble doté d'un double écran commun à l'ensemble des paires (feuille métallisé et
tresse)

Paire torsadée blindée et générale blindée

Shielded and Shielded Twisted Pair (SSTP) - nouvelle


dénomination S/FTP.

Câble STP doté en plus d'un écran commun entre la gaine extérieure et les 4 paires

Les catégories de câbles


L'UTP est standardisé en diverses catégories d'intégrité du signal. Ces différentes
catégories sont ratifiées régulièrement par les autorités de normalisation
ANSI/TIA/EIA. Plusieurs d'entre elles ont des équivalents européens normalisés par
la norme internationale ISO/CEI 11801 et la norme française NF/EN 50173-1
définissant le câblage structuré.

Catégorie 1

La catégorie 1 est un type de câblage abandonné. Cette catégorie de câble était


destiné aux communications téléphoniques. Cette norme n'est plus d'actualité.

Catégorie 2

La catégorie 2 est un type de câblage abandonné. Cette catégorie de câble


permettait la transmission de données à 4 Mbit/s avec une bande passante de 2
MHz, notamment pour les réseaux de type Token Ring.

Catégorie 3

La catégorie 3 est un type de câblage permettant une bande passante de 16 MHz, il


est défini dans la norme ANSI/TIA/EIA-568B. Ce type de câble de nos jours ne sert
principalement plus qu'à la téléphonie sur le marché commercial, aussi bien pour les
lignes analogiques que numériques (systèmes téléphoniques, par exemple : Norstar,
etc.). Il est également utilisé pour les réseaux Fast Ethernet (100 Mbps). Ce type de
câblage est en cours d'abandon (en 2007) par les opérateurs au bénéfice de câbles
de catégorie 5e ou supérieure, pour la transmission de la voix comme des données.

Catégorie 4

La catégorie 4 est un type de câblage permettant une bande passante de 20 MHz.


Ce standard fut principalement utilisé pour les réseaux Token Ring à 16 Mbps ou les
réseaux 10BASE-T. Il fut rapidement remplacé par les catégories 5 et 5e. Dans la
norme actuelle ANSI/TIA/EIA-568B, seule la catégorie 3 est décrite.
VANGAH Aristide | Réseaux Locaux – Première Edition Page 10
Cours de Réseaux Locaux – Première Année
Catégorie 5

La catégorie 5 est un type de câblage permettant une bande passante de 100 MHz.
Ce standard permet l'utilisation du 100BASE-TX et du 1000BASE-T, ainsi que
diverses applications de téléphonie ou de réseaux (Token ring, ATM). Il était décrit
dans l'ancienne norme ANSI/TIA/EIA-568-A. Dans la norme actuelle, seules les
catégories 5e et 6 restent décrites.

Catégorie 5e / classe D

La catégorie 5e (enhanced) est un type de câblage permettant une bande passante


de 100 MHz (apparu dans la norme TIA/EIA-568A-5). La norme est une adaptation
de la catégorie 5 (résistance < 9.38 ohm/100 m, capacité mutuelle < 5.6 nF/100 m,
capacité à la masse < 330 pF pour une fréquence comprise entre 1 kHz et 1 GHz,
impédance de la paire diff adaptée à 100 ohm +-15% pour une fréquence comprise
entre 1 MHz et 1 GHz, temps de propagation < 5.7 ns/m@10 MHz, le type de
blindage et l'appairage en longueur ne sont pas spécifiés).[1]

Catégorie 6 / classe E

La catégorie 6 est un type de câblage permettant une bande passante de 250 MHz et
plus (norme ANSI/TIA/EIA-568-B.2-1 et ISO/CEI 11801 ed.2).

Catégorie 6a / classe Ea

Actuellement à l'état de brouillon, la future norme 6a s'oriente vers une extension de


la catégorie 6 pour une bande passante de 500 MHz (norme ANSI/TIA/EIA-568-B.2-
10).Cette norme permettra d'étendre l'utilisation du 10GBASE-T à 100 mètres.

Catégorie 7 / classe F

La catégorie 7 a une bande passante de 600 MHz.[2]

Catégorie 7a / classe Fa

La catégorie 7a a une bande passante de 1 GHz et est en cours d'étude.

Non blindé
La paire torsadée non blindée est un support de transmission d'informations entre les
ordinateurs. C'est le type de câble le plus utilisé sur les réseaux. Pour connecter les
ordinateurs et périphériques au réseau avec un câble de type : paire torsadée non
blindée, il faut utiliser un connecteur spécial appelé « connecteur RJ-45 ». Ce type de
câble est le moins cher. La paire torsadée non blindée peut être constituée de 2, 4, 6 ou 8

VANGAH Aristide | Réseaux Locaux – Première Edition Page 11


Cours de Réseaux Locaux – Première Année
fils vrillés deux à deux et de même couleur. Cette paire torsadée non blindée est
extrêmement souple et légère, ce qui permet son installation facile en deux clics. La paire
torsadée non blindée ne permet pas de relier des ordinateurs et des périphériques très
éloignés les uns de autres ; en effet, la transmission des signaux n'est possible que sur
quelques dizaines de mètres ; au-delà, ils ne seront plus transmis comme il faut... Quant à
la bande passante qui est la quantité d'information qui peut être transférée
simultanément sur un support de transmission de données ; elle dépend de la catégorie
du câble : les catégories 1 et 2 permettent de transférer jusqu'à 4 Mbps, la catégorie 3
permet de transférer jusqu'à 16 Mbps, la catégorie 4 permet de transférer jusqu'à 20
Mbps et la catégorie 5 ou « 100BaseT » permet de transférer jusqu'à 100 Mbps.
Blindé
La paire torsadée blindée est un support de transmission des informations utilisée pour
relier des ordinateurs et des périphériques sur des réseaux comme AppleTalk et Token-
Ring. Elle est identique à la paire torsadée non blindée, mais contient en plus une
protection contre les interférences constituée par une feuille ou une tresse métallique
entre les paires torsadées et le revêtement externe du câble. La paire torsadé blindée
nécessite des connecteurs spécifiques selon la nature du réseau : (1) Sur les réseaux
AppleTalk, les connecteurs sont circulaires avec des broches. (2) Sur les réseaux IBM
Token-Ring, les connecteurs sont carrés. L'installation est plus difficile du fait que la paire
torsadée blindée est peu flexible et peut atteindre un diamètre de 1,5 cm. La paire
torsadée blindée permet de transmettre des signaux sur une centaine de mètres, au-delà,
il est nécessaire d'installer un répéteur.
- La fibre optique
La fibre optique est un support de transmission d'information entre les ordinateurs en
utilisant des signaux lumineux au sein d'un réseau. Les informations échangées entre les
ordinateurs se font à l'aide de signaux électriques. Ces signaux électriques sont convertis
en signaux lumineux avent d'être transmis sur un câble optique. Le câble optique fait
circuler les informations dans un conducteur central en verre ou en plastique. Ce
conducteur est enveloppé de silicone ou plastique pour empêcher la perte du signal.
L'ensemble est enveloppé dans une gaine plastique. Lorsque les signaux lumineux

VANGAH Aristide | Réseaux Locaux – Première Edition Page 12


Cours de Réseaux Locaux – Première Année
atteignent l'ordinateur cible, ces signaux lumineux sont à nouveau convertis en signaux
électriques pour être exploitables par l'ordinateur. L'installation de la fibre optique est
difficile et délicate à cause du conducteur central qui peut casser, d'où le coût
relativement élevé pour ce type de support de transmission. La fibre optique est
cependant un support idéal pour la transmission des informations sur un réseau : (1) Elle
n'est pas affectée par les interférences car elle ne génère pas de signaux électriques. (2)
Elle est sécurisée, car ce type de système ne permet pas la mise sur écoute. (3) Elle peut
parcourir de nombreux kilomètres sans aucune détérioration du signal. (4) Quant à sa
largeur de bande, elle peut atteindre une vitesse de plus de 2 Gigabits par seconde (2
Gbps).
2. Les supports de transmission non guidés
Les ondes électromagnétiques se propagent dans l’atmosphère ou dans le vide (le terme d’éther
désigne parfois ce type de support). L’absence de support matériel apporte une certaine souplesse et
convient aux applications comme la téléphonie ou les télécommunications mobiles, sans nécessiter la
pose coûteuse de câbles.
- La liaison de type infrarouge
Les systèmes infrarouges constituent un bon support de transmission d'informations sans
fil dans un réseau entre les ordinateurs ou entre les ordinateurs et les
périphériques. Les systèmes infrarouges utilisent la même technologie que les
télécommandes de télévision. Le principe des systèmes infrarouges est d'utiliser le
rayon infrarouge pour transmettre les informations. Dans un réseau local, la mise
en place de tels systèmes infrarouges permettent : (1) De transmettre avec une
bande passante de 4 Mbps. (2) De ne plus avoir de câbles. L'installation et la
configuration d'un système infrarouge est assez facile à réaliser : Lorsque les
ordinateurs et les périphériques sont organisés au niveau d'un réseau local, ils
peuvent envoyer des signaux infrarouges à un récepteur fixé au mur en hauteur. Le
récepteur renvoie ensuite le signal vers l'ordinateur ou le périphérique destinataire
du réseau. Les principales interférences du système infrarouge se situent dans les
obstacles physiques, qui entravent les émissions entre les émetteurs et les
récepteurs infrarouges.
- La liaison de type micro-onde

VANGAH Aristide | Réseaux Locaux – Première Edition Page 13


Cours de Réseaux Locaux – Première Année
Les liaisons micro-ondes sont des supports de transmission d'informations utilisées
surtout sur les réseaux WAN pour relier différents réseaux. Ce type de liaison micro-
ondes est très utile pour relier des réseaux qui n'autorisent aucune connexion physique.
Au niveau de la bande passante, ces liaisons micro-ondes peuvent atteindre une vitesse
de transmission de 10 Mbps. Les stations d'émission et de réception des micro-ondes
doivent être alignées avec une grande précision pour pouvoir transférer efficacement les
informations, ce qui coûte très cher. Les micro-ondes peuvent subir des interférences
dues aux mauvaises conditions climatiques comme le brouillard ou la pluie.
- La liaison de type onde radio
Les ondes radio sont des supports de transmission d'information sans fil utilisées avec des
réseaux de toutes tailles. Elles servent le plus souvent à relier des ordinateurs distants
dans une zone géographique étendue comme une ville. Ces ondes radio peuvent
atteindre une vitesse de transmission de 11 Mbps. Les liaisons radio sont aussi utilisées
pour permettre plusieurs réseaux de communiquer ensemble sans avoir à passer par un
câble. Les transmissions des informations par ondes radio ne sont pas altérable par des
interférences ; En effet, les ondes radio utilisent des fréquences radio pour émettre et
sont capables de déterminer quelles sont les fréquences libres avant de commencer à
émettre. Les liaisons par onde radio coûtent cher.
- La liaison satellite
Les différents systèmes « satellite » sont des supports de transmission d'informations
pour relayer les grands réseaux. Ils utilisent des satellites artificiels placés dans l'espace
en orbite autour de la terre. Ces satellites de télécommunication peuvent utiliser
différentes orbites terrestres : (1) L'orbite géostationnaire à 36 000 km de la terre. (2)
L'orbite terrestre basse qui se situe entre 350 et 1400 km de la terre (exemple le réseau
satellitaire d'O3b Networks, Ltd pour Google avec ses 16 satellites de télécommunication
pour Internet). (3) L'orbite Molniya au dessus de la Russie. (4) L'orbite DoD des Etats-Unis.
Le coût de l'installation, de la mise en service et de la maintenance d'un satellite est très
élevé ! Les systèmes « satellite » offrent une largeur de bande très élevée qui est souvent
partagée par de nombreuses entreprises. Quant au temps d'attente, il est fonction de la
position du satellite dans l'espace. A titre d'exemple pour parcourir 36 000 km, la

VANGAH Aristide | Réseaux Locaux – Première Edition Page 14


Cours de Réseaux Locaux – Première Année
transmission peut durer de 0,5 à 5 secondes. A noter que la distance que le signal doit
parcourir sur la terre est négligeable par rapport au temps d'attente par satellite.

- Faisceaux hertziens
Les faisceaux hertziens reposent sur l’utilisation de fréquences très élevées (de 2 GHz à
15 GHz et jusqu’à 40 GHz) et de faisceaux directifs produits par des antennes
directionnelles émettant dans une direction donnée. La propagation des ondes est
limitée à l’horizon optique ; la transmission se fait entre des stations placées en hauteur,
par exemple au sommet d’une colline, pour éviter les obstacles dus aux constructions.
Les faisceaux hertziens s’utilisent pour la transmission par satellite, pour celle des
chaînes de télévision ou pour constituer des artères de transmission longues distances
dans les réseaux téléphoniques.
- Ondes radioélectriques
Les ondes radioélectriques correspondent à des fréquences comprises entre 10 kHz et 2 GHz. Un
émetteur diffuse ces ondes captées par des récepteurs dispersés géographiquement. Contrairement aux
faisceaux hertziens, il n’est pas nécessaire d’avoir une visibilité directe entre émetteur et récepteur, car
celui-ci utilise l’ensemble des ondes réfléchies et diffractées. En revanche, la qualité de la
transmission est moindre car les interférences sont nombreuses et la puissance d’émission est
beaucoup plus faible.

II. LES EQUIPEMENTS D’INTERCONNEXION


Nous vous proposons ici, un schéma illustratif avec quelques équipements
illustratifs liés au modèle OSI.
Application
Présentation Serveur
Session Passerelle
Transport
Réseau Routeur
Liaison de données
Pont
Physique Répéteur
Figure 10 : Modèle OSI et Equipements d’interconnexions

1. Le Répéteur
Il permet d’étendre la portée du signal sur le support de transmission et génère
un nouveau signal à partir du signal reçu.

2. Le Pont
Il permet de relier deux réseaux de technologies liaison différentes. Exemple:
Ethernet, Token Ring, HDLC, PPP, SLIP, ATM, etc.
VANGAH Aristide | Réseaux Locaux – Première Edition Page 15
Cours de Réseaux Locaux – Première Année
Il ressemble à un répéteur avec la différence qu’un pont interprète les données
transmises.

3. Le Routeur
Il sélectionne le chemin approprié pour diriger les messages vers leurs
destinations. Utilisé pour des sites géographiquement éloignés.

On distingue deux types de routages :


- Routage statique : Programmé pour suivre des routes précises.
- Routage dynamique: Calcul automatique de la meilleure route à emprunter entre
deux nœuds, avec accumulation des informations dans une table de routage.

4. Les Passerelles
Relie des réseaux hétérogènes et dispose de fonctions d’adaptation et de
conversion de protocoles à travers plusieurs couches de communication jusqu’à la
couche application.

5. Les serveurs
On distingue plusieurs types de serveurs. Nous avons d’une part, des serveurs
liés à des applications : Serveur Web ; Serveur mail ; Serveur d’impression, Serveur de
sauvegarde… Et d’autre part, des serveurs liés à des services (HTTP, DHCP, DNS,
FTP…): Serveur HTTP, Serveur DHCP, Serveurs DNS, Serveur FTP….

LECON 2 : TOPOLOGIE DE RESEAU

Une topologie de réseau informatique correspond à l'architecture (physique ou logique) de celui-ci,


définissant les liaisons entre les équipements du réseau et une hiérarchie éventuelle entre eux.

1. Topologie physique
Une topologie physique est en fait la structure physique de votre réseau. Elle peut définir la façon
dont les équipements sont interconnectés et la représentation spatiale du réseau.
Il existe plusieurs topologies physiques : le bus, l'étoile (la plus utilisée), l'anneau, le mesh (topologie
maillée), hybride, etc. Cependant nous n'allons parler que des plus utilisées.

1.1. Topologie en bus

VANGAH Aristide | Réseaux Locaux – Première Edition Page 16


Cours de Réseaux Locaux – Première Année
Une topologie en bus est l'organisation la plus simple d'un réseau. En effet, dans une topologie en
bus tous les ordinateurs sont reliés à une même ligne de transmission par l'intermédiaire de câble,
généralement coaxial. Ces unités sont reliées de façon passive par dérivation électrique ou optique.
Le mot « bus » désigne la ligne physique qui relie les machines du réseau.
Dans cette topologie, on utilise une méthode d'accès appelée CSMA/CD. Avec cette méthode, une
machine qui veut communiquer écoute le réseau pour déterminer si une autre machine est en train
d'émettre. Si c'est le cas, elle attend que l'émission soit terminée pour commencer sa
communication. Sinon, elle peut communiquer tout de suite.

Représentation schématique d'un réseau en bus

Avantages
- Il est facile à manipuler et à mettre en œuvre.
- Il possède un fonctionnement simple
- Il est plus adapté pour les petits réseaux.
- Lorsqu'une station est défectueuse et ne transmet plus sur le réseau, elle ne perturbe pas le
réseau.
- Il est de faible coût…
Inconvénients
- La longueur du câble est limitée. Cela limite le nombre de stations qui peuvent être
connectés. Cette topologie de réseau peut être effectuée que pour un nombre limité de
nœuds.
- Lorsque le support est en panne, c'est l'ensemble du réseau qui ne fonctionne plus.
- Pas de transfert privé…
1.2. Topologie en anneau
Une topologie en anneau est une topologie dans laquelle toutes les entités sont reliées entre elles
dans une boucle fermée et communiquent chacune à leur tour.
Cela ressemble à une topologie en bus mais qui serait refermé sur lui-même : le dernier nœud est
relié au premier.
Dans une topologie en anneau, les ordinateurs ne sont pas reliés en boucle, mais sont reliés à un
répartiteur (appelé MAU, Multistation Access Unit) qui va gérer la communication entre les
ordinateurs qui lui sont reliés en répartissant à chacun d'entre-eux un temps de parole.
La topologie de type bus possédait un problème de collision de données : 2 machines ne doivent pas
échanger des données en même temps, sinon elles s'entrechoquent. Ce principe est repris dans le
réseau en anneau. Sauf que là, le système de Token Ring utilise la CSMA/CA, une méthode anti-
collision différente.

VANGAH Aristide | Réseaux Locaux – Première Edition Page 17


Cours de Réseaux Locaux – Première Année
Le principe est assez simple : une machine connectée au réseau possède un jeton virtuel. Ce jeton,
c'est une autorisation de communiquer. Une fois que la machine a transmis ce qu'elle voulait, elle
passe le jeton à la machine suivante, et ainsi de suite. Si le détenteur du jeton n'a rien à dire, il le
passe au suivant.
La topologie en anneau est dite « topologie active » parce que le signal électrique est intercepté et
régénéré par chaque machine.

Représentation schématique d'un réseau en anneau

Avantages
- Les données étant transmises entre deux nœuds passent par tous les nœuds intermédiaires.
- Un serveur central n'est pas requis pour la gestion de cette topologie
- Plusieurs transmissions sont possibles
- Pas de collision puisqu’on parle que lorsque l’on n’est en possession du jeton diffuseur
- Le taux d'utilisation de la bande passante est proche de 90%...
Inconvénients
- La défaillance d'un seul nœud du réseau peut entraîner l'ensemble du réseau à l'échec.
- Le mouvement ou les modifications apportées aux nœuds du réseau affecte le rendement de
l'ensemble du réseau.
- Diffusion longue
- Nombre de machine influence dans le temps de transmission de l’information
- Doublage du support et des organes critiques pour la sécurité…

1.3. Topologie en étoile


Dans un réseau en étoile, l'ensemble des stations de travail est connecté à un concentrateur qui
examine le contenu du message, qui le régénère, et qui le transmet qu'à son destinataire. C'est en
réalité un réseau de "n" liaisons point à point, car il établit un circuit entre une paire d'utilisateurs.
Dans un réseau en étoile chaque poste est relié au réseau par l'intermédiaire de son propre câble à
un concentrateur (un hub). Les concentrateurs s'appellent différemment selon la topologie à laquelle
ils appartiennent (les switchs, les commutateurs, les MAU ne concernent que les réseaux en anneau
de type Token Ring), et les termes employés par les spécialistes peuvent également être utilisés
indifféremment (ou confusionnellement).
VANGAH Aristide | Réseaux Locaux – Première Edition Page 18
Cours de Réseaux Locaux – Première Année
Les concentrateurs sont dénommés différemment selon leurs fonctionnalités :
 Les HUB sont de simples concentrateurs qui régénèrent le signal et le transmettent à tous les
ports (ceux sont des répéteurs).
 Les SWITCH sont des HUB améliorés qui peuvent transmettre des données simultanément
entre plusieurs couples de stations (des répéteurs plus efficaces).
 Les commutateurs segmentent le réseau et filtrent les paquets.
Quand un des ports d'un concentrateur est inoccupé, alors le concentrateur le court-circuite
automatiquement afin que le réseau ne soit pas coupé (à contrario d'un réseau en bus qui ne
fonctionne plus si une station est déconnectée). Il existe des "HUB administrables" qui permettent
de segmenter le réseau.
Les concentrateurs sont essentiellement un segment à l'intérieur d'une boîte. Il existe de vieux
concentrateurs à « média partagé » qui sont « mono segment » (le réseau est constitué d'un seul
segment logique), et les nouveaux concentrateurs (on parle plus facilement de commutateurs) qui
segmentent le trafic (le réseau est constitué de plusieurs segments logiques). Le concentrateur
centralise tous les échanges (le trafic), et toutes les communications passent au travers du
concentrateur. Le concentrateur régénère le signal électrique (comme un répéteur multiport). Un
concentrateur peut posséder 8 ou 10 ports, les ports peuvent être de différents types
(concentrateurs hybrides).
Les commutateurs permettent de créer des segments logiques pour chacune des stations qui est
reliée à l'un de ses ports, et indépendamment des autres segments des autres stations. Le trafic est
ainsi segmenté, et chacune des stations peut émettre n'importe quand, c'est alors au commutateur
de répartir les communications qui lui parviennent. Il existe des commutateurs qui disposent d'une
fonction d'auto découverte (autodiscovery en anglais) et qui en 10 minutes enregistrent les adresses
MAC des noeuds du réseau.
Un commutateur peut être relié à plusieurs concentrateurs, en cascade (à l'aide d'un câble UPLINK,
le port juste à côté ne fonctionne plus), ce qui permet d'étendre un réseau en longueur et en
nombre de stations. L'utilisation du commutateur permet de compartimenter le trafic de tout le
réseau, les concentrateurs sont tous reliés au commutateur, les stations reliées à un même
concentrateur (HUB) constituent un segment logique, et il y a autant de segments logiques qu'il y a
de HUB. L'incorporation d'un commutateur au milieu de concentrateurs permet d'augmenter la
bande passante relative des stations appartenant au même segment logique. 3 HUB de 4 ports
chacun en cascade équivalent à un seul HUB de 10 ports.
Les réseaux en étoile sont plus faciles à administrer et à planifier. Si une machine ou un câble tombe
en panne, alors le réseau fonctionne toujours pour les autres machines ; mais si le concentrateur
tombe en panne, alors c'est tout le réseau qui ne fonctionne plus. Les réseaux en étoile sont plus
faciles à gérer car très faciles à déplacer.

Représentation schématique d'un réseau en étoile

VANGAH Aristide | Réseaux Locaux – Première Edition Page 19


Cours de Réseaux Locaux – Première Année

Avantages
- En raison de son caractère centralisé, la topologie offre une simplicité de fonctionnement.
- Il réalise également un isolement de chaque périphérique du réseau.
- la précision d’envoi
- L’ajout facile de postes
- Diffusion facile
- La suppression de poste(s) n’affecte pas le fonctionnement du réseau…
Inconvénients
- Le fonctionnement du réseau dépend du fonctionnement de la plate-forme centrale. Par
conséquent, l'échec de la plate-forme centrale conduit à l'échec de l'ensemble du réseau.
- Dépend du nœud central (Switch ou hub)
- Coûteux (nécessite plusieurs câbles)
- Collision…

1.4. Topologie en maille


Une topologie maillée, est une évolution de la topologie en étoile, elle correspond à plusieurs
liaisons point à point. Une unité réseau peut avoir une ou plusieurs connexions point à point vers
plusieurs autres unités. Chaque terminal est relié à tous les autres.
Cette topologie se rencontre dans les grands réseaux de distribution (Exemple : Internet).
L'information peut parcourir le réseau suivant des itinéraires divers, sous le contrôle de puissants
superviseurs de réseau, ou grâce à des méthodes de routage réparties.
Représentation schématique d'un réseau en étoile

Avantages
- L'agencement des noeuds du réseau est tel qu'il est possible de transmettre des données
d'un noeud à plusieurs autres noeuds dans le même temps.
- Cette topologie garantit le transfert des données en cas de panne d'un nœud
Inconvénients
- L'arrangement où chaque nœud du réseau est connecté à tous les autres nœuds du réseau, la
plupart des connexions ne servent à rien. Cela conduit à la redondance de la plupart des
connexions réseau.
- Le nombre de liaisons nécessaires qui devient très élevé.
VANGAH Aristide | Réseaux Locaux – Première Edition Page 20
Cours de Réseaux Locaux – Première Année

2. Topologie logique
Une topologie logique est la structure logique d'une topologie physique, c'est à dire que la topologie
logique définit comment se passe la communication dans la topologie physique.
Les topologies logiques les plus courantes sont Ethernet, Token Ring et FDDI.

2.1. Ethernet
Ethernet (aussi connu sous le nom de norme IEEE 802.3) est un standard de transmission de données
pour réseau local basé sur le principe suivant : Toutes les machines du réseau Ethernet sont
connectées à une même ligne de communication, constituée de câbles cylindriques. La méthode de
communication utilisée est celle par contention, tout le monde peut prendre la parole quand il le
souhaite. Mais alors, il faut une règle pour le cas où deux stations se mettraient à "parler" au même
moment. La principale méthode de contention en réseaux locaux est le CSMA/CD (Carrier Sense
Multiple Access), avec détection de collision (CD).
On distingue différentes variantes de technologies Ethernet suivant le type et le diamètre de câble
utilisé :
- 10Base2 : Le câble utilisé est un câble coaxial fin de faible diamètre, appelé Thin Ethernet,
- 10Base5: Le câble utilisé est un câble coaxial de gros diamètre, appelé Thick Ethernet,
- 10Base-T: Le câble utilisé est une paire torsadée (le T signifie Twisted pair), le débit atteint est
d'environ 10 Mbps,
- 100Base-FX: Permet d'obtenir un débit de 100Mbps en utilisant une fibre optique multimode
(F signifie Fiber).
- 100Base-TX: Comme 10Base-T mais avec un débit 10 fois plus important (100Mbps),
- 1000Base-T: Utilise une double paire torsadée de catégorie 5 ou supérieure et permet un
débit d'un Gigabit par seconde.
- 1000Base-SX: Basé sur une fibre optique multimode utilisant un signal de faible longueur
d'onde (S signifie short) de 850 nanomètrs (770 à 860 nm).
- 1000Base-LX: Basé sur une fibre optique multimode utilisant un signal de longueur d'onde
élevé (L signifie long) de 1300 nm (1270 à 1355 nm).
Ethernet est une technologie de réseau très utilisée car le prix de revient d'un tel réseau n'est pas
très élevé

NB :

2.2. Token Ring


L'anneau à jeton (en anglais token ring) est une technologie d'accès au réseau basé sur le principe de
la communication au tour à tour, c'est-à-dire que chaque ordinateur du réseau a la possibilité de
parler à son tour. C'est un jeton (un paquet de données), circulant en boucle d'un ordinateur à un
autre, qui détermine quel ordinateur a le droit d'émettre des informations.
Lorsqu'un ordinateur est en possession du jeton il peut émettre pendant un temps déterminé, après
lequel il remet le jeton à l'ordinateur suivant.
En réalité les ordinateurs d'un réseau de type "anneau à jeton" ne sont pas disposés en boucle, mais
sont reliés à un répartiteur (appelé MAU, Multistation Access Unit) qui va donner successivement "la
parole" à chacun d'entre-eux.

2.3. FDDI
VANGAH Aristide | Réseaux Locaux – Première Edition Page 21
Cours de Réseaux Locaux – Première Année
La topologie logique LAN FDDI (Fiber Distributed Data Interface) est une technologie d'accès au
réseau sur des lignes de type fibre optique. Il s'agit en fait d'une paire d'anneaux (l'un est dit
"primaire", l'autre, permettant de rattraper les erreurs du premier, est dit "secondaire"). Le FDDI est
un anneau à jeton à détection et correction d'erreurs (c'est là que l'anneau secondaire prend son
importance).
Le jeton circule entre les machines à une vitesse très élevée. Si celui-ci n'arrive pas au bout d'un
certain délai, la machine considère qu'il y a eu une erreur sur le réseau.
La topologie FDDI ressemble de près à celle de Token Ring à la différence près qu'un ordinateur
faisant partie d'un réseau FDDI peut aussi être relié à un concentrateur MAU d'un second réseau. On
parle alors de système biconnecté.

Les méthodes d’accès aux réseaux


La méthode d’accès à un réseau définie comment la carte réseau accède au réseau, c’est à dire
comment les données sont déposées sur le support de communication et comment elles sont
récupérées. La méthode d’accès permet de contrôler le trafic sur un réseau (qui parle, quand et pour
combien de temps). La méthode d’accès au réseau est aussi appelée « méthode de transmission ».

Les méthodes d’accès au réseau permettent de différencier et de classer les réseaux en


plusieurs catégories :

 CSMA/CD et CSMA/CA pour les réseaux en bus et en étoile (Ethernet)


 Le passage du jeton pour les réseaux en anneau (TOKEN RING et FDDI)
 La priorité de la demande pour les réseaux 100VG-AnyLAN (ETHERNET à 100
Mb/s)

La méthode d’accès et la carte réseau


Les collisions de paquets
Les principales méthodes d’accès
La méthode d’accès CSMA/CD
La méthode d’accès CSMA/CA
La méthode du passage du jeton
La méthode d’accès de la priorité de la demande
Le tableau des méthodes d’accès

La méthode d’accès et la carte réseau

Le choix de la méthode d’accès au réseau est déterminé par la carte réseau. Certaines cartes
réseaux ne peuvent fonctionner qu’avec telle ou telle méthode d’accès. Avant d’acheter une carte
réseau pour intégrer une nouvelle station sur un réseau préexistant, il faut s’assurer qu’elle est
compatible avec la méthode d’accès déjà utilisée sur le réseau. Sur un réseau, il ne peut avoir qu’une

VANGAH Aristide | Réseaux Locaux – Première Edition Page 22


Cours de Réseaux Locaux – Première Année
seule méthode d’accès qui régente l’accès au support, sinon, les règles ne seraient pas harmonisées
entre elles, et ce serait la cacophonie, le chaos, le tintamarre dodécaphonique, le brouhaha infernal des
embouteillages kafkaïens, …

Toutes les cartes réseaux doivent être du même type, ainsi, par ricochet, la méthode d’accès au
réseau est la même pour tout le monde. Les cartes réseaux doivent transmettre à la même vitesse.
En général, les cartes réseaux de même type, mais provenant de fabricants différents, sont
compatibles…

Les collisions de paquets

La carte réseau doit « écouter » le câble du réseau (écouter si une fréquence circule, si une
porteuse passe, si un signal défile, …), attendre que le câble soit libre (qu’il n’y ait pas ou
plus de porteuse), émettre et retransmettre si les trames ont été détruites pendant le voyage.
En un mot, il faut éviter les collisions de paquets.

Quand deux ordinateurs émettent exactement en même temps, leurs trames respectives
vont se rencontrer et le signal de chacune sera complètement brouillé. Les trames qui sont
rentrée en collision ne sont plus exploitables, et leurs émetteurs doivent les réexpédier, si
possible en évitant une nouvelle collision…

Les collisions proviennent le plus souvent de l’émission simultanée de plusieurs


ordinateurs. Le rôle de la méthode d’accès consiste soit à réduire les inconvénients d’une
telle concomitance, soit de l’empêcher.

La méthode d’accès doit permettre :

 Soit de limiter le risque d’occurrence des collisions et d’imposer une règle de


retransmission fiable.
 Soit de proscrire les conditions de survenue des collisions en interdisant l’accès multiple. Il y
a des délais d’attente, mais il n’y a pas de délais de retransmission.
 La méthode d’accès doit permettre à toutes les stations d’émettre. Le passage du jeton, qui
interdit les collisions, permet également de répartir uniformément le temps de transmission
entre toutes les stations, l’on parle alors de méthode d’accès « isofonctionnelle ».

Les principales méthodes d’accès

Les principales méthodes d’accès sont les suivantes :

 L’accès multiple avec écoute de la porteuse :


o Avec détection des collisions, CSMA/CD
o Avec prévention des collisions, CSMA/CA
 Le passage du jeton
 La priorité de la demande
 Etc…

La méthode d’accès CSMA/CD

La méthode d’accès CSMA/CD (Carrier-Sense Multiple Access / Collision Detection) impose à toutes
VANGAH Aristide | Réseaux Locaux – Première Edition Page 23
Cours de Réseaux Locaux – Première Année
les stations d’un réseau d’écouter continuellement le support de communication, pour détecter les
porteuses et les collisions. C’est le transceiver (le mot valise « transmeter et receiver » qui écoute le
câble, et qui lit les entêtes des paquets (de 64 octets à 1500 octets au maximum). La méthode d’accès
CSMA/CD est relativement fiable et rapide pour les réseaux composés d’un nombre restreint de
stations. Plus le nombre de station est important, plus le risque de collision croît, plus le nombre de
collisions augmente, et plus les délais d’attente sont importants. Le nombre de collision peut
« exploser » rapidement, le réseau saturer, si le nombre de station est excessif.

L’idée est que les participants ne peuvent envoyer des données via le réseau que si le support de
transmission est libre. Le support de détection d’état vérifie donc le canal à tout moment. Les données
ne sont pas envoyées tant que le canal n’est pas disponible.

Les caractéristiques de la méthode d’accès CSMA/CD :

 L’accès multiple au réseau, plusieurs ordinateurs peuvent émettre en même temps, le risque
de collision est accepté. Il n’y a pas de priorité, ni besoin d’une autorisation pour émettre.
 Ecoute du câble et détection de la porteuse
 Ecoute du câble et détection des collisions
 Interdiction à toutes les stations d’un réseau d’émettre si le support n’est pas libre
 En cas de collision :
 Les stations concernées cessent de transmettre pendant une durée aléatoire
 Les stations émettent de nouveau si le câble est libre après ces délais
 La distance maximale entre deux stations est de 2500 mètres. En parcourant le support, le
signal s’atténue, les cartes réseaux doivent être en mesure de détecter une collision en bout de
câble, or elles n’entendent plus rien au-delà d’une certaine distance (ni collisions, ni
porteuses).
 Une méthode à contention, les ordinateurs qui veulent émettre doivent rivaliser entre eux
pour accéder au support. Les rivaux sont départagés par la durée aléatoire du délai d’attente en
cas de collision.
 Fiable, rapide mais limité à un nombre de stations restreint

La méthode d’accès CSMA/CA

La méthode d’accès CSMA/CA (Carrier-Sense Multiple Access / Collision Avoidance) n’est pas une
méthode très répandue. Les collisions sont proscrites, chaque station avant d’émettre doit signaler son
intention. Les demandes de transmission augmentent le trafic et ralentissent le réseau. La méthode
d’accès CSMA/CA est plus lente que CSMA/CD.

CSMA/CA est principalement utilisé dans les réseaux sans fil. L’idée de base de CSMA/CA repose
sur le principe de « Listen before Talking ». Ce qui signifie qu’il faut d’abord vérifier si le service est
libre (« idle ») avant que la station puisse commencer une transmission. Mais ce n’est que la première
étape. D’autres fonctions au sein du processus garantissent dans une large mesure l‘évitement des
collisions.

Un plan de structure complexe tente de s’assurer que deux participants ou plus ne démarrent pas une
transmission en même temps. Cela permet donc d’éviter les collisions. S’il se produit néanmoins des
chevauchements, ceux-ci sont détectés et la transmission est alors réessayée.

APPLICATION

VANGAH Aristide | Réseaux Locaux – Première Edition Page 24


Cours de Réseaux Locaux – Première Année

VANGAH Aristide | Réseaux Locaux – Première Edition Page 25


Cours de Réseaux Locaux – Première Année

CSMA (en français : accès multiple avec écoute de la porteuse) est une méthode de base qui contrôle la
communication de plusieurs participants sur un support de transmission partagé et décentralisé.
Cependant, il est désormais disponible en trois variantes différentes, qui dépendent du support de
transmission. Alors que, CSMA/CD est développé pour le réseau Ethernet, et CSMA/CR est utilisé dans
les réseaux CAN (Controller Area Networks) qui sont principalement utilisés dans de nombreuses
industries, notamment l’automobile.

Pour comprendre exactement ce qu’est le Carrier Sense Multiple Access with Collision Avoidance, il est
important et logique d’examiner les composants individuels :

 Carrier Sense (CA) : l’idée est que les participants ne peuvent envoyer des données via le réseau
que si le support de transmission est libre. Le support de détection d’état vérifie donc le canal à
tout moment. Les données ne sont pas envoyées tant que le canal n’est pas disponible.

 Multiple Access (MA) : plusieurs stations partagent un même support de transmission. Pour que
la communication soit efficace, il est essentiel qu’elles adhèrent à un protocole contraignant.

 Collision Avoidance (CA) : un plan de structure complexe tente de s’assurer que deux
participants ou plus ne démarrent pas une transmission en même temps. Cela permet donc
d’éviter les collisions. S’il se produit néanmoins des chevauchements, ceux-ci sont détectés et la
transmission est alors réessayée.

VANGAH Aristide | Réseaux Locaux – Première Edition Page 26


Cours de Réseaux Locaux – Première Année

La méthode du passage du jeton

La méthode du passage du jeton est une méthode propre aux réseaux en anneau. Les collisions sont
proscrites, les stations ne peuvent pas émettre simultanément. Les stations doivent attendre le jeton
qui donne la permission de « parler », il y a des délais d’attente pour obtenir le jeton, mais il n’y a pas
de collisions, donc pas de délais de retransmission. Le jeton est un paquet spécial qui passe de station
en station, et qui autorise celle qui le détient à émettre.

Les stations sont ordonnées les unes par rapport aux autres, et la plus haut dans la hiérarchie a la
responsabilité de surveiller le bon fonctionnement du jeton (la durée des trames pour parcourir
l’anneau, le temps moyen de rotation, la suppression des trames qui sont revenues à leur expéditeur,
l’avertissement des autres stations qu’il est toujours le superviseur,…), et éventuellement d’en créer
un nouveau. Le superviseur d’un réseau Token Ring est d’abord la première station allumée sur le
réseau, puis si celle-ci se déconnecte, il y a une l’élection du nouveau superviseur. Après une élection,
c’est la station qui possède l’adresse MAC la plus grande qui est élue superviseur.

La méthode d’accès de la priorité de la demande

La méthode d’accès de la priorité de la demande, aussi appelée DPMA (Demand Priority Access
Method), est une méthode d’accès récente qui a été mise au point pour les réseaux mixtes en bus en
étoile.

Les réseaux 100VG-AnyLAN (ETHERNET à 100 Mb/s) répondent à la norme IEEE 802.12 définie
pour les réseaux en bus en étoile. Les réseaux 100VG-AnyLAN sont constitués de plusieurs
concentrateurs (HUB), ou de répéteurs. Les concentrateurs sont reliés ensembles et forment une
architecture « double », une architecture à deux niveaux, les concentrateurs forment entre eux un
bus, comme une épine dorsale, et chaque concentrateur contient un anneau auquel sont reliées les
stations. Ainsi, des données peuvent être transmises simultanément, mais à l’intérieur de sous-
ensembles différents. D’autre part le câblage d’un réseau 100VB-AnyLAN est constitué de quatre
paires de fil ce qui permet quatre transmissions simultanées.

Les concentrateurs gèrent l’accès au réseau. Le réseau est composé du même nombre de sous-
ensembles qu’il y a de concentrateurs. Chaque concentrateur s’occupe de son sous-ensemble. Le
réseau est en quelque sorte segmenté en plusieurs partie. Les messages ne sont pas diffusés sur tout le
réseau, mais seulement sur la partie concernée. La gestion de l’accès au réseau est centralisée (il y a
autant de pôles centralisateurs que de concentrateurs).

Les concentrateurs interrogent tous les « nœuds terminaux » de la partie du réseau dont ils ont
la charge, c’est à dire toutes les stations branchées sur leur anneau, et tous les concentrateurs auxquels
ils sont reliés. L’interrogation des nœuds s’effectue à tour de rôle (méthode « round-robin »), et
permet à chaque concentrateur de connaître les informations d’adressage et de routage de chacun :

 L’adresse des nœuds terminaux d’un même anneau


 Les plages d’adresse gérée par les concentrateurs proches
 L’état de fonctionnement de chacun des nœuds

Par exemple, un concentrateur reçoit une demande de transmission de la part d’un ordinateur. La
demande de transmission contient l’adresse du destinataire. Le concentrateur recherche si la route
pour acheminer les données jusqu’au destinataire est libre, puis le cas échéant, il autorise la station à
émettre. Le concentrateur reçoit alors les données et les transmet, soit directement à la station (si
l’ordinateur récepteur est situé sur son propre anneau), soit au concentrateur à travers lequel devront
passer les données (le deuxième concentrateur examine à son tour la partie du réseau qui lui incombe
VANGAH Aristide | Réseaux Locaux – Première Edition Page 27
Cours de Réseaux Locaux – Première Année
et procède de la même façon…). Une demande de transmission peut provenir directement d’une
station ou indirectement d’un concentrateur.

Un nœud terminal est un équipement qui est susceptible d’émettre ou de recevoir :

 Un ordinateur
 Une station
 Un serveur
 Un dispositif de connectivité :
 Un pont
 Un routeur
 Un commutateur
 Etc…

La méthode d’accès de la priorité de la demande est une méthode d’accès à contention. La méthode
d’accès de la priorité de la demande implique que deux ordinateurs peuvent se retrouver en situation
de « rivaliser » pour obtenir le droit de « parler », mais cette méthode d’accès a l’avantage de
permettre une configuration où certains types de données, définis à l’avance, ont la priorité sur
d’autres. La priorité de certains types de données permet de résoudre les conflits ; quand deux
demandes d’accès ont la même priorité, alors les deux demandes sont traités en alternance.

Les communications sont découpées en plusieurs parties :

 La communication entre un « ordinateur émetteur » et un dispositif de


connectivité
 La communication entre deux dispositifs de connectivité, s’il y a lieu…
 La communication entre le dispositif de connectivité et « l’ordinateur récepteur »

Le tableau des méthodes d’accès

Les différentes méthodes d’accès peuvent être rassemblées dans un tableau comparatif :

Le tableau des méthodes d’accès


CSMA/CD CSMA/CA Passage du jeton Priorité de la demande
Diffusion Tout le Tout le réseau Tout le réseau Une partie du réseau
réseau
Routage NON NON NON OUI
Rivalité Contention Contention Pas de contention Contention
Réseaux ETHERNET LOCALTALK  TOKEN 100VG-AnyLAN
RING

VANGAH Aristide | Réseaux Locaux – Première Edition Page 28


Cours de Réseaux Locaux – Première Année

 ARCNET

Topologie Bus Bus Anneau Bus en anneau


Accès Multiple Multiple Unique Simultané
Collision OUI NON NON NON
Gestion Décentralisée Décentralisée Centralisée Centralisée multi pôles

VANGAH Aristide | Réseaux Locaux – Première Edition Page 29


Cours de Réseaux Locaux – Première Année
LECON 3 : LES PROTOCOLES

1. Protocole
Description formelle de règles et de conventions régissant la manière dont les stations d’un réseau
échangent des informations.
Le protocole est un élément déterminant. Il est couramment lié aux couches 3 et 4 du modèle OSI
(transport et réseau). Il segmente les données en « paquets » qu’il place dans le champ « données »
des trames créées par les couches physiques. Il établit les relations entre adresses logiques et
physiques (MAC) de tous les destinataires, choisit l’itinéraire le plus approprié pour assurer leur
acheminement (« routage ») et corrige les erreurs de transmission.

2. Protocole routé
Un protocole routé permet au routeur de transmettre des données entre les nœuds de différents
réseaux. On distingue le protocole routé et routable, le protocole non routable, le protocole routé et
non routable

2.1. Protocole routé et routable


Un protocole routable doit impérativement permettre d’attribuer un numéro de réseau et un
numéro d’hôte à chacune des machines. Le protocole IP, nécessite que l’adresse comporte une
partie réseau et une partie hôte. Dans ce cas, un masque de réseau est nécessaire pour différencier
ces deux numéros. L’adresse réseau est ensuite obtenue en effectuant une opération AND logique
sur l’adresse et le masque de réseau.
Exemple : IP

2.2. Protocole non routable


Un protocole non routable a besoin seulement de l’adresse MAC des machines pour permettre le
transfert d’informations sur un même réseau local.
Exemple : Netbeui

2.3. Protocole routé et non routable


Certains protocoles, à l’instar du protocole IPX, ne requiert que le numéro de réseau. Ils utilisent
alors l’adresse MAC de l’hôte à la place de son numéro.

3. Protocole orienté connexion et sans connexion

3.1. Protocole orienté connexion


C’est un service fiable caractérisé par la détection et correction d’erreur avec accusé de réception
Exemple : TCP

3.2. Protocole sans connexion


C’est un service non fiable, la réception d’un paquet ne génère pas d’accusé de réception. Il peut
détecter les erreurs mais ne les corrige pas
Exemple : UDP, IP

VANGAH Aristide | Réseaux Locaux – Première Edition Page 30


Cours de Réseaux Locaux – Première Année
4. Organisation de normalisation
Ce sont eux qui créent les normes qui permettent la compatibilité des matériels informatiques.
Citons en quelques uns :
- AFNOR : Association Française pour la NORmalisation
- ECMA : European Computer Manufacturer Association (une trentaine de fabricants de
matériel informatique)
- ANSI : American National Standard Institute (Equivalent américain de l’AFNOR)
- IEEE : Institute of Electrical and Electronics Engineers (Participe à l’ANSI, il est à l’origine des
normes des RL)
- EIA : Electronic Industries Association (Participe à l’ANSI, il est à l’origine des RS 232,…)
- ISO : International Standard Organisation (Chapeaute les organisations nationales)
- ITU : Union Internationale des communications
- CODINORM : Côte d’Ivoire NORMalisaion

5. Les principaux protocoles réseaux


Un protocole réseau est un langage que vont utiliser toutes les machines d’un réseau pour
communiquer entre elles. Il se présente sous la forme d’un logiciel dans le système d’exploitation. Ils
sont parfois composés d’une multitude de protocoles afin de pouvoir acheminer l’information (ex :
TCP/IP avec IP,TCP,UDP,ICMP, …).

VANGAH Aristide | Réseaux Locaux – Première Edition Page 31


Cours de Réseaux Locaux – Première Année

LECON 4 : TYPES DE RESEAUX

1. LAN, MAN, WAN


Sur un réseau informatique, il faut distinguer 3 types de réseaux dont les limites ne sont pas fixées
de manière absolue et qui peuvent former, ensemble, un réseau d'entreprise.

1.1. Réseaux locaux (LAN: Local Area Network)


Ces types de réseaux sont en général circonscrits à un bâtiment ou à un groupe de bâtiment pas trop
éloignés les uns des autres (site universitaire, usine ou 'campus').
L'infrastructure de ce réseau est privée et est gérée localement par le personnel informatique.
Ces réseaux offrent en général une bande-passante comprise entre 10Mbit/s et 100 Mbits/s.

1.2. Réseaux métropolitains (MAN: Metropolitan Area Network)


Ces réseaux sont apparus relativement récemment et peuvent regrouper un petit nombre de réseau
locaux au niveau d'une ville ou d'une région.
Pour l'infrastructure, elle peut être privée ou publique.
Comme exemple, une ville peut décider de créer un 'MAN' pour relier ses différents services
disséminés sur un rayon de quelques kilomètres et en profiter pour louer cette infrastructure à
d'autres utilisateurs.
Le débit peut être de quelques centaines de kbits/s à quelques Mbits/s.

1.3. Les réseaux distants (WAN: Wide Area Network)


Ce réseau permet l'interconnexion de réseaux locaux et métropolitains à l'échelle de la planète, d'un
pays, d'une région ou d'une ville.
Pour l'infrastructure, elle est en général publique (PTT, Télécom etc.) et l'utilisation est facturée en
fonction du trafic et/ou en fonction de la bande-passante réservée, pour les lignes louées (une ligne
louée est réservée exclusivement au locataire, 24h sur 24, pour la durée du contrat).
On utilise des modems qui sont un des éléments de base des WANs.
Le débit va de quelques kbits/s à quelques Mbit/s. Une valeur typique pour une ligne louée est de
64kbits/s (en fonction des services offerts).

2. Réseaux privés virtuels (VPN)


Un réseau privé virtuel (VPN Virtual Private Network) est un réseau privé construit au sein d’une
infrastructure de réseau publique (Internet) qui permet de construire un tunnel sécurisé entre les
deux extrémités du réseau. On distingue trois principaux types de VPN : les VPN d’accès, les VPN
d’intranet et les VPN d’extranet.

2.1. Les VPN d’accès


Ils fournissent aux utilisateurs mobiles l’accès distant à un intranet ou à un extranet sur une
infrastructure partagée

2.2. Les VPN d’intranet


Ils font appel à des connexions dédiées pour raccorder des bureaux régionaux et des bureaux
distants à un réseau interne sur une infrastructure partagée
VANGAH Aristide | Réseaux Locaux – Première Edition Page 32
Cours de Réseaux Locaux – Première Année
2.3. Les VPN d’extranet
Ils utilisent des connexions dédiées pour relier des partenaires commerciaux à un réseau interne sur
une infrastructure partagée

3. Réseau de stockage (SAN)


Un réseau de stockage (SAN Storage Area Network) est un réseau à haute performance dédié qui
permet de transférer des données entre des serveurs et des ressources de stockage. Du fait qu’il
s’agit d’un réseau dédié distinct, il évite tout conflit de trafics entre le client et les serveurs.

Un réseau de stockage se différencie des autres systèmes de stockage tels que le NAS (Network
Attached Storage) par un accès bas niveau aux disques. Pour simplifier, le trafic sur un SAN est très
similaire aux principes utilisés pour l'utilisation des disques internes (ATA, SCSI). C'est une
mutualisation des ressources de stockage.
Dans le cas du NAS, la ressource de stockage est directement connectée au réseau IP de l'entreprise.
Le serveur NAS intègre le support de multiples systèmes de fichiers réseau, tels que Common
Internet File System (CIFS) protocole de partage de Microsoft et de Samba, Network File System
(NFS) qui est un protocole de partage de fichiers Unix, ou encore AFP (AppleShare File Protocol) qui
est l'équivalent pour la technologie Apple. Une fois connecté au réseau, il peut jouer le rôle de
plusieurs serveurs de fichiers partagés.
Dans le cas du SAN, les baies de stockage n'apparaissent pas comme des volumes partagés sur le
réseau. Elles sont directement accessibles en mode bloc par le système de fichiers des serveurs. En
clair, chaque serveur voit l'espace disque d'une baie SAN auquel il a accès comme son propre disque
dur. L'administrateur doit donc définir très précisément les Logical Unit Number (LUN, unités
logiques), le masking et le zoning, pour qu'un serveur Unix n'accède pas aux mêmes ressources
qu'un serveur Windows utilisant un système de fichiers différent.

L'un des premiers intérêts du SAN est de ne plus avoir à se préoccuper de faire évoluer la quantité de
disques autrefois dévolus à un serveur particulier ou de désallouer de l'espace non utilisé d'un
serveur surdimensionné en espace disque.
L'espace disque n'est plus limité par les caractéristiques des serveurs, et est évolutif à volonté par
l'ajout de disques ou de baies de stockage sur le SAN. L'espace de stockage physique mutualisé pour
les serveurs permet d'optimiser la gestion des disques, et de rendre plus aisées les sauvegardes de
données.
Les ressources de stockage ainsi mutualisées (SAN ou NAS) donnent la possibilité de mettre en
œuvre des fonctions de réplication (copie de données synchrone ou asynchrone entre deux baies) et
de snapshot (duplication d'un volume pour l'utiliser sur un autre serveur ou pour le sauvegarder par
exemple).
Ces fonctions permettent de sécuriser les données (implantation physique dans des locaux distants)
et d'optimiser la disponibilité des applications. Ces fonctions sont réalisées de façon transparente
pour les serveurs, et la réplication et la copie de données n'affectent pas les ressources du serveur,
puisqu'elles sont réalisées au niveau des contrôleurs SAN; l'impact sur les temps de réponse est en
général négligeable.
Réplication distante : certaines solutions SAN disposent de possibilité de transfert de données à
distance, typiquement sur un site distant dans le cadre d'un plan de continuité d'activité (PCA).

3.1. Caractéristiques du SAN

VANGAH Aristide | Réseaux Locaux – Première Edition Page 33


Cours de Réseaux Locaux – Première Année
La Qualité de service (Qos)
Le commutateur garantit un débit fixe de 16 Gbit/s (précédemment 1 Gbit/s, 2, 4 et 8) par lien en
fibre optique, et assure le fait que la requête envoyée par un serveur a bien été reçue et prise en
compte par les systèmes de stockage.
La disponibilité
Le SAN peut assurer la redondance du stockage, c'est-à-dire l’accessibilité au système de stockage
en cas de panne de l’un de ses éléments, en doublant au minimum chacun des éléments du
système (haute disponibilité).
L'hétérogénéité
Le SAN peut fonctionner dans un environnement complètement hétérogène : les serveurs Unix,
Windows, Netware… peuvent tous rejoindre le SAN.
Performances variables
La performance de l'accès aux disques par un hôte varie en fonction des sollicitations de la part
des autres hôtes sur les ressources partagées, elles peuvent donc varier dans le temps.
Evolutivité
Un réseau SAN peut utiliser les technologies les plus variées. Cela facilite le déplacement des
données de sauvegarde, les opérations, la migration des fichiers et la réplication des données
entre les systèmes.

3.2. Types de SAN

Switch SAN QLogic et connecteurs fibre optique LC.

Les SAN sont construits dans le but de fournir de l'espace disque rapide et fiable. La technologie la
plus répandue pour y parvenir est l'utilisation du protocole Fibre Channel, qui permet d'atteindre des
débits élevés (16 Gbit/s). Cette technologie induit la mise en œuvre de switchs ou de directors (gros
switches de plus de 64 ports, garantissant une disponibilité maximale et une évolutivité par ajout de
cartes contenant des ports de connexion). Le réseau de stockage ainsi constitué est appelé un fabric.
D'autres technologies ont fait leur apparition :
 iSCSI : ce sont les mêmes commandes SCSI mais sur TCP/IP ;
 FCoE (Fibre channel Over Ethernet) : les trames du protocole Fibre Channel sont transmises
sur un réseau Ethernet.
Le protocole le plus utilisé et standardisé reste toutefois le Fibre Channel.

VANGAH Aristide | Réseaux Locaux – Première Edition Page 34


Cours de Réseaux Locaux – Première Année

LECON 5 : EXTRANET ET INTRANET

L’arrivée des NTIC (Nouvelles Technologies de l’Information et de la Communication) au sein des


entreprises a révolutionné les manières de travailler, que ce soit par l’arrivée du fax, des ordinateurs,
et depuis peu d’Internet. En attendant la généralisation des organisers1 et avant la pénétration
massive des téléphones cellulaires reliés à Internet qui utilisent une technologie appelée WAP2,
certaines entreprises ont opté pour un réseau Intranet. Nous verrons dans cet exposé les avantages
d’un tel outil, et les démarches à mettre en place au sein de l’entreprise pour optimiser son
utilisation par tous. Nous verrons que l’utilisation d’un Intranet entraîne des modifications que ce
soit dans le comportement des salariés, dans le management des hommes, et dans l’organisation de
l’entreprise. Toutes ces restructurations n’ayant bien sûr comme objectif d’accroître la productivité,
pour mieux satisfaire le client… Car effectivement, la concurrence et ce qu’elle entraîne (diminution
des coûts, quels qu’ils soient, amélioration de la qualité des produits, des services), impose
nécessairement une modification de l’organisation au sein de l’entreprise. S’adapter, tel est le maître
mot, dans un environnement économico-socialo-politique mouvant, pris dans l’engrenage de la
mondialisation des échanges et de l’ouverture des marchés. Nous verrons donc en quoi les NTIC
permettent aux entreprises de répondre plus efficacement aux réalités du marché, notamment grâce
à l’utilisation d’un Intranet.
Afin de sortir d’un modèle d’organisation classique, utilisant des procédés pour optimiser des
secteurs précis comme la relation avec les clients, la chaîne de production, des achats, la gestion des
finances ou encore la distribution, modèle qui traduit une forme de verticalité dans l’organisation
hiérarchique de l’entreprise mais qui ne correspond plus assez aux exigences du marché, les
entreprises privilégient aujourd’hui davantage de transparence pour que leurs employés y voient
plus clair. Cette transversalité offre alors une vision intégrée de l’entreprise, autorisant une meilleure
interface client-employé. Un employé qui a désormais connaissance des informations, des besoins
du client, de la concurrence et des résultats de l’entreprise. Voyons en quoi cette circulation de
l’information au sein de l’entreprise est nécessaire :
La circulation
Faire circuler l’information, c’est aussi favoriser l’interactivité, ce qui permet ainsi une meilleure
coordination automatisée voire une « fertilisation des esprits » comme lors de brainstorming.
L'Intranet encourage la fin de l'organisation pyramidale de l'entreprise. Il s'adapte parfaitement au
management plus participatif des structures qui fonctionnent davantage par groupes de projets.
C'est la fin de la diffusion automatique des informations du sommet vers la base. Il favorise
l'émergence des groupes de travail virtuels.

1. Extranet
Un réseau Extranet est un lien entre l’entreprise et ses partenaires. Il améliore de fait les relations
externes de l’entreprise par une communication plus « souple », une information de qualité qui
circule rapidement et qui n’autorise plus d’erreurs « d’aiguillage ». Les retours des fournisseurs
permettent à l’entreprise d’optimiser la production par exemple. Outre les qualités de rapidité
attribuées aux nouvelles technologies, la possibilité de faire travailler à distance des personnes
éloignées, autorise un choix plus affiné des compétences recherchées et une sélection par le haut :
l’entreprise peut faire appel aux meilleurs pour collaborer via l’Intranet, pour un coût abordable.

2. Intranet
L'Intranet est un réseau d'entreprise (privé) qui utilise les technologies de l'Internet (public) et
notamment le Word Wide Web. Son rôle est avant tout de permettre le partage de l’information et
la communication au sein de l’entreprise. Basé sur les principes de l'Internet, il offre aux utilisateurs
VANGAH Aristide | Réseaux Locaux – Première Edition Page 35
Cours de Réseaux Locaux – Première Année
la possibilité de produire et de diffuser facilement l'information, que ce soit au travers de listes de
diffusion, du courrier électronique ou d’un serveur Web. L'Intranet permet une transformation
majeure des flux d’informations au sein de l’entreprise. Assimilable à un réseau isolé et sécurisé, il
est administré et contrôlé par une entité qui a pouvoir sur le débit octroyé aux communications et
les droits accordés aux utilisateurs. Ces caractéristiques élargissent le potentiel de l'Intranet à des
applications actuellement difficilement exploitables sur Internet, telles que la téléphonie ou la
visioconférence.
Une raison qui peut favoriser l’intégration d’un Intranet est aussi le coût. En effet, une application
Intranet est moins chère a fabriquer, et surtout moins chère a maintenir. Elle est aussi moins longue
a développer. Tous ces éléments sont des facteurs d’allégement du coût, quelque soit l’échelle de
temps considérée.
Directement dérivée de la première, une autre raison est celle de la satisfaction de l’utilisateur, voire
du client. Le cycle de vie du logiciel est plus court, l’interface est intuitive, et les éventuels bugs3
peuvent être corrigés très rapidement. De fait, le déploiement d’une application Intranet est d’une
facilite déconcertante comparativement aux applications de même complexité.

L’Intranet d’un point de vue technique


L'architecture Intranet repose sur l'utilisation d'un navigateur Web, qualifié de client universel.
Logiciel issu du monde Internet, le navigateur autorise l'accès à l'ensemble des systèmes de
l'entreprise (messagerie, forums de discussion, transactions ou consultation d'applications ou de
bases de données, etc.).
Dans un même ordre d’idée, certaines entreprises adoptent la stratégie PUSH

La technologie Push
Le Push est un nouveau concept de diffusion d'information sur les réseaux Internet / Intranet.
L'utilisation classique de l'Internet consiste à localiser puis aller chercher l'information. C’est le
principe du Web (modèle ‘Pull’). La technologie Push repose sur le principe de la diffusion
d’informations multicanaux, un peu à la manière d’une chaîne de télévision. En réglant un client sur
des canaux spécifiques, l’utilisateur reçoit directement l’information sur son ordinateur.
Dans les deux cas, que ce soit l’Intranet ou le Push, ces nouvelles technologies entraînent des
comportements de communication et de coopération.

L’apport Internet
En association à l’Intranet, Internet permet de constituer de grosses bases de données grâce à
l’utilisation des formulaires que les entreprises mettent en place sur leur site. Un outil qui permet
d’offrir un produit, un service ou une promotion plus ciblée et en accord avec les centres d’intérêt du
client. Un prestataire de service pourra donc établir un lien entre un client et une personne du
service après-vente de l’entreprise pour trouver une solution à un problème donné. Internet peut ici
jouer le complément logique d’un premier contact (humain) entre les deux intéressés.

Réduction des coûts, flexibilité de circulation de l’information, efficacité des processus et autre
circuit de traitement sont les forces des nouvelles technologies.
Elles assurent plus de transparence au sein de l’entreprise et accroissent la fidélisation du client. En
outre, elles permettent de fournir par un ciblage plus précis le service dont le client pourrait avoir
besoin.

VANGAH Aristide | Réseaux Locaux – Première Edition Page 36


Cours de Réseaux Locaux – Première Année

LECON 6 : BANDE PASSANTE

En électronique, la bande passante ((en) pass-band) d'un système est l'intervalle de fréquences dans
lequel l'affaiblissement du signal est inférieur à une valeur spécifiée (CEI). C'est une façon sommaire
de caractériser la fonction de transfert d'un système, pour indiquer la gamme de fréquences qu'un
système peut raisonnablement traiter (Dic. Phys.).
La bande passante doit être distinguée de la largeur de bande ((en) bandwidth), d'une définition plus
générale et qui concerne aussi bien les systèmes que les signaux (CEI).
Par analogie, dans le domaine des réseaux informatiques, spécialement les accès à internet à haut
débit, on utilise le terme bande passante pour désigner le débit binaire maximal d'une voie de
transmission. La ligne de transmission jusqu'à l'usager est le composant déterminant. La notion de
bande passante s'applique mal aux lignes de transmission, qui atténuent progressivement les
fréquences et connaissent des phénomènes de déphasage et de réflexion d'ondes, et dont le débit
numérique dépend en outre du niveau de bruit de fond.

1. Définition
Dans le domaine de l'informatique, la bande passante indique (par abus de langage) un
débit d'informations. Le terme exact est le débit binaire.
L'origine du terme est une analogie avec la bande passante en électronique. La bande passante d'un
câble mesurant le nombre maximal d'oscillations par seconde qu'un signal peut y prendre sans être
trop atténué, si le signal est celui d'une liaison informatique comme une liaison série, le nombre
d'oscillations va refléter le nombre d'informations que l'on peut transférer durant une seconde.
La bande passante peut concerner le débit d'un périphérique (tel qu'une mémoire, un disque dur,
etc.) ou d'un medium de communication (réseau, bus, etc.) ou de manière générale n'importe quel
débit d'information comme entre le processeur et la mémoire cache.
On mesure généralement cette bande passante en octets (byte en anglais) par seconde (o/s, ou en
anglais " Byte per second ", B/s) ou en bits par secondes (bit/s ou bps), plus généralement utilisée
par les fournisseurs d'accès internet pour donner le débit maximum d'un abonnement.
La bande passante "utile" (visualisée par l'utilisateur) peut être différente de celle délivrée par le
fournisseur. En effet de nombreux facteurs influent sur les performances applicatives. Ainsi, la
latence (délai de transmission) associée à la taille des fenêtres TCP de la machine réceptrice limitent
le débit utilisable par une session applicative selon la formule suivante: Débit Max = Taille de
la fenêtre TCP / Latence.
Exemple : Débit max "Toulouse-Dubai" = 65535 Bytes / 0.220 s = 297886.36 Bytes/s = (8 * 297886.36
)/ (1024 * 1024) = 2.27 Mbit/s.
Le débit ressenti par un utilisateur n'est donc pas uniquement fonction de la bande passante
souscrite auprès d'un opérateur.

2. Largeur de bande et bande passante


On définit la largeur de bande d'un signal par l'analyse spectrale ou par tout autre moyen. On aboutit
à un résultat qui peut être une densité spectrale de puissance ou toute autre représentation
détaillée des fréquences qui peuvent se trouver dans le signal. La largeur de bande résume ces
résultats par une expression du genre
« Les composantes fréquentielles d'amplitude supérieure à 1 % du maximum du signal sont toutes
entre 20 Hz et 16 kHz. »

VANGAH Aristide | Réseaux Locaux – Première Edition Page 37


Cours de Réseaux Locaux – Première Année
La limite d'amplitude des composantes exprime le fait que ce qui est hors de l'intervalle est
négligeable. La plupart du temps, on ne l'indique pas, et on indique « largeur de bande : 20 Hz -
16 kHz »
Pour traiter convenablement ce signal, compte tenu de la tolérance, on doit utiliser un système dont
la bande passante est similaire. Si la bande passante du système est plus étroite, le signal se trouve
déformé, et pour le reconstituer, il faut lui appliquer un filtrage qui va augmenter le bruit de fond.
D'autre part, augmenter la bande passante du système, c'est augmenter sa sensibilité aux
interférences et son prix et diminuer sa stabilité.

Exemple :
Un système dont la bande passante est 20 Hz - 20 kHz convient pour un signal dont la largeur de
bande est 20 Hz - 16 kHz.
La petite marge assure que le système traite convenablement les plus hautes fréquences du signal.

3. Traitement du signal
La bande passante est la largeur, mesurée en hertz, d'une plage de fréquences f2 - f1. Elle peut aussi
être utilisée pour décrire un signal, dans ce cas le terme désigne la différence entre la plus haute et
la plus basse fréquence du signal (ce que l'on appelle aussi l'encombrement spectral). Elle est
habituellement notée B ou BP.

Bande passante à -3 dB.

La bande passante à -3 dB (décibel) d'un amplificateur est la gamme de fréquences où le gain


en tension de l'amplificateur est supérieur au gain maximum moins trois décibels. Si on ne raisonne
pas en décibel, cela correspond à la gamme de fréquences où le gain en tension est supérieur au gain
maximum divisé par racine de deux, ce qui correspond à une division de la puissance fournie à
la charge par deux. Occasionnellement on rencontre des bandes passantes plus larges, par exemple
la bande passante à -6 dB, gamme de fréquences où le gain en tension est supérieur à la moitié du
gain maximum.
De manière plus générale, la bande passante à -x dB est la gamme de fréquences où le gain
du filtre est supérieur au gain maximum divisé par 10x/20
Exemple pour -3dB : 100,15 = √2 (≈1,41)
Les points extrêmes de la bande passante sont appelés pulsations de coupure.

La bande passante dépend de la définition adoptée pour la fréquence de coupure. Quand on


s'intéresse plus à la transmission correcte des signaux en deçà de la fréquence de coupure, qu'à la
suppression des signaux au-delà, on définit souvent la fréquence de coupure comme celle où la
puissance est divisée par deux (-3 décibels) par rapport au niveau nominal.

VANGAH Aristide | Réseaux Locaux – Première Edition Page 38


Cours de Réseaux Locaux – Première Année

4. Facteurs limitant le débit


Tandis qu'il est assez facile de rassembler les éléments nécessaires à la création d'un réseau,
parvenir à le faire fonctionner à la vitesse maximum s'avère être plus compliqué. Les facteurs de
ralentissements d'un réseau sont multiples :
- L'interface du réseau Gigabit avec le système
Le débit du volume de données théorique de 133 Mo/s pour les PCI est partagé à l’ensemble du
système. Les PCIe devraient régler le problème avec un débit minimum de 250 Mo/s qui leur est
exclusivement attribué
- Le câblage du réseau
La présence de fils électriques et de câbles d'alimentation près des câbles réseau
La longueur des câbles peut également se révéler être problématique
- Les disques durs
L'ancienne interface IDE arborant les normes ATA/133 devait être capable de supporter un taux de
transfert théorique de 133 Mo/s et la nouvelle norme SATA devrait fournir une bande passante d'au
moins 1,5 Go/s sans trop de difficulté

VANGAH Aristide | Réseaux Locaux – Première Edition Page 39


Cours de Réseaux Locaux – Première Année

LECON 7 : MODELE OSI

Introduction
Les constructeurs informatiques ont proposé des architectures réseaux propres à leurs équipements.
Par exemple, IBM a proposé SNA, DEC a proposé DNA... Ces architectures ont toutes le même défaut
: du fait de leur caractère propriétaire, il n'est pas facile des les interconnecter, à moins d'un accord
entre constructeurs. Aussi, pour éviter la multiplication des solutions d'interconnexion
d'architectures hétérogènes, l'ISO (International Standards Organisation), organisme dépendant de
l'ONU et composé de 140 organismes nationaux de normalisation, a développé un modèle de
référence appelé modèle OSI (Open Systems Interconnection). Ce modèle décrit les concepts utilisés
et la démarche suivie pour normaliser l'interconnexion de systèmes ouverts (un réseau est composé
de systèmes ouverts lorsque la modification, l'adjonction ou la suppression d'un de ces systèmes ne
modifie pas le comportement global du réseau).
Au moment de la conception de ce modèle, la prise en compte de l'hétérogénéité des équipements
était fondamentale. En effet, ce modèle devait permettre l'interconnexion avec des systèmes
hétérogènes pour des raisons historiques et économiques. Il ne devait en outre pas favoriser un
fournisseur particulier. Enfin, il devait permettre de s'adapter à l'évolution des flux d'informations à
traiter sans remettre en cause les investissements antérieurs. Cette prise en compte de
l'hétérogénéité nécessite donc l'adoption de règles communes de communication et de coopération
entre les équipements, c'est à dire que ce modèle devait logiquement mener à une normalisation
internationale des protocoles.
Le modèle OSI n'est pas une véritable architecture de réseau, car il ne précise pas réellement les
services et les protocoles à utiliser pour chaque couche. Il décrit plutôt ce que doivent faire les
couches. Néanmoins, l'ISO a écrit ses propres normes pour chaque couche, et ceci de manière
indépendante au modèle, i.e. comme le fait tout constructeur.
Les premiers travaux portant sur le modèle OSI datent de 1977. Ils ont été basés sur l'expérience
acquise en matière de grands réseaux et de réseaux privés plus petits ; le modèle devait en effet être
valable pour tous les types de réseaux. En 1978, l'ISO propose ce modèle sous la norme ISO IS7498.
En 1984, 12 constructeurs européens, rejoints en 1985 par les grands constructeurs américains,
adoptent le standard.

1. Principes de création des couches du modèle OSI


Les principes qui ont conduit à ces 7 couches sont les suivants :
- Une couche doit être créée lorsqu'un nouveau niveau d'abstraction est nécessaire,
- Chaque couche a des fonctions bien définies,
- Les fonctions de chaque couche doivent être choisies dans l'objectif de la normalisation
internationale des protocoles,
- Les frontières entre couches doivent être choisies de manière à minimiser le flux d'information
aux interfaces,
- Le nombre de couches doit être tel qu'il n'y ait pas cohabitation de fonctions très différentes
au sein d'une même couche et que l'architecture ne soit pas trop difficile à maîtriser.

Le modèle OSI comporte 7 couches :

VANGAH Aristide | Réseaux Locaux – Première Edition Page 40


Cours de Réseaux Locaux – Première Année

Les couches basses (1, 2, 3 et 4) sont nécessaires à l'acheminement des informations entre les
extrémités concernées et dépendent du support physique. Les couches hautes (5, 6 et 7) sont
responsables du traitement de l'information relative à la gestion des échanges entre systèmes
informatiques. Par ailleurs, les couches 1 à 3 interviennent entre machines voisines, et non entre les
machines d'extrémité qui peuvent être séparées par plusieurs routeurs. Les couches 4 à 7 sont au
contraire des couches qui n'interviennent qu'entre hôtes distants.

2. Les couches du modèle OSI

2.1. La couche Physique


La couche physique s'occupe de la transmission des bits de façon brute sur un canal de
communication. Cette couche doit garantir la parfaite transmission des données (un bit 1 envoyé
doit bien être reçu comme bit valant 1). Concrètement, cette couche doit normaliser les
caractéristiques électriques (un bit 1 doit être représenté par une tension de 5 V, par exemple), les
caractéristiques mécaniques (forme des connecteurs, de la topologie...), les caractéristiques
fonctionnelles des circuits de données et les procédures d'établissement, de maintien et de
libération du circuit de données.
L'unité d'information typique de cette couche est le bit, représenté par une certaine différence de
potentiel.

2.2. La couche Liaison de données


Son rôle est un rôle de "liant" : elle va transformer la couche physique en une liaison a priori
exempte d'erreurs de transmission pour la couche réseau. Elle fractionne les données d'entrée de
l'émetteur en trames, transmet ces trames en séquence et gère les trames d'acquittement
renvoyées par le récepteur. Rappelons que pour la couche physique, les données n'ont aucune
signification particulière. La couche liaison de données doit donc être capable de reconnaître les
frontières des trames. Cela peut poser quelques problèmes, puisque les séquences de bits utilisées
pour cette reconnaissance peuvent apparaître dans les données.
La couche liaison de données doit être capable de renvoyer une trame lorsqu'il y a eu un problème
sur la ligne de transmission. De manière générale, un rôle important de cette couche est la détection

VANGAH Aristide | Réseaux Locaux – Première Edition Page 41


Cours de Réseaux Locaux – Première Année
et la correction d'erreurs intervenues sur la couche physique. Cette couche intègre également une
fonction de contrôle de flux pour éviter l'engorgement du récepteur.
L'unité d'information de la couche liaison de données est la trame qui est composées de quelques
centaines à quelques milliers d'octets maximum.

2.3. La couche Réseau


C'est la couche qui permet de gérer le sous-réseau, i.e. le routage des paquets sur ce sous-réseau et
l'interconnexion des différents sous-réseaux entre eux. Au moment de sa conception, il faut bien
déterminer le mécanisme de routage et de calcul des tables de routage (tables statiques ou
dynamiques...).
La couche réseau contrôle également l'engorgement du sous-réseau. On peut également y intégrer
des fonctions de comptabilité pour la facturation au volume, mais cela peut être délicat.
L'unité d'information de la couche réseau est le paquet.

2.4. La couche Transport


Cette couche est responsable du bon acheminement des messages complets au destinataire. Le rôle
principal de la couche transport est de prendre les messages de la couche session, de les découper
s'il le faut en unités plus petites et de les passer à la couche réseau, tout en s'assurant que les
morceaux arrivent correctement de l'autre côté. Cette couche effectue donc aussi le réassemblage
du message à la réception des morceaux.
Cette couche est également responsable de l'optimisation des ressources du réseau : en toute
rigueur, la couche transport crée une connexion réseau par connexion de transport requise par la
couche session, mais cette couche est capable de créer plusieurs connexions réseau par processus
de la couche session pour répartir les données, par exemple pour améliorer le débit. A l'inverse,
cette couche est capable d'utiliser une seule connexion réseau pour transporter plusieurs messages
à la fois grâce au multiplexage. Dans tous les cas, tout ceci doit être transparent pour la couche
session.
Cette couche est également responsable du type de service à fournir à la couche session, et
finalement aux utilisateurs du réseau : service en mode connecté ou non, avec ou sans garantie
d'ordre de délivrance, diffusion du message à plusieurs destinataires à la fois... Cette couche est
donc également responsable de l'établissement et du relâchement des connexions sur le réseau.
Un des tous derniers rôles à évoquer est le contrôle de flux.
C'est l'une des couches les plus importantes, car c'est elle qui fournit le service de base à l'utilisateur,
et c'est par ailleurs elle qui gère l'ensemble du processus de connexion, avec toutes les contraintes
qui y sont liées.
L'unité d'information de la couche réseau est le message.

2.5. La couche Session


Cette couche organise et synchronise les échanges entre tâches distantes. Elle réalise le lien entre les
adresses logiques et les adresses physiques des tâches réparties. Elle établit également une liaison
entre deux programmes d'application devant coopérer et commande leur dialogue (qui doit parler,
qui parle...). Dans ce dernier cas, ce service d'organisation s'appelle la gestion du jeton. La couche
session permet aussi d'insérer des points de reprise dans le flot de données de manière à pouvoir
reprendre le dialogue après une panne.

2.6. La couche Présentation

VANGAH Aristide | Réseaux Locaux – Première Edition Page 42


Cours de Réseaux Locaux – Première Année
Cette couche s'intéresse à la syntaxe et à la sémantique des données transmises : c'est elle qui traite
l'information de manière à la rendre compatible entre tâches communicantes. Elle va assurer
l'indépendance entre l'utilisateur et le transport de l'information.
Typiquement, cette couche peut convertir les données, les reformater, les crypter et les compresser.

2.7. La couche Application


Cette couche est le point de contact entre l'utilisateur et le réseau. C'est donc elle qui va apporter à
l'utilisateur les services de base offerts par le réseau, comme par exemple le transfert de fichier, la
messagerie...

3. Encapsulation
L'encapsulation, spécifiquement pour les réseaux informatiques, est un procédé consistant à inclure
les données d'un protocole dans un autre protocole.
Le principe de l'encapsulation dans le modèle OSI est aussi une notion fondamentale pour bien
comprendre le fonctionnement de la transmission d'un hôte d'origine à sa destination. Chaque
couche parle à l'autre dans un contexte d'égal à égal.

4. Transmission de données au travers du modèle OSI


Le processus émetteur remet les données à envoyer au processus récepteur à la couche application
qui leur ajoute un en-tête application AH (éventuellement nul). Le résultat est alors transmis à la
couche présentation.
La couche présentation transforme alors ce message et lui ajoute (ou non) un nouvel en-tête
(éventuellement nul). La couche présentation ne connaît et ne doit pas connaître l'existence
éventuelle de AH ; pour la couche présentation, AH fait en fait partie des données utilisateur. Une
fois le traitement terminé, la couche présentation envoie le nouveau "message" à la couche session
et le même processus recommence.
Les données atteignent alors la couche physique qui va effectivement transmettre les données au
destinataire. A la réception, le message va remonter les couches et les en-têtes sont
progressivement retirés jusqu'à atteindre le processus récepteur :

VANGAH Aristide | Réseaux Locaux – Première Edition Page 43


Cours de Réseaux Locaux – Première Année

Le concept important est le suivant : il faut considérer que chaque couche est programmée comme si
elle était vraiment horizontale, c'est à dire qu'elle dialoguait directement avec sa couche paire
réceptrice. Au moment de dialoguer avec sa couche paire, chaque couche rajoute un en-tête et
l'envoie (virtuellement, grâce à la couche sous-jacente) à sa couche paire.

5. Critique du modele OSI


La chose la plus frappante à propos du modèle OSI est que c'est peut-être la structure réseau la plus
étudiée et la plus unanimement reconnue et pourtant ce n'est pas le modèle qui a su s'imposer. Les
spécialistes qui ont analysé cet échec en ont déterminé 4 raisons principales.
Ce n'était pas le bon moment
David Clark du MIT a émis la théorie suivant quant à l'art et la manière de publier une norme au bon
moment. Pour lui, dans le cycle de vie d'une norme, il y a 2 pics principaux d'activité : la recherche
effectuée dans le domaine couvert par la norme, et les investissements des industriels pour
l'implémentation et la mise en place de la norme. Ces deux pics sont séparés par un creux d'activité
qui apparaît être en fait le moment idéal pour la publication de la norme : il n'est ni trop tôt par
rapport à la recherche et on peut donc assurer une certaine maîtrise, et il n'est ni trop tard pour les
investissements et les industriels sont prêts à utiliser des capitaux pour l'implémenter.
Le modèle OSI était idéalement placé par rapport à la recherche, mais hélas, le modèle TCP/IP était
déjà en phase d'investissement prononcé (lorsque le modèle OSI est sorti, les universités
américaines utilisaient déjà largement TCP/IP avec un certain succès) et les industriels n'ont pas
ressenti le besoin d'investir dessus
Ce n'était pas la bonne technologie
Le modèle OSI est peut-être trop complet et trop complexe. La distance entre l'utilisation concrète
(l'implémentation) et le modèle est parfois importante. En effet, peu de programmes peuvent
utiliser ou utilisent mal l'ensemble des 7 couches du modèle : les couches session et présentation
sont fort peu utilisées et à l'inverse les couches liaison de données et réseau sont très souvent
découpées en sous-couches tant elles sont complexes.
OSI est en fait trop complexe pour pouvoir être proprement et efficacement implémenté. Le comité
rédacteur de la norme a même du laisser de côté certains points techniques, comme le la sécurité et
le codage, tant il était délicat de conserver un rôle bien déterminé à chaque couche ainsi complétée.
Ce modèle est également redondant (le contrôle de flux et le contrôle d'erreur apparaissent
pratiquement dans chaque couche). Au niveau de l'implémentation, TCP/IP est beaucoup plus
optimisé et efficace.
La plus grosse critique que l'on peut faire au modèle est qu'il n'est pas du tout adapté aux
applications de télécommunication sur ordinateur ! Certains choix effectués sont en désaccord avec
la façon dont les ordinateurs et les logiciels communiquent. La norme a en fait le choix d'un
"système d'interruptions" pour signaler les événements, et sur des langages de programmation de
haut niveau, cela est peu réalisable.
Ce n'était pas la bonne implémentation
Cela tient tout simplement du fait que le modèle est relativement complexe, et que du coup les
premières implémentations furent relativement lourdes et lentes. A l'inverse, la première
implémentation de TCP/IP dans l'Unix de l'université de Berkeley (BSD) était gratuite et relativement
efficace. Historiquement, les gens ont donc eu une tendance naturelle à utiliser TCP/IP.
Ce n'était pas la bonne politique
Le modèle OSI a en fait souffert de sa trop forte normalisation. Les efforts d'implémentation du
modèle étaient surtout "bureaucratiques" et les gens ont peut-être vu ça d'un mauvaise oeil.
VANGAH Aristide | Réseaux Locaux – Première Edition Page 44
Cours de Réseaux Locaux – Première Année
A l'inverse, TCP/IP est venu d'Unix et a été tout de suite utilisé, qui plus est par des centres de
recherches et les universités, c'est-à-dire les premiers a avoir utilisé les réseaux de manière poussée.
Le manque de normalisation de TCP/IP a été contre-balancé par une implémentation rapide et
efficace, et une utilisation dans un milieu propice à sa propagation.

6. L’avenir du modèle OSI


Au niveau de son utilisation et implémentation, et ce malgré une mise à jour du modèle en 1994, OSI
a clairement perdu la guerre face à TCP/IP. Seuls quelques grands constructeurs dominant
conservent le modèle mais il est amené à disparaître d'autant plus vite qu'Internet (et donc TCP/IP)
explose.
Le modèle OSI restera cependant encore longtemps dans les mémoires pour plusieurs raisons. C'est
d'abord l'un des premiers grands efforts en matière de normalisation du monde des réseaux. Les
constructeurs ont maintenant tendance à faire avec TCP/IP, mais aussi le WAP, l'UMTS etc. ce qu'il
devait faire avec OSI, à savoir proposer des normalisations dès le départ. OSI marquera aussi les
mémoires pour une autre raison : même si c'est TCP/IP qui est concrètement utilisé, les gens ont
tendance et utilisent OSI comme le modèle réseau de référence actuel. En fait, TCP/IP et OSI ont des
structures très proches, et c'est surtout l'effort de normalisation d'OSI qui a imposé cette
"confusion" générale entre les 2 modèles. On a communément tendance à considérer TCP/IP comme
l'implémentation réelle de OSI.

VANGAH Aristide | Réseaux Locaux – Première Edition Page 45


Cours de Réseaux Locaux – Première Année

PARTIE 2
PRESEENTATION DE LA PILE TCP/IP

LECON 1 : PROTOCOLE TCP/IP

Introduction
TCP/IP désigne communément une architecture réseau, mais cet acronyme désigne en fait 2
protocoles étroitement liés : un protocole de transport, TCP (Transmission Control Protocol) qu'on
utilise "par-dessus" un protocole réseau, IP (Internet Protocol). Ce qu'on entend par "modèle
TCP/IP", c'est en fait une architecture réseau en 4 couches dans laquelle les protocoles TCP et IP
jouent un rôle prédominant, car ils en constituent l'implémentation la plus courante. Par abus de
langage, TCP/IP peut donc désigner deux choses : le modèle TCP/IP et la suite de deux protocoles
TCP et IP.
Le modèle TCP/IP, comme nous le verrons plus bas, s'est progressivement imposé comme modèle de
référence en lieu et place du modèle OSI. Cela tient tout simplement à son histoire. En effet,
contrairement au modèle OSI, le modèle TCP/IP est né d'une implémentation ; la normalisation est
venue ensuite. Cet historique fait toute la particularité de ce modèle, ses avantages et ses
inconvénients.

L'origine de TCP/IP remonte au réseau ARPANET. ARPANET est un réseau de télécommunication


conçu par l'ARPA (Advanced Research Projects Agency), l'agence de recherche du ministère
américain de la défense (le DOD : Department of Defense). Outre la possibilité de connecter des
réseaux hétérogènes, ce réseau devait résister à une éventuelle guerre nucléaire, contrairement au
réseau téléphonique habituellement utilisé pour les télécommunications mais considéré trop
vulnérable. Il a alors été convenu qu'ARPANET utiliserait la technologie de commutation par paquet
(mode datagramme), une technologie émergeante promettante. C'est donc dans cet objectif et ce
choix technique que les protocoles TCP et IP furent inventés en 1974. L'ARPA signa alors plusieurs
contrats avec les constructeurs (BBN principalement) et l'université de Berkeley qui développait un
Unix pour imposer ce standard, ce qui fut fait.

1. Description du modèle
Le modèle TCP/IP peut en effet être décrit comme une architecture réseau à 4 couches

VANGAH Aristide | Réseaux Locaux – Première Edition Page 46


Cours de Réseaux Locaux – Première Année

Le modèle OSI a été mis à côté pour faciliter la comparaison entre les deux modèles.

1.1. La couche hôte réseau


Cette couche est assez "étrange". En effet, elle semble "regrouper" les couches physique et liaison
de données du modèle OSI. En fait, cette couche n'a pas vraiment été spécifiée ; la seule contrainte
de cette couche, c'est de permettre un hôte d'envoyer des paquets IP sur le réseau.
L'implémentation de cette couche est laissée libre. De manière plus concrète, cette implémentation
est typique de la technologie utilisée sur le réseau local. Par exemple, beaucoup de réseaux locaux
utilisent Ethernet ; Ethernet est une implémentation de la couche hôte-réseau.

1.2. La couche internet


Cette couche est la clé de voûte de l'architecture. Cette couche réalise l'interconnexion des réseaux
(hétérogènes) distants sans connexion. Son rôle est de permettre l'injection de paquets dans
n'importe quel réseau et l'acheminement des ces paquets indépendamment les uns des autres
jusqu'à destination. Comme aucune connexion n'est établie au préalable, les paquets peuvent arriver
dans le désordre ; le contrôle de l'ordre de remise est éventuellement la tâche des couches
supérieures.
Du fait du rôle imminent de cette couche dans l'acheminement des paquets, le point critique de
cette couche est le routage. C'est en ce sens que l'on peut se permettre de comparer cette couche
avec la couche réseau du modèle OSI.
La couche internet possède une implémentation officielle : le protocole IP (Internet Protocol).
Remarquons que le nom de la couche ("internet") est écrit avec un i minuscule, pour la simple et
bonne raison que le mot internet est pris ici au sens large (littéralement, "interconnexion de
réseaux"), même si l'Internet (avec un grand I) utilise cette couche.

1.3. La couche transport


Son rôle est le même que celui de la couche transport du modèle OSI : permettre à des entités paires
de soutenir une conversation.
Officiellement, cette couche n'a que deux implémentations : le protocole TCP (Transmission Control
Protocol) et le protocole UDP (User Datagram Protocol). TCP est un protocole fiable, orienté
VANGAH Aristide | Réseaux Locaux – Première Edition Page 47
Cours de Réseaux Locaux – Première Année
connexion, qui permet l'acheminement sans erreur de paquets issus d'une machine d'un internet à
une autre machine du même internet. Son rôle est de fragmenter le message à transmettre de
manière à pouvoir le faire passer sur la couche internet. A l'inverse, sur la machine destination, TCP
replace dans l'ordre les fragments transmis sur la couche internet pour reconstruire le message
initial. TCP s'occupe également du contrôle de flux de la connexion.
UDP est en revanche un protocole plus simple que TCP : il est non fiable et sans connexion. Son
utilisation présuppose que l'on n'a pas besoin ni du contrôle de flux, ni de la conservation de l'ordre
de remise des paquets. Par exemple, on l'utilise lorsque la couche application se charge de la remise
en ordre des messages. On se souvient que dans le modèle OSI, plusieurs couches ont à charge la
vérification de l'ordre de remise des messages. C'est là un avantage du modèle TCP/IP sur le modèle
OSI, mais nous y reviendrons plus tard. Une autre utilisation d'UDP : la transmission de la voix. En
effet, l'inversion de 2 phonèmes ne gêne en rien la compréhension du message final. De manière
plus générale, UDP intervient lorsque le temps de remise des paquets est prédominant.

1.4. La couche application


Contrairement au modèle OSI, c'est la couche immédiatement supérieure à la couche transport, tout
simplement parce que les couches présentation et session sont apparues inutiles. On s'est en effet
aperçu avec l'usage que les logiciels réseau n'utilisent que très rarement ces 2 couches, et
finalement, le modèle OSI dépouillé de ces 2 couches ressemble fortement au modèle TCP/IP.
Cette couche contient tous les protocoles de haut niveau, comme par exemple Telnet, TFTP (trivial
File Transfer Protocol), SMTP (Simple Mail Transfer Protocol), HTTP (HyperText Transfer Protocol). Le
point important pour cette couche est le choix du protocole de transport à utiliser. Par exemple,
TFTP (surtout utilisé sur réseaux locaux) utilisera UDP, car on part du principe que les liaisons
physiques sont suffisamment fiables et les temps de transmission suffisamment courts pour qu'il n'y
ait pas d'inversion de paquets à l'arrivée. Ce choix rend TFTP plus rapide que le protocole FTP qui
utilise TCP. A l'inverse, SMTP utilise TCP, car pour la remise du courrier électronique, on veut que
tous les messages parviennent intégralement et sans erreurs.

2. Comparaison avec le modèle OSI et critique

2.1. Comparaison avec le modèle OSI


Tout d'abord, les points communs. Les modèles OSI et TCP/IP sont tous les deux fondés sur le
concept de pile de protocoles indépendants. Ensuite, les fonctionnalités des couches sont
globalement les mêmes.
Au niveau des différences, on peut remarquer la chose suivante : le modèle OSI faisait clairement la
différence entre 3 concepts principaux, alors que ce n'est plus tout à fait le cas pour le modèle
TCP/IP. Ces 3 concepts sont les concepts de services, interfaces et protocoles. En effet, TCP/IP fait
peu la distinction entre ces concepts, et ce malgré les efforts des concepteurs pour se rapprocher de
l'OSI. Cela est dû au fait que pour le modèle TCP/IP, ce sont les protocoles qui sont d'abord apparus.
Le modèle ne fait finalement que donner une justification théorique aux protocoles, sans les rendre
véritablement indépendants les uns des autres.
Enfin, la dernière grande différence est liée au mode de connexion. Certes, les modes orienté
connexion et sans connexion sont disponibles dans les deux modèles mais pas à la même couche :
pour le modèle OSI, ils ne sont disponibles qu'au niveau de la couche réseau (au niveau de la couche
transport, seul le mode orienté connexion n'est disponible), alors qu'ils ne sont disponibles qu'au
niveau de la couche transport pour le modèle TCP/IP (la couche internet n'offre que le mode sans
connexion). Le modèle TCP/IP a donc cet avantage par rapport au modèle OSI : les applications (qui
utilisent directement la couche transport) ont véritablement le choix entre les deux modes de
connexion.
VANGAH Aristide | Réseaux Locaux – Première Edition Page 48
Cours de Réseaux Locaux – Première Année

2.2. Critique
Une des premières critiques que l'on peut émettre tient au fait que le modèle TCP/IP ne fait pas
vraiment la distinction entre les spécifications et l'implémentation : IP est un protocole qui fait partie
intégrante des spécifications du modèle.
Une autre critique peut être émise à l'encontre de la couche hôte réseau. En effet, ce n'est pas à
proprement parler une couche d'abstraction dans la mesure où sa spécification est trop floue. Les
constructeurs sont donc obligés de proposer leurs solutions pour "combler" ce manque. Finalement,
on s'aperçoit que les couches physiques et liaison de données sont tout aussi importantes que la
couche transport. Partant de là, on est en droit de proposer un modèle hybride à 5 couches,
rassemblant les points forts des modèles OSI et TCP/IP :

Modèle hybride de référence

C'est finalement ce modèle qui sert véritablement de référence dans le monde de l'Internet. On a
ainsi gardé la plupart des couches de l'OSI (toutes, sauf les couches session et présentation) car
correctement spécifiées. En revanche, ses protocoles n'ont pas eu de succès et on a du coup gardé
ceux de TCP/IP.

VANGAH Aristide | Réseaux Locaux – Première Edition Page 49


Cours de Réseaux Locaux – Première Année

3. Protocole IP

3.1. Définition
IP signifie "Internet Protocol", protocole Internet. Il représente le protocole réseau le plus répandu. Il
permet de découper l'information à transmettre en paquets, de les adresser, de les transporter
indépendamment les uns des autres et de recomposer le message initial à l'arrivée. Ce protocole
utilise ainsi une technique dite de commutation de paquets. Il apporte, en comparaison à Ipx/Spx et
Netbeui, l'adressage en couche 3 qui permet, par exemple, la fonction principale de routage.

Il est souvent associé à un protocole de contrôle de la transmission des données appelé TCP, on
parle ainsi du protocole TCP/IP. Cependant, TCP/IP est un ensemble de protocole dont voici les plus
connu.

- IP - Internet Protocol - Couche 3 - IP natif.


- ARP - Address Resolution Protocol - Couche 3 - Résolution d'adresse IP en adresse MAC.
- RARP - Reverse Address Resolution Protocol - Couche 3 - Résolution d'adresse MAC en adresse IP.
- ICMP - Internet Control Message Protocol - Couche 3 - Gestion des messages du protocole IP.
- IGMP - Internet Group Management Protocol - Couche 3 - Protocole de gestion de groupe.
- TCP - Transmission Control Protocol - Couche 4 - Transport en mode connecté.
- UDP - User Datagram Protocol - Couche 4 - Transport en mode non connecté.

3.2. Rôle
Le protocole IP fait partie de la couche Internet de la suite de protocoles TCP/IP. C'est un des
protocoles les plus importants d'Internet car il permet l'élaboration et le transport des datagrammes
IP (les paquets de données), sans toutefois en assurer la « livraison ». En réalité, le protocole IP traite
les datagrammes IP indépendamment les uns des autres en définissant leur représentation, leur
routage et leur expédition.
Le protocole IP détermine le destinataire du message grâce à 3 champs :

- Le champ adresse IP : adresse de la machine


- Le champ masque de sous-réseau : un masque de sous-réseau permet au protocole IP de
déterminer la partie de l'adresse IP qui concerne le réseau
- Le champ passerelle par défaut : Permet au protocole Internet de savoir à quelle machine
remettre le datagramme si jamais la machine de destination n'est pas sur le réseau local

VANGAH Aristide | Réseaux Locaux – Première Edition Page 50


Cours de Réseaux Locaux – Première Année
LECON 2 : ADRESSAGE IP

1. Les classes d’adresses

Toute machine d’un réseau local utilisant TCP/IP est identifiée par une adresse IP unique composée
de 4 octets. Un masque de sous-réseau composé également de 4 octets permet de déterminer d’une
part l’adresse de réseau (ou de sous-réseau) et l’adresse de la machine d’autre part.
À l'origine, plusieurs groupes d'adresses ont été définis dans le but d'optimiser le cheminement (ou
le routage) des paquets entre les différents réseaux. Ces groupes ont été baptisés classes d'adresses
IP. Ces classes correspondent à des regroupements en réseaux de même taille. Les réseaux de la
même classe ont le même nombre d'hôtes maximum.

Classe A
Le premier octet a une valeur comprise entre 1 et 126 ; soit un bit de poids fort égal à 0. Ce
premier octet désigne le numéro de réseau et les 3 autres correspondent à l'adresse de l'hôte.
L'adresse réseau 127.0.0.0 est réservée pour les communications en boucle locale.
Classe B
Le premier octet a une valeur comprise entre 128 et 191 ; soit 2 bits de poids fort égaux à 10. Les
2 premiers octets désignent le numéro de réseau et les 2 autres correspondent à l'adresse de
l'hôte.
Classe C
Le premier octet a une valeur comprise entre 192 et 223 ; soit 3 bits de poids fort égaux à 110. Les
3 premiers octets désignent le numéro de réseau et le dernier correspond à l'adresse de l'hôte.
Classe D
Le premier octet a une valeur comprise entre 224 et 239 ; soit 3 bits de poids fort égaux à 111. Il
s'agit d'une zone d'adresses dédiées aux services de multidiffusion vers des groupes d'hôtes (host
groups).
Classe E
Le premier octet a une valeur comprise entre 240 et 255. Il s'agit d'une zone d'adresses réservées
aux expérimentations. Ces adresses ne doivent pas être utilisées pour adresser des hôtes ou des
groupes d'hôtes.

VANGAH Aristide | Réseaux Locaux – Première Edition Page 51


Cours de Réseaux Locaux – Première Année
Espace d'adressage

Masque Nombre de Nombre d'hôtes


Classe Adresses réseau
réseau réseaux par réseau
1.0.0.0
A 255.0.0.0 126 16777214
126.255.255.255
128.0.0.0
B 255.255.0.0 16384 65534
191.255.255.255
192.0.0.0
C 255.255.255.0 2097152 254
223.255.255.255
224.0.0.0
D 240.0.0.0 adresses uniques adresses uniques
239.255.255.255
240.0.0.0
E non défini adresses uniques adresses uniques
255.255.255.255

2. Le découpage d'une classe en sous-réseaux

Pour compenser les problèmes de distribution de l'espace d'adressage IP, la première solution
utilisée a consisté à découper une classe d'adresses IP A, B ou C en sous-réseaux. Cette technique
appelée subnetting a été formalisée en 1985 avec le document RFC950.
Si cette technique est ancienne, elle n'en est pas moins efficace face aux problèmes d'exploitation
des réseaux contemporains. Il ne faut jamais oublier que le découpage en réseaux ou sous-réseaux
permet de cloisonner les domaines de diffusion. Les avantages de ce cloisonnement de la diffusion
réseau sont multiples.
Au quotidien, on évite l'engorgement des liens en limitant géographiquement les annonces de
services faites par les serveurs de fichiers. Les services MicroSoft basés sur netBT sont
particulièrement gourmands en diffusion réseau. En effet, bon nombre de tâches transparentes pour
les utilisateurs supposent que les services travaillent à partir d'annonces générales sur le réseau.
Sans ces annonces par diffusion, l'utilisateur doit désigner explicitement le service à utiliser. Le
service d'impression est un bon exemple.
Il existe quantité de vers et/ou virus dont les mécanismes de propagation se basent sur une
reconnaissance des cibles par diffusion. Le ver Sasser en est un exemple caractéristique. En
segmentant un réseau en plusieurs domaines de diffusion, on limite naturellement la propagation de
code malveillant. Le subnetting devient alors un élément de la panoplie des outils de sécurité.
Pour illustrer le fonctionnement du découpage en sous-réseaux, on utilise un exemple pratique. On
reprend l'exemple de la classe C192.168.1.0 dont le masque réseau est par définition 255.255.255.0.
Sans découpage, le nombre d'hôtes maximum de ce réseau est de 254. Considérant qu'un domaine
de diffusion unique pour 254 hôtes est trop important, on choisit de diviser l'espace d'adressage de
cette adresse de classe C. On réserve 3 bits supplémentaires du 4ème octet en complétant le
masque réseau. De cette façon on augmente la partie réseau de l'adresse IP et on diminue la partie
hôte.

Adresse 192.168.1.0 avec subnetting sur 3 bits


VANGAH Aristide | Réseaux Locaux – Première Edition Page 52
Cours de Réseaux Locaux – Première Année

Adresse de
Adresse réseau 192.168. 1. 0 Plage d'adresses utilisables
diffusion
Masque de réseau 255.255.255.224
Sous-réseau 0 192.168. 1. 0 192.168.1. 1 - 192.168.1. 30 192.168.1. 31
Sous-réseau 1 192.168. 1. 32 192.168.1. 33 - 192.168.1. 62 192.168.1. 63
Sous-réseau 2 192.168. 1. 64 192.168.1. 65 - 192.168.1. 94 192.168.1. 95
Sous-réseau 3 192.168. 1. 96 192.168.1.97 - 192.168.1.126 192.168.1.127
Sous-réseau 4 192.168. 1.128 192.168.1.129 - 192.168.1.158 192.168.1.159
Sous-réseau 5 192.168. 1.160 192.168.1.161 - 192.168.1.190 192.168.1.191
Sous-réseau 6 192.168. 1.192 192.168.1.193 - 192.168.1.222 192.168.1.223
Sous-réseau 7 192.168. 1.224 192.168.1.225 - 192.168.1.254 192.168.1.255

Selon les termes du document RFC950, les sous-réseaux dont les bits de masque sont tous à 0 ou
tous à 1 ne devaient pas être utilisés pour éviter les erreurs d'interprétation par les protocoles de
routage dits classful comme RIPv1. En effet, ces protocoles de routages de «première génération» ne
véhiculaient aucune information sur le masque sachant que celui-ci était déterminé à partir de
l'octet le plus à gauche. Dans notre exemple ci-dessus, il y avait confusion aux niveaux de l'adresse
de réseau et de diffusion.
- L'adresse du sous-réseau 192.168.1.0 peut être considérée comme l'adresse réseau de 2
réseaux différents : celui avec le masque de classe C (255.255.255.0) et celui avec le masque
complet après découpage en sous-réseaux (255.255.255.224).
- De la même façon, l'adresse de diffusion 192.168.1.255 est la même pour 2 réseaux
différents : 192.168.1.0 ou192.168.1.224.

Depuis la publication du document RFC950, en 1985, les protocoles de routage qui servent à
échanger les tables d'adresses de réseaux connectés entre routeurs ont évolué. Tous les protocoles
contemporains sont conformes aux règles de routage inter-domaine sans classe (CIDR). Les
protocoles tels que RIPv2, OSPF et BGP intègrent le traitement des masques de sous-réseaux. Ils
peuvent même regrouper ces sous-réseaux pour optimiser le nombre des entrées des tables de
routage. Pour appuyer cet argument, le documentRFC1878 de 1995 spécifie clairement que la
pratique d'exclusion des sous-réseaux all-zeros et all-ones est obsolète.

3. Les adresses IP privés


Les adresses IP privés se sont développés en «réaction» à deux évolutions de l'Internet : la mauvaise
utilisation de l'espace d'adressage IPv4 et les besoins de sécurisation des réseaux d'entreprises.
Ces évolutions on conduit à la conception de réseaux dits privés n'ayant que peu ou pas d'interfaces
exposées sur le réseau public l'Internet.
Pour planifier l'adressage d'un réseau privé, il faut distinguer deux cas de figure :
- Si le réseau privé n'est jamais interconnecté avec d'autres réseaux (notamment l'Internet), on
peut utiliser n'importe quelle adresse.
- Si le réseau privé peut être interconnecté avec d'autres réseaux via un routeur, on doit
utiliser les adresses réservées à cet usage. Ces adresses sont données dans le
document RFC1918.
Dans la pratique, c'est le second cas de figure que l'on retrouve le plus souvent.
Adresses réseaux privés

VANGAH Aristide | Réseaux Locaux – Première Edition Page 53


Cours de Réseaux Locaux – Première Année

Classe Masque réseau Adresses réseau Notation CIDR


A 255.0.0.0 10.0.0.0 - 10.255.255.255 10.0.0.0/8
B 255.240.0.0 172.16.0.0 - 172.31.255.255 172.16.0.0/12
C 255.255.0.0 192.168.0.0 - 192.168.255.255 192.168.0.0/16

4. Les adresses IP publiques


Contrairement aux adresses IP privées, les adresses IP publiques ne sont pas utilisées dans un réseau
local mais uniquement sur internet. Les routeurs (par exemple : votre box) disposent d’une adresse
IP publique côté internet, ce qui rend votre box visible sur internet (elle répondra au ping). Mais
aussi, lorsque vous accédez à un site web vous utilisez l’adresse publique du serveur web.
Une adresse IP publique est unique dans le monde, ce qui n’est pas le cas des adresses privées qui
doivent être unique dans un même réseau local mais pas au niveau planétaire étant donné que ces
adresses ne peuvent pas être routées sur internet.
Les adresses IP publiques représentent toutes les adresses IP des classes A, B et C qui ne font pas
partie de la plage d’adresses privées de ces classes ou des exceptions de la classe A.

5. Les exceptions
- Le réseau 127.0.0.0 est réservé pour les tests de boucle locale avec notamment l’adresse IP
127.0.0.1 qui est l’adresse « localhost » c’est-à-dire de boucle locale de votre PC.
- Le réseau 0.0.0.0 est lui aussi réservé (et utilisé notamment pour définir une route par défaut
sur un routeur).

6. Adresse IP fixe ou adresse IP dynamique


- Chaque poste d’un réseau peut se voir attribuer une adresse IP permanente: c’est l’adresse IP
fixe (configuré manuellement)
- Chaque poste peut être configuré pour obtenir une adresse dynamique: un serveur DHCP
(Dynamic Host Control Protocol) délivre alors une adresse IP à chaque demande de
connexion au réseau. Cette adresse change à chaque connexion. Le serveur est lui configuré
en adresse IP fixe.

VANGAH Aristide | Réseaux Locaux – Première Edition Page 54


Cours de Réseaux Locaux – Première Année

PARTIE III
LES MEDIAS RESEAUX

LECON 1 : LES MEDIAS FILAIRES

1. Le câble coaxial
Utilisé dans les réseaux de type bus(Ethernet). Le signal transporté est protégé des interférences
électriques et subit qu'une faible atténuation, qui permet des débits relativement importants sur des
distances assez grandes. On peut y acheminer un nombre important de messages simultanément.
- La gaine permet de protéger le câble de l'environnement extérieur.
- Le blindage (enveloppe métallique) permet de protéger les données transmises sur le support des
parasites pouvant causer une distorsion des données.
- L'isolant constitué d'un matériau diélectrique permettant d'éviter tout contact avec le blindage,
provoquant des interactions électriques.
- L'âme, accomplissant la tâche de transport des données, composée d’un ou de plusieurs brins
torsadés.

Grâce à son blindage, il peut être utilisé sur des longues distances et à haut débit (contrairement à
un câble paire torsadé), et supporte un débit de 10 Mbits/s sur plusieurs centaines de mètres mais
est d'un prix plus élevé.
Sa bande passante maximum est d'environ 150 MHz. Les pertes de signal sont de nature multiple sur
un câble coaxial : l'augmentation de la longueur du câble, l'augmentation de la fréquence et la
diminution du diamètre du conducteur mènent à des pertes de signal

Voici les différentes normes de l'Ethernet en matière de câble coaxial :

- 10 Base 2 ou Ethernet fin : 10 Mbit/s sur 200 m maximum, diamètre 5 mm, connecteur de
type coupleur BNC en T Femelle/Mâle/Femelle, 30 postes maximum.
- 10 Base 5 ou Ethernet épais : 10 Mbit/s sur 500 m maximum, diamètre 10 mm, connecteur
de type coupleur BNC en T Femelle/Mâle/Femelle, 100 postes maximum.
- 10 Broad 36 : 10 Mbit/s sur de longue distance.

Le BNC est un réseau qui ne doit pas être coupé, n'oubliez donc pas les bouchons de 50 ohms de
terminaison, ils éliminent les "réverbérations sur le câble" : le signal transmis revient sur le câble et
les stations croyant à un signal véritable attendent que la ligne soit libre

Exemple : connecteur BNC


2. La paire torsadée

VANGAH Aristide | Réseaux Locaux – Première Edition Page 55


Cours de Réseaux Locaux – Première Année
Ressemble au fil du téléphone et est utilisée dans les entreprises pour les raccordements
téléphoniques et informatiques. Ce câblage n'est pas blindé et si l'on veut des débits importants, il
faut limiter la distance entre deux noeuds (100 mégabits par seconde (Mbits/s) pour une distance
maximum de 100 mètres, 1 Mbits/s lorsque la distance est de quelques centaines de mètres). Il s'agit
d'un type de câblage bon marché.

Son intérêt principal est que cette même paire torsadée peut servir au réseau téléphonique, au
réseau informatique et vidéo ; elle pourra être utilisée ultérieurement pour évoluer vers des réseaux
100 Base T et même GigaBit. On rencontre la paire torsadée très souvent comme support des
réseaux 10/100 Base T mais aussi selon d'autres normes IEEE (Institute for Electrical and Electronics
Engineers). Voici les différentes normes de l'Ethernet en matière de câble à paire torsadée :
- 10 Base T : sur 100 mètres maximum, vitesse de 10 Mbps, chaque extrémité d'un tel câble
étant muni d'une prise RJ45.
- 100 Base TX : sur 100 mètres maximum, vitesse de 100 Mbps, chaque extrémité d'un tel câble
étant muni d'une prise RJ45.
- 1000 Base T : sur 100 mètres maximum, vitesse de 1000 Mbps, chaque extrémité d'un tel
câble étant muni d'une prise RJ45.

La norme EIA/TIA

La norme EIA/TIA (Electronic Industries Association/Telecommunication Industries Association) a été


mise au point aux États-Unis pour garantir la qualité et les conditions d'utilisation des câbles de
l'industrie américaine des câbles UTP/STP (Unshielded Twisted Pair/Shielded Twisted Pair). En voici
les différentes catégories :
Catégorie Fonction Vitesse Nombre de Nombre de
paires torsadées torsions par "pieds"
1 La voix analogique
2 Les données numériques 4 Mb/s 4
3 Les données numériques 10 Mb/s 4 3
4 Les données numériques 16 Mb/s 4
5 Les données numériques 100 Mb/s 4

Connecteur dit: RJ45 (souvent utilisée pour terminer les câbles de type paire torsadé et comporte 8
broches de connexions électriques). (existe aussi: RJ9, RJ11, RJ12…)

VANGAH Aristide | Réseaux Locaux – Première Edition Page 56


Cours de Réseaux Locaux – Première Année
2.1. Fabriquer un câble droit
TIA/EIA T568A TIA/EIA T568B
N° Couleur N° Couleur
1 Blanc/Vert 1 Blanc/Orange
2 Vert 2 Orange
3 Blanc/Orange 3 Blanc/Vert
4 Bleu 4 Bleu
5 Blanc/Bleu 5 Blanc/Bleu
6 Orange 6 Vert
7 Blanc/Marron 7 Blanc/Marron
8 Marron 8 Marron

Intérêt d'un câble droit


La connectique RJ45 sert normalement à connecter les ordinateurs par l'intermédiaire d'un hub(en
français concentrateur, un boîtier de répartition sur lequel viennent se connecter les câbles RJ45 en
provenance des ordinateurs du réseau local) ou d'un commutateur (en anglais switch).
Lorsqu'un ordinateur est connecté à un hub ou à un switch, le câble utilisé est appelée câble droit(en
anglais patch cable), ce qui signifie qu'un fil relié à la prise 1 d'un côté est relié à la prise 1 de l'autre
côté. La norme de câblage généralement utilisée pour réaliser des câbles droits est la norme TIA/EIA
T568A, cependant il existe des câbles droits selon la norme TIA/EIA T568B (seules les couleurs de
certains fils changent, cela n'a aucune incidence sur le fonctionnement dans la mesure où les fils sont
reliés de la même façon).

2.2. Fabriquer un câble croisé


Côté 1 Côté 2
N° Couleur N° Couleur
1 Blanc/Vert 3 Blanc/Orange
2 Vert 6 Orange
3 Blanc/Orange 1 Blanc/Vert
4 Bleu 4 Bleu
5 Blanc/Bleu 5 Blanc/Bleu
6 Orange 2 Vert
7 Blanc/Marron 7 Blanc/Marron
8 Marron 8 Marron
Intérêt d'un câble croisé
L'utilisation d'un hub est très utile dans le cas de la connexion de nombreux ordinateurs, et est
nettement plus rapide qu'une connexion avec du câble coaxial. Toutefois, pour connecter ensemble
deux machines, il existe une technique permettant d'éviter l'utilisation d'un hub.

VANGAH Aristide | Réseaux Locaux – Première Edition Page 57


Cours de Réseaux Locaux – Première Année
Cette technique consiste à utiliser un câble croisé (en anglais cross cable ou crossover), un câble dont
deux paires de fils se croisent. La norme recommandée pour ce type de câble est la norme TIA/EIA
T568A pour une des extrémités, la norme TIA/EIA T568B pour l'autre extrémité. Ce type de câble
s'achète bien évidemment dans le commerce, mais il est très facile à réaliser soi-même.

Utiliser un câble droit pour le câblage suivant :


Switch vers le routeur
Switch vers PC ou serveur
Hub vers PC ou serveur
Utiliser des câbles croisés pour le câblage suivant :
Switch vers switch
Switch vers hub
Hub vers hub
Routeur vers routeur
Port Ethernet du routeur vers PC NIC
PC vers PC

3. La fibre optique
La fibre optique en verre, elle transmet les messages, qui sont codés numériquement en impulsions
lumineuses et transmis sur de grandes distances le long de ces minces fibres. Sur ce type de support,
les signaux transmis sont complètement insensibles aux rayonnements électromagnétiques, ne
subissant ainsi aucune altération. Un câble à fibres optiques peut acheminer simultanément
plusieurs milliers de messages. La fibre optique permet de très grandes vitesses sur de grandes
distances (150 mégabits par seconde (Mbits/s) sur une dizaine de kilomètres. Grâce à de telles
vitesses, il devient possible de transmettre en temps réel des sons, et même des images animées.

Les grands avantages de la fibre optique par rapport aux autres supports filaires sont : peu de perte
de signal, vitesse de transmission élevée, faible poids, immunité aux interférences
électromagnétiques, pas d'échauffement, etc.

Deux types de fibres sont utilisés : la fibre monomode (SMF - Single Mode Fiber) et la fibre
multimode (MMF - Multi Mode Fiber). En optique, le mode c'est le nombre de chemins possible pour
un signal lumineux. Dans une fibre multimode, la lumière peut emprunter un grand nombre de
chemins alors que dans une fibre monomode, elle est est prisonnière d'un trajet direct. La fibre
monomode est une fibre plus performante que la fibre multimode, mais elle nécessite l'utilisation de
sources lumineuses (laser) très puissantes.
Voici les différentes normes de l'Ethernet en matière de fibre optique :
VANGAH Aristide | Réseaux Locaux – Première Edition Page 58
Cours de Réseaux Locaux – Première Année
FOIRL (Fiber Optic Inter Repeater Link / lien inter-répéteur sur fibre optique) : le standard original
pour l'Ethernet sur la fibre optique. Vitesse de 10 Mbps.
- 10 Base-FL : mise à jour du standard FOIRL, vitesse de 10 Mbps.
- 100 Base-FX : vitesse de 100 Mbps.
- 1000 Base-LX : monomode, vitesse de 1000 Mbps, portée de 3 km.
- 1000 Base-LX : multimode, vitesse de 1000 Mbps, portée de 550 m.
- 1000 Base-SX : multimode, diamètre de 50 micromètres, vitesse de 1000 Mbps, portée de
550 m.
- 1000 Base-SX : multimode, diamètre de 64 micromètres, vitesse de 1000 Mbps, portée de
275 m.
- 1000 Base-LH : vitesse de 1000 Mbps, portée de 70 km.
- 10G Base-SR : multimode, vitesse de 10 Gbps, portée de 26 à 82 m.
- 10G Base-LX4 : multimode, vitesse de 10 Gbps, portée de 240 à 300 m.
- 10G Base-LX4 : monomode, vitesse de 10 Gbps, portée de 10 Km.
- 10G Base-LR et ER : monomode, vitesse de 10 Gbps, portée de 10 à 40 Km.
Enfin, la bande passante d'une fibre optique étant très large (plusieurs MHz), il est aisé de faire du
multiplexage fréquentiel pour faire transiter simultanément plusieurs communications.

VANGAH Aristide | Réseaux Locaux – Première Edition Page 59


Cours de Réseaux Locaux – Première Année

LECON 2 : LES MEDIAS SANS FIL (LE WIFI)

1. Historique
En 1997; alors que l'attention est accaparée par le succès d'Internet et l'euphorie boursière
montante, un événement est passé inaperçu sauf pour quelques spécialistes et observateurs:
l'adoption du standard IEEE 802.11 ou Ethernet sans fil. Exploitant la bande de fréquence de
2,4 GHz, le 802.11 plafonne à un débit de 2 Mbits/s au maximum. Ce précurseur est suivi de
plusieurs déclinaisons dont le célèbre Wi-Fi qui connaît un franc succès, aidé par le volontarisme des
fabricants, distributeurs et fournisseurs de services... Wi-Fi, est un nom composé à la manière de Hi-
Fi et signifiant Wireless Fidelity. Il désigne les différentes déclinaisons de la norme IEEE 802.11 qui
permet à plusieurs ordinateurs de communiquer sans fil en utilisant comme support les ondes radio.
La norme 802.11 s'attache à définir les couches basses du modèle OSI pour une liaison sans fil
utilisant des ondes électromagnétiques, c'est-à-dire :
La couche physique (notée parfois couche PHY), proposant trois types de codage de l'information.
La couche liaison de données, constitué de deux sous-couches : le contrôle de la liaison logique
(Logical Link Control, ou LLC) et le contrôle d'accès au support (Media Access Control, ou MAC)

Dans un réseau, la transmission des informations entre deux ordinateurs par rayonnement
infrarouge ou par ondes radioélectriques est possible.
Un réseau sans fil (en anglais wireless network) est, comme son nom l'indique, un réseau dans lequel
au moins deux terminaux (ordinateur portable, etc.) peuvent communiquer sans liaison filaire.

2. Réseau local sans fil


Le réseau local sans fils (WLAN pour Wireless Local Area Network) est un réseau permettant de
couvrir l'équivalent d'un réseau local d'entreprise, soit une portée d'environ une centaine de mètres.
Il permet de relier entre-eux les terminaux présents dans un périmètre géographique plus ou moins
étendu, l’utilisateur a la possibilité de rester connecté tout en se déplaçant dans la zone de
couverture.
Il existe plusieurs technologies se distinguant d'une part par la fréquence d'émission utilisée ainsi
que le débit et la portée des transmissions :
Ø Le WiFi (ou IEEE 802.11), soutenu par l'alliance WECA (Wireless Ethernet Compatibility Alliance)
offre des débits allant jusqu'à 54Mbps sur une distance de plusieurs centaines de mètres.
Ø hiperLAN2 (HIgh Performance Radio LAN 2.0), norme européenne élaborée par l'ETSI (European
Telecommunications Standards Institute), permet d'obtenir un débit théorique de 54 Mbps sur une
zone d'une centaine de mètres dans la gamme de fréquence comprise entre 5 150 et 5 300 MHz.
Ø DECT (Digital Enhanced Cordless Telecommunication), norme des téléphones sans fils
domestiques. Alcatel et Ascom développent pour les environnements industriels, telles les centrales
VANGAH Aristide | Réseaux Locaux – Première Edition Page 60
Cours de Réseaux Locaux – Première Année
nucléaires, une solution basée sur cette norme qui limite les interférences. Les points d'accès
résistent à la poussières et à l'eau. Ils peuvent surveiller les systèmes de sécurité 24/24h et se
connecter directement au réseau téléphonique pour avertir le responsable en cas de problème.
Les réseaux sans fil sont basés sur une liaison utilisant des ondes radio-électriques (radio et
infrarouges) en lieu et place des câbles habituels.

Les modems : Le réseau téléphonique est prévu pour transporter un courant dont la variation
représente le son de la voix. Les ordinateurs communiquant en échangeant des 1 et des 0, il suffit de
transformer ces valeurs en signaux sonores. (une fréquence pour le 1 et une autre pour le 0.) Cette
conversion est exécutée par le modem, abréviation de modulateur-démodulateur. Le modem est en
effet capable d'effectuer la conversion dans les deux sens.

Le Wi-Fi est un ensemble de fréquences radio qui élimine les câbles, partage une connexion Internet
et permet l'échange de données entre plusieurs postes. La technologie est connue aux Etats-Unis
depuis 1997. Là-bas, on recense 11 millions de points d'accès contre 80 dans l'Hexagone. Mais la
France assouplit sa législation sur les ondes radio et s'emballe à son tour pour le Wi-Fi : les grands
opérateurs montrent leur intérêt, les périphériques compatibles s'installent en rayon. Le passage aux
réseaux sans fil ouvre de nouvelles perspectives d'usage communautaire de l'informatique.

3. Les différentes normes de LAN sans fil


La norme IEEE 802.11 est le premier éditeur de norme en matière de norme de réseau sans fil. Ces
normes ont été élaborées dans le cadre des réglementations instaurées par la FCC (Federal
Communication Commission)
DSSS (Direct Sequence Spread Spectrum) est une technologie clé contenue dans la norme 802.11 qui
s’applique aux équipements sans fil fonctionnant dans la gamme des 1 à 2 Mbits/s.
La norme 802.11b (Wi-Fi) a été ensuite approuvée pour accroitre la vitesse à 11 Mbits/s compatible
avec la norme 802.11
Les équipements 802.11a réalise un débit de données de 54 Mbits/s et peuvent atteindre 108
Mbits/s grâce à la technologie propriétaire qui permet de doubler le débit (incompatible avec la
norme 802.11b).
Les équipements 802.11g fournissent la même bande passante que les équipements 802.11a, mais
avec une compatibilité en amont avec les équipements 802.11b utilisant la technologie de
modulation OFDM (Orthogonal Frequency Division Multiplexing)
La norme 802 .11n est disponible depuis le 11 septembre 2009. Le débit théorique atteint les 300
Mbits/s (débit réel de 100 Mbits/s dans un rayon de 100 mètres) grâce aux technologies MIMO
(Multiple Input, Multiple Output) et OFDM. Le 802.11n a été conçu pour pouvoir utiliser les
fréquences 2,4Ghz ou 5Ghz. Le 802.11n combine jusqu’à 8 canaux non superposés, ce qui permet en
théorie d’atteindre une capacité totale effective de presque 1Gbits/s

VANGAH Aristide | Réseaux Locaux – Première Edition Page 61


Cours de Réseaux Locaux – Première Année

Nom de la norme Nom Description


802.11a Wifi5 La norme 802.11a permet d'obtenir un haut débit (54
Mbps théoriques, 30Mbps réels). Le norme 802.11a
spécifie 8 canaux radio dans la bande de fréquence
des 5 GHz.
802.11b Wifi La norme 802.11b est la norme la plus répandue
actuellement. Elle propose un débit théorique de 11
Mbps (6 Mbps rééls) avec une portée pouvant aller
jusqu'à 300 mètres dans un environnement dégagé. La
plage de fréquence utilisée est la bande des 2.4 GHz,
avec 3 canaux radio disponibles.
802.11c Pontage 802.11 La norme 802.11c n'a pas d'intérêt pour le grand
Vers 802.1d public. Il s'agit uniquement d'une modification de la
(bridging) norme 802.1d afin de pouvoir établir un pont avec les
trames 802.11 (niveau liaison de données).
802.11d Internationalisation La norme 802.11d est un supplément à la norme
802.11 dont le but est de permettre une utilisation
internationale des réseaux locaux 802.11. Elle consiste
à permettre aux différents équipements d'échanger
des informations sur les plages de fréquence et les
puissances autorisées dans le pays d'origine du
matériel.
802.11e Amélioration de la La norme 802.11e vise à donner des possibilités en
qualité de service matière de qualité de service au niveau de la couche
liaison de données. Ainsi cette norme a pour but de
définir les besoins des différents paquets en terme de
bande passante et de délai de transmission de telle
manière à permettre notamment une meilleure
transmission de la voix et de la vidéo.
802.11f Itinérance La norme 802.11f est une recommandation à
(roaming) l'intention des vendeurs de point d'accès pour une
meilleure interopérabilité des produits. Elle propose le
protocole Inter-Access point roaming protocol
permettant à un utilisateur itinérant de changer de
point d'accès de façon transparente lors d'un
déplacement, quelles que soient les marques des
points d'accès présentes dans l'infrastructure réseau.
802.11g La norme 802.11g offrira un haut débit (54 Mbps
théoriques, 30 Mbps réels) sur la bande de fréquence
des 2.4 GHz. La norme 802.11g a une compatibilité
ascendante avec la norme b.
802.11h La norme 802.11h vise à rapprocher la norme 802.11
du standard Européen (HiperLAN 2, d'où le h de
802.11h) et être en conformité avec la réglementation
européenne en matière de fréquence et d'économie
d'énergie.
802.11i La norme 802.11i a pour but d'améliorer la sécurité
des transmissions (gestion et distribution des clés,
VANGAH Aristide | Réseaux Locaux – Première Edition Page 62
Cours de Réseaux Locaux – Première Année
chiffrement et authentification). Cette norme s'appuie
sur l'AES (Advanced Encryption Standard ) et propose
un chiffrement des communication s pour les
transmissions utilisant les technologies 802.11a,
802.11b et 802.11g.
802.11IR La norme 802.11IR a été élaborée de telle manière à
utiliser des signaux infra-rouges. Cette norme est
désormais dépassée techniquement.
802.11j La norme 802.11j est à la réglementation japonaise ce
que le 802.11h est à la réglementation européenne.

4. Equipements et topologie sans fil (WLAN)


Pour créer un réseau sans fil, il suffit de disposer de terminaux équipés de cartes réseaux sans fil
(deux équipements). Le « roaming » entre les cellules, la puissance des antennes est généralement
comprise entre 91,44 et 152,4 mètres

4.1. Les adaptateurs sans fil ou cartes d'accès


En anglais wireless adapters ou network interface controller, noté NIC. Il s'agit d'une carte réseau à la
norme 802.11 permettant à une machine de se connecter à un réseau sans fil. Les adaptateurs WiFi
sont disponibles dans de nombreux formats (carte PCI, carte PCMCIA, adaptateur USB, carte
compactflash, ...). On appelle station tout équipement possédant une telle carte. A noter que les
composants Wi-Fi deviennent des standards sur les portables (label Centrino d'Intel).

4.2. Les points d'accès


Notés AP pour Access point, parfois appelés bornes sans fil, permettant de donner un accès au
réseau filaire (auquel il est raccordé) aux différentes stations avoisinantes équipées de cartes WiFi.
Cette sorte de hub est l'élément nécessaire pour déployer un réseau centralisé en mode
infrastructure. Certains modèles proposent des fonctions de modem ADSL et comprennent plus ou
moins de fonctions comme un pare-feu.

Ils sont équipés d’antennes et fournissent la connectivité sans fil sur une zone de données appelés
cellule.
Les composants Wi-Fi ne sont pas plus onéreux que ceux des réseaux filaires, bientôt toutes les
plates-formes seront vendues avec des modules Wi-Fi intégrés. C'est déjà le cas dans le monde des
PC portables, qui, sous l'impulsion d'Intel, fait sa révolution sans fil grâce au Centrino.

La communication avec le point d'accès


Lors de l'entrée d'une station dans une cellule, celle-ci diffuse sur chaque canal une requête de
sondage (probe request) contenant l'ESSID pour lequel elle est configurée ainsi que les débits que
son adaptateur sans fil supporte. Si aucun ESSID n'est configuré, la station écoute le réseau à la
recherche d'un SSID.
En effet chaque point d'accès diffuse régulièrement (à raison d'un envoi toutes les 0.1 secondes
environ) une trame balise (nommée beacon en anglais) donnant des informations sur son BSSID, ses
caractéristiques et éventuellement son ESSID. L'ESSID est automatiquement diffusé par défaut, mais
il est possible (et recommandé) de désactiver cette option.
A chaque requête de sondage reçue, le point d'accès vérifie l'ESSID et la demande de débit présent
dans la trame balise. Si l'ESSID correspond à celui du point d'accès, ce dernier envoie une réponse

VANGAH Aristide | Réseaux Locaux – Première Edition Page 63


Cours de Réseaux Locaux – Première Année
contenant des informations sur sa charge et des données de synchronisation. La station recevant la
réponse peut ainsi constater la qualité du signal émis par le point d'accès afin de juger de la distance
à laquelle il se situe. En effet d'une manière générale, plus un point d'accès est proche, meilleur est
le débit.
Une station se trouvant à la portée de plusieurs points d'accès (possédant bien évidemment
le même SSID) pourra ainsi choisir le point d'accès offrant le meilleur compromis de débit et de
charge.
Remarque: Lorsqu'une station se trouve dans le rayon d'action de plusieurs pointsd'accès, c'est elle
qui choisit auquel se connecter !

4.3. Les hotspots


Un hotspot est une borne d'accès Wi-Fi installée dans les lieux publics et de passage, donnant accès
à un réseau métropolitain privé ou public. Les métiers des services et de la restauration ne s'y sont
pas trompés et l'intérêt pour les hotspots va grandissant pour attirer une clientèle de
consommateurs technophiles. Il est même question de transformer les antiques taxiphones des bars
en hotspot.
Aux États-Unis et en Grande Bretagne, les hot spots se multiplient, notamment dans les aéroports,
les gares, les hôtels, les centres de congrès, ainsi que dans les entreprises en France, où l'on recense
quelque 80 hotspots publics, de nombreux projets voient le jour depuis quelques mois Une étude de
l'institut IDC/Orange menée en décembre 2002 prévoit que d'ici 2005, 20 % des accès aux systèmes
d'information des entreprises se feront via des connexions sans fil Cependant, beaucoup de
questions restent encore en suspens comme la sécurité, la gestion du roaming (maintien de la
connexion d'un point d'accès à un autre, voire d'un opérateur à un autre), la saturation des
fréquences, les problèmes de réglementation.

4.4. Le mode infrastructure


Pour résoudre le problème d’incompatibilité des cartes NIC, un point d’accès est généralement
installé pour servir de concentrateur central dans le mode infrastructure de Lan sans fil

Le principe:
En mode infrastructure, chaque ordinateur station (notée STA) se connecte à un point d'accès via
une liaison sans fil. L'ensemble formé par le point d'accès et les stations situés dans sa zone de
couverture est appelé ensemble de services de base (en anglais Basic Service Set, noté BSS) et
constitue une cellule. Chaque BSS est identifié par un BSSID, un identifiant de 6 octets (48 bits). Dans
le mode infrastructure, le BSSID correspond à l'adresse MAC du point d'accès. Il s'agit généralement
du mode par défaut des cartes 802.11b. Il est possible de relier plusieurs points d'accès entre eux
(ou plus exactement plusieurs BSS) par une liaison appelée système de distribution (notée DS pour
Distribution System) afin de constituer un ensemble de services étendu (Extended Service Set ou
ESS). Le système de distribution (DS) peut être aussi bien un réseau filaire, qu'un câble entre deux
points d'accès ou bien même un réseau sans fil !
Un ESS est repéré par un ESSID (Service Set Identifier), c'est-à-dire un identifiant de 32 caractères de
long (au format ASCII) servant de nom pour le réseau. L'ESSID, souvent abrégé en SSID, représente le
nom du réseau et représente en quelque sort un premier niveau de sécurité dans la mesure où la
connaissance du SSID est nécessaire pour qu'une station se connecte au réseau étendu.
Lorsqu'un utilisateur nomade passe d'un BSS à un autre lors de son déplacement au sein de
l'ESS, l'adaptateur réseau sans fil de sa machine est capable de changer de point d'accès selon la
qualité de réception des signaux provenant des différents points d'accès. Les points d'accès

VANGAH Aristide | Réseaux Locaux – Première Edition Page 64


Cours de Réseaux Locaux – Première Année
communiquent entre eux grâce au système de distribution afin d'échanger des informations sur les
stations et permettre le cas échéant de transmettre les données des stations mobiles.
Cette caractéristique permettant aux stations de "passer de façon transparente" d'un point d'accès à
un autre est appelé itinérance (en anglais roaming).

4.5. Le mode ad hoc


Il est possible de créer un réseau sur mesure (ad hoc) avec des cartes réseaux sans fil, comparable à
un réseau câblé d’égal à égal (problème d’incompatibilité des cartes NIC)

En mode ad hoc, les machines sans fil clientes se connectent les unes aux autres afin de constituer
un réseau point à point (peer to peer en anglais), c'est-à-dire un réseau dans lequel chaque machine
joue en même temps de rôle de client et le rôle de point d'accès. L'ensemble formé par les
différentes stations est appelé ensemble de services de base indépendants (en anglais independant
basic service set, abrégé en IBSS). Un IBSS est ainsi un réseau sans fil constitué au minimum de deux
stations et n'utilisant pas de point d'accès. L'IBSS constitue donc un réseau éphémère permettant à
des personnes situées dans une même salle d'échanger des données. Il est identifié par un SSID,
comme l'est un ESS en mode infrastructure.
Dans un réseau ad hoc, la portée du BSS indépendant est déterminée par la portée de chaque
station. Cela signifie que si deux des stations du réseau sont hors de portée l'une de l'autre, elles ne
pourront pas communiquer, même si elles "voient" d'autres stations. En effet, contrairement au
mode infrastructure, le mode ad hoc ne propose pas de système de distribution capable de
transmettre les trames d'une station à une autre. Ainsi un IBSS est par définition un réseau sans fil
restreint.

5. Processus de connexion
Lorsqu’un client est activité au sein d’un WLAN, il commence par écouter un équipement compatible
auquel il est « associé ». Cette exploration peut être active ou passive : l’exploration active et
l’exploration passive.

5.1. L’exploration active


Elle entraine l’envoie d’une demande de sonde de la part du nœud sans fil cherchant à joindre le
réseau. Cette demande contient le (SSID) du réseau qu’il souhaite joindre.
Si un point d’accès ayant le même SSID est trouvé, il émet une réponse de sonde.

5.2. L’exploration passive


Les nœuds écoutent les trames de gestion beacon transmisent par le point d’accès (mode
infrastructure) ou les nœuds d’égal à égal (mode ad hoc). Lorsqu’un nœud reçoit une trame beacon
contenant le SSID du réseau qu’il cherche à joindre, une tentative d’accès au réseau est effectuée

6. Mode de communication des réseaux sans fil


Il existe trois types de trames dans les réseaux sans fil : les trames de control, d’administration et de
données.
Seules les trames de données sont similaires aux trames 802.3
Les trames sans fil et 802.3 comportent 1500 octets utiles. Cependant, une trame Ethernet ne peut
dépasser 1518 octets alors qu’une trame sans fil peut atteindre 2346 octets. En général, la trame
d’un LAN sans est limitée à 1518 octets, car elle est connectée la plus part du temps à un réseau

VANGAH Aristide | Réseaux Locaux – Première Edition Page 65


Cours de Réseaux Locaux – Première Année
Ethernet câblé. Etant donné que la radiofréquence (RF) est un média partagé, il peut se produire des
collisions, alors les Lan sans fil utilisent CSMA/CA (variante du CSMA/CD).

7. Spectre des ondes radioélectriques et des micro-ondes


Les ordinateurs envoient des signaux de données par voie électrique et les émetteurs radio
convertissent ces signaux électriques en ondes radioélectriques. La variation des courants
électriques dans d’un émetteur génère des ondes radioélectriques qui se propagent sous forme de
lignes droites à partir de l’antenne.
Dans un émetteur, les signaux électriques provenant d’un ordinateur ou d’un réseau local ne sont
pas envoyés directement à l’antenne de l’émetteur, mais son utilisés pour modifier un autre signal
puissant appelé signal porteur.
Le processus de modification du signal porteur entrant dans l’antenne de l’émetteur est appelé
modulation. Un signal porteur radioélectrique peut être modulé dans trois principaux cas :
Les stations de radio à modulation d’amplitude (AM) modulent la hauteur du signal porteur
Les stations de radio à modulation de fréquence (FM) modulent la fréquence du signal porteur
Dans les LAN sans fil, un troisième type de modulation appelé modulation de phase permet de
superposer le signal de données sur le signal porteur diffusé par l’antenne.

8. Authentification et association
L’authentification des LAN sans fil a lieu au niveau de la couche 2. Il s’agit de l’authentification d’un
équipement et non de l’utilisateur.
Recherches : Types d’authentification et d’association, Méthodes d’authentification

9. Sécurité des réseaux LAN sans fil


Depuis leur apparition, le manque de sécurité a toujours été un inconvénient pour les réseaux sans
fil.
Recherches : Sécurité des réseaux sans fil, Risques et Solutions

Sécurité: Les Précautions


Les ondes radioélectriques ont intrinsèquement une grande capacité à se propager dans toutes les
directions avec une portée relativement grande. Il est ainsi très difficile d'arriver à confiner les
émissions d'ondes radio dans un périmètre restreint. La propagation des ondes radio doit également
être pensée en trois dimensions. Ainsi les ondes se propagent également d'un étage à un autre (avec
de plus grandes atténuations).
La principale conséquence de cette "propagation sauvage" des ondes radio est la facilité que peut
avoir une personne non autorisée d'écouter le réseau, éventuellement en dehors de l'enceinte du
bâtiment où le réseau sans fil est déployé.
Là où le bât blesse c'est qu'un réseau sans fil peut très bien être installé dans une entreprise sans
que le service informatique ne soit au courant ! Il suffit en effet à un employé de brancher un point
d'accès sur une prise réseau pour que toutes les communications du réseau soient rendues
"publiques" dans le rayon de couverture du point d'accès !

Le chiffrement
WEP
Tandis que les sirènes du Wi-Fi chantent à qui veut les entendre, les hackers et autres casseurs de
code n'ont pas tardé à démontrer la vulnérabilité du chiffrement WEP (Wired
VANGAH Aristide | Réseaux Locaux – Première Edition Page 66
Cours de Réseaux Locaux – Première Année
Equivalent Privacy) utilisé dans le Wi-Fi. Le principe du fonctionnement du WEP est basé sur des clés
de cryptage partagées interdisant l'accès à toutes les personnes ne connaissant pas ce
mot de passe. Chaque périphérique 802.11 b (cartes, points d'accès, etc.) utilise une clé, soit un mot
de passe, soit une clé dérivée de ce mot de passe. La faille provient du mode de fonctionnement de
l'algorithme de chiffrement (RC4) qui permet à tout décodeur de déduire certaines informations
menant à la reconstitution de la clé. Les parades sont nombreuses mais ne garantissent pas une
efficacité à 100 %. Il est toutefois possible de dissuader les intrus en multipliant les obstacles devant
eux. Des protocoles de sécurité tels que IPSec, SSL ou SSH ne sont pas à la portée du premier
utilisateur venu. Dans tous les cas, le WEP est utile et l'activer c'est déjà éliminer certains risques. Il
existe une autre solution qui consiste à considérer le réseau sans fil comme une zone publique.
Le cas d'un partage de connexion Internet entre voisins est le plus typique de cette configuration à
condition qu'un routeur sans fil sert de passerelle et non pas un PC qui risque de contenir des
informations confidentielles.

WAP
Pour pallier les insuffisances du WEP, un remplaçant est à l'étude. Appelé WPA (Wi-Fi Protected
Access), son fonctionnement repose sur un système d'échange de clés dynamiques, renouvelé tous
les 10 ko de données Ce procédé, appelé TKIP (Temporal Key Integrity Protocol), protége mieux les
clés du décryptage et devrait améliorer sensiblement la sécurité des réseaux sans fil même si
l'algorithme utilisé reste inchangé.
D'après la plupart des constructeurs, il est possible de mettre à jour le firmware de votre matériel
802.11b pour intégrer le WPA.

Verrouillez votre réseau


Ne vous reposez pas sur le seul protocole WEP pour sécuriser votre réseau. Un bon administrateur
doit connaître les possibilités de son matériel sur le bout des doigts pour le configurer au mieux.
Pour s'identifier auprès d'un AP, les clients d'un réseau sans fil 80211 b utilisent un identifiant de
réseau ou SSID (Service Set Identifier). Sans algorithme de chiffrement, l'identifiant de réseau n'est
pas crypté lors de la transmission des trames Un utilisateur mal intentionné, qui écoute le réseau,
peut obtenir le SSID lui permettant ainsi d'accéder au réseau. De plus, le décodage du SSID est
souvent facilité par le fait qu'il porte un nom explicite. nom du service ou de l'organisme utilisateur
du réseau par exemple. Afin de supprimer la vulnérabilité du SSID, le protocole de chiffrement WEP à
été mis en place, mais il n'est pas suffisant. Des précautions supplémentaires peuvent être prises
pour compliquer la tâche des « grandes oreilles » malveillantes. La première est de supprimer la
configuration par défaut des AP en modifiant la clef WEP si elle est activée et l'identifiant réseau
(SSID) installés par défaut. Il est également impératif de protéger ou de désactiver les services
d'administration fournis avec l'interface. En dernier lieu, il peut s'avérer nécessaire de réduire la
puissance d'émission de l'AP au minimum nécessaire afin de diminuer le rayonnement des ondes.
Cette action n'empêche pas un utilisateur mal intentionné muni d'un matériel d'écoute performant
de capter vos émissions, mais c'est plus difficile. Pour augmenter la sécurité de votre réseau, il est
également possible sur certains équipements de filtrer les adresses MAC ayant le droit de
communiquer avec le pont. Cette liste doit être reproduite sur chaque pont du réseau sans fil si vous
désirez garder toute la mobilité du réseau. Malgré cela, il est toujours possible à un utilisateur mal
intentionné de récupérer le trafic échangé entre deux machines (même si le protocole WEP est
actif), voire de simuler une adresse MAC décodée, si celui-ci se trouve dans le périmètre du réseau
Alors soyez paranoïaques !

LES RESEAUX SANS FIL

VANGAH Aristide | Réseaux Locaux – Première Edition Page 67


Cours de Réseaux Locaux – Première Année
Un réseau sans fils (en anglais wireless network) est, comme son nom l'indique, un réseau dans
lequel au moins deux terminaux peuvent communiquer sans liaison filaire. Grâce aux réseaux sans
fils, un utilisateur a la possibilité de rester connecté tout en se déplaçant dans un périmètre
géographique plus ou moins étendu, c'est la raison pour laquelle on entend parfois parler de
"mobilité".
NB: Remarque concernant l'orthographe des réseaux sans fils : Malgré l'utilisation de "sans fil",
communément admise, les orthographes exactes sont "sans fils" et "sans -fil" On parle ainsi de
"réseau sans fils" ou bien "du sans-fil".
Les réseaux sans fils sont basés sur une liaison utilisant des ondes radio-électriques (radio et
infrarouges) en lieu et place des câbles habituels. Il existe plusieurs technologies se distinguant d'une
part par la fréquence d'émission utilisée ainsi que le débit et la portée des transmissions.
Les réseaux sans fils permettent de relier très facilement des équipements distants d'une dizaine de
mètres à quelques kilomètres. De plus l'installation de tels réseaux ne demande pas de lourds
aménagements des infrastructures existantes comme c'est le cas avec les réseaux filaires. En
contrepartie se pose le problème de la réglementation relatives aux transmissions radio-électriques.
De plus les ondes hertziennes sont difficiles à confiner dans une surface géographique restreinte, il
est donc facile pour un pirate d'écouter le réseau si les informations circulent en clair. Il est donc
nécessaire de mettre en place les dispositions nécessaires de telle manière à assurer une
confidentialité des données circulant sur les réseaux sans fils.
Avantage:
Le déploiement d'un réseau Wi-Fi est assez simple, le prix plutôt modeste en comparaison d'autres
technologies.
Le Wi-Fi est une technologie intéressante pour de nombreuses sociétés liées au monde des télécoms
et d'Internet. Les collectivités locales et surtout les particuliers profitent de la facilité d'accès à
Internet haut débit liée à cette norme. Dans sa déclinaison la plus connue, 802.11 b, le Wi-Fi utilise la
bande de fréquence de 2,4 GHz et atteint un débit théorique de 11 Mbits/s (contre 128, 512 Kbits/s
ou 1 Mbits/s pour l'ADSL), le 802.11a culmine à 22 Mbits/s et le 802.11 g, enfin, flirte avec les 54
Mbits/s. Le Wi-Fi peut certes servir à surfer sur Internet, mais pas seulement. Il autorise
l'organisation de réseaux -pourvus ou pas d'Internet -
pour échanger des fichiers, des données, et bien entendu pour jouer:.. Ce ne sont là que quelques
exemples de ses usages possibles Les avantages des réseaux sans fil ne sont plus à démontrer
surtout à une génération de plus en plus habituée à la mobilité. La multiplication des appareils (PDA,
PC portables, terminaux et bientôt les téléphones portables) capables de communiquer entre eux en
fait le support idéal des réseaux modernes.

La couche physique définit la modulation des ondes radio-électriques et les caractéristiques de la


signalisation pour la transmission de données, tandis que la couche liaison de données définit
l'interface entre le bus de la machine et la couche physique, notamment une méthode d'accès
proche de celle utilisée dans le standard Ethernet et les règles de communication entre les
différentes stations. La norme 802.11 propose en réalité trois couches physiques, définissant des
modes de transmission alternatifs :

Couche Liaison de données (MAC) 802.2


802.11
Couche Physique (PHY) DSSS FHSS Infrarouges

Il est possible d'utiliser n'importe quel protocole sur un réseau sans fil WiFi au même titre que sur un
réseau ethernet.

VANGAH Aristide | Réseaux Locaux – Première Edition Page 68


Cours de Réseaux Locaux – Première Année

LECON 3 : LES EQUIPEMENTS D’INTERCONNEXTION

1. Les équipements de niveau 1


Ce sont des équipements qui réalisent une connexion physique entre deux segments d’un même
réseau logique. On peut citer entre autre :
Les répéteurs
Les concentrateurs (hubs)

1.1. Répéteurs
Sur une ligne de transmission, le signal subit des distorsions et un affaiblissement d'autant plus
importants que la distance qui sépare deux éléments actifs est longue. Généralement, deux noeuds
d'un réseau local ne peuvent pas être distants de plus de quelques centaines de mètres, c'est la
raison pour laquelle un équipement supplémentaire est nécessaire au-delà de cette distance.
Un répéteur (en anglais repeater) est un équipement simple permettant de regénérer un signal entre
deux noeuds du réseau, afin d'étendre la distance de câblage d'un réseau. Le répéteur travaille
uniquement au niveau physique (couche 1 du modèle OSI), c'est-à-dire qu'il ne travaille qu'au niveau
des informations binaires circulant sur la ligne de transmission et qu'il n'est pas capable d'interpréter
les paquets d'informations.
D'autre part, un répéteur peut permettre de constituer une interface entre deux supports physiques
de types différents, c'est-à-dire qu'il peut par exemple permettre de relier un segment de paire
torsadée à un brin de fibre optique...

1.2. Concentrateurs (Hubs)


Un concentrateur est un élément matériel permettant de concentrer le trafic réseau provenant de
plusieurs hôtes, et de régénérer le signal. Le concentrateur est ainsi une entité possédant un certain
nombre de ports (il possède autant de ports qu'il peut connecter de machines entre elles,
généralement 4, 8, 16 ou 32). Son unique but est de récupérer les données binaires parvenant sur un
port et de les diffuser sur l'ensemble des ports. Tout comme le répéteur, le concentrateur opère au
niveau 1 du modèle OSI, c'est la raison pour laquelle il est parfois appelé répéteur multiports.
Le concentrateur permet ainsi de connecter plusieurs machines entre elles, parfois disposées en
étoile, ce qui lui vaut le nom de hub (signifiant moyeu de roue en anglais; la traduction française
exacte est répartiteur), pour illustrer le fait qu'il s'agit du point de passage des communications des
différentes machines.
On distingue plusieurs catégories de concentrateurs :
- Les concentrateurs dits "actifs" : ils sont alimentés électriquement et permettent de
régénérer le signal sur les différents ports
- Les concentrateurs dits "passifs" : ils ne permettent que de diffuser le signal à tous les hôtes
connectés sans amplification

VANGAH Aristide | Réseaux Locaux – Première Edition Page 69


Cours de Réseaux Locaux – Première Année
Le concentrateur est un appareil qui régénère les signaux. En effet, le signal émis par la carte
Ethernet s’affaiblit en parcourant le câble et, au-delà de cent mètres, il peut devenir trop faible.
Cette distance correspond en fait au maximum autorisé par la norme entre un PC et le
concentrateur. Un signal émis par un PC est régénéré sur tous les autres ports du concentrateur (il
joue le rôle de répéteur). Les machines sont reliées individuellement aux entrées ou « port » d’un
concentrateur appelé « HUB ». Le HUB simule intérieurement le « bus ». Les trames envoyées à
destination d’une machine sont en fait reçues par toutes les machines même si elles sont seulement
traitées par la machine à qui elles sont destinées (principe du BUS).
De plus la bande passante théorique de 10 Mbits/s ou de 100 Mb/s n’est disponible pour chaque
machine mais partagée entre toutes les autres, puisqu’une seule machine à la fois peut
normalement émettre et recevoir sur le réseau.
Si le Hub du réseau ne possède plus de port disponible, il est possible alors de connecter un nouveau
Hub avec l'ancien (chaînage de Hub). En norme Ethernet, un maximum de 4Hubs peut être installé
de cette façon et en Fast Ethernet, c'est un maximum de 2. Pour contourner cette contrainte et
augmenter la taille du réseau, il faut alors opter pour des Hubs empilables : vous pouvez alors
empiler plusieurs Hubs pour augmenter le nombre total de ports, chaque pile de Hubs n'étant vue
que comme un seul Hub.

2. Les équipements de niveau 2


Ils permettent d’interconnecter deux ou plusieurs réseaux dont les couches physiques sont
dissemblables (Ethernet/Token Ring). Ils sont généralement transparents aux protocoles de niveau 3.
Ils assurent des fonctions d’adaptation de débit ou de support. Les différents équipements de niveau
2 sont :
Les ponts
Les commutateurs (Switchs)

2.1. Les ponts


Les ponts assurent les connexions entre les différents réseaux locaux, convertissent les formats des
données réseau et filtrent le trafic.
Ils permettent d'interconnecter des réseaux ayant la couche 1 et 2 du modèle OSI (couche liaison)
différentes, mais les couches supérieures à la couche 2 identiques. Les ponts, pour interconnecter
des réseaux, décodent les en-têtes des trames du premier réseau, puis les modifient afin de les
rendre compatible avec le deuxième réseau.
Il existe deux types de pont, les ponts simples et les ponts routeurs, en voici les principales
fonctions :
Fonction des ponts simples:
- assurer la conversion du format des trames,
- filtrer les trames en fonction de l'adresse du destinataire, passage ou pas par le pont,
- positionner certains bits (tel que les bits A et C de la trame Token Ring).
Fonction des ponts routeurs :
- établir la table de routage (adresse des éléments du réseau),
- filtrage des trames,
- contrôle de flux lorsque les débits des réseaux sont différents.

2.2. Commutateurs (Switchs)

VANGAH Aristide | Réseaux Locaux – Première Edition Page 70


Cours de Réseaux Locaux – Première Année
Un commutateur (en anglais switch) est un pont multiport, c'est-à-dire qu'il s'agit d'un élément actif
agissant au niveau 2 du modèle OSI.
Le commutateur analyse les trames arrivant sur ses ports d'entrée et filtre les données afin de les
aiguiller uniquement sur les ports adéquats (on parle de commutation ou de réseaux commutés). Si
bien que le commutateur permet d'allier les propriétés du pont en matière de filtrage et du
concentrateur en matière de connectivité.

Un commutateur (switch) est un équipement qui offre une bande passante dédiée pour chaque port
(10,100 ou 1 000 Mbit/s par port) alors que le concentrateur partage la bande passante entre tous
ses ports. Cela revient à créer un segment Ethernet par port.
On distingue les switches cut-through (on the fly, à la volée) et les switches store and forward (les
plus courants aujourd’hui). Les premiers se contentent de régénérer la trame (même les trames
erronées et les collisions), tandis que les seconds la stockent en mémoire avant de la régénérer.
La méthode adaptative cut-through combine les deux principes : dès qu’une trame est en erreur, le
commutateur bascule en mode store and forward pendant un certain temps. La méthode fragment
free, la plus performante, lit les 64 premiers octets avant de décider du mode de transmission.
Avec les concentrateurs-commutateurs, que l’on appelle le plus souvent Switched Hubs ou même
tout simplement Switchs, les trames envoyées à une machine particulière sont directement
aiguillées vers la machine destinatrice, en supprimant toute collision, la topologie logique n’est donc
plus le bus mais l’étoile.
Le Switch scinde le réseau en autant de « sous-réseaux » qu'il a de ports et crée des liens privilégiés
entre chaque élément connecté. Grâce à la fonction d'auto-apprentissage des adresses MAC,
l'information envoyée à travers le Switch est directement dirigée vers la machine de destination.
De plus, chaque machine connectée à un port du Switch dispose d'une bande passante dédiée. Les
machines connectées à un Switch peuvent travailler en full duplex c'est-à-dire qu'elles peuvent
émettre et recevoir en même temps.
Décongestion du réseau
Les données sont envoyées d'un port à un autre sans interférer sur les autres ports.
Augmentation de la bande passante
Si le Switch fonctionne à 100Mbps, chaque port bénéficie d'une bande passante de 100 Mbps.
Accélération du transfert de données
Le Switch permet des communications simultanées autant de fois que le nombre de ports du Switch
divisé par 2. Chaque port est full duplex, ce qui permet d'émettre et de recevoir en même temps.

3. Les équipements de niveau 3


Ils sélectionnent le chemin approprié pour diriger les messages vers leurs destinations en fonction de
leurs adresses IP. Ils utilisent les protocoles de routage. Ces fonctions sont réalisées par un routeur

3.1. Les routeurs


Un routeur est un équipement d'interconnexion de réseaux informatiques permettant d'assurer le
routage des paquets entre deux réseaux ou plus afin de déterminer le chemin qu'un paquet de
données va emprunter.
Les routeurs sont des commutateurs évolués. Ils analysent les paquets à des couches supérieures
(Couche réseau: IP, IPX…). Ils permettent de sélectionner le meilleur itinéraire lorsqu’il y en a
plusieurs. Ils permettent de passer d’un segment de réseau à un autre dans le cas de réseaux
segmentés.

VANGAH Aristide | Réseaux Locaux – Première Edition Page 71


Cours de Réseaux Locaux – Première Année
4. Les équipements de niveau 4
Ils relient des réseaux hétérogènes et disposent de fonctions d’adaptation et de conversion de
protocoles à travers les couches hautes (4, 5, 6 et 7). Les fonctions sont réalisées par une passerelle.

4.1. Les passerelles


Les passerelles permettent à des architectures réseaux différentes de communiquer entre elles. Par
exemple, elles permettent de transférer un paquet d’un réseau Ethernet vers un réseau Token Ring.

LES TRANSMISSION DE DONNÉES

Les transmissions de données, c’est de pouvoir transmettre et transférer des données à partir d’un
réseau.
- Le but d'un réseau est de transmettre des informations d'un ordinateur à un autre. Il faut décider
du type de codage de la donnée à envoyer, c'est-à-dire sa représentation informatique. Elle sera
différente selon le type de données, car il peut s'agir de : - Données sonores, textuelles,
graphiques, et vidéos

La représentation de ces données peut se diviser en deux catégories :


-Une représentation numérique: c'est-à-dire le codage de l'information en un ensemble de valeurs
binaires, soit une suite de 0 et de 1
-Une représentation analogique: c'est-à-dire que la donnée sera représentée par la variation d'une
grandeur physique continue
Différence entre un réseau et un réseau industriel
Un réseau industriel joue le même rôle qu'un réseau normal. Le but premier est toujours de
transmettre des informations entre plusieurs machines. Lorsque l'on parle de réseaux, on sous-
entend généralement que les machines sont des ordinateurs. Lorsque l'on parle de réseaux
industriels, il s'agit de faire communiquer des machines qui ne sont plus seulement des ordinateurs.
On fait communiquer des appareils différents tels que des ordinateurs, des automates
programmables, des appareils de mesures, des équipements spécifiques (fours, commandes
numériques, ascenseurs, ...). Le qualificatif d'industriel pour un réseau sous-entend également un
environnement particulier. L'environnement d'un réseau industriel est en général un environnement
perturbé. Cet environnement est souvent pollué par des ondes électromagnétiques provenant des
différents appareils (moteurs, courants forts, champs magnétiques,...).
Les différents supports de transmission des données

Pour que la transmission de données puisse s'établir, il doit exister une ligne de transmission,
appelée aussi voie de transmission ou canal, entre les deux machines.
VANGAH Aristide | Réseaux Locaux – Première Edition Page 72
Cours de Réseaux Locaux – Première Année
Ces voies de transmission sont constituées de plusieurs tronçons permettant de faire circuler les
données sous forme d'ondes électromagnétiques, électriques, lumineuses ou même acoustiques.
Pour qu'il puisse y avoir un échange de données, un codage des signaux de transmission doit être
choisi, celui-ci dépend essentiellement du support physique utilisé pour transférer les données, ainsi
que de la garantie de l'intégrité des données et de la vitesse de transmission.
Transmission simultanée de données

La transmission de données est "simple" lorsque seules deux machines sont en communication, ou
lorsque l'on envoie une seule donnée. Dans le cas contraire il est nécessaire de mettre en place
plusieurs lignes de transmission ou bien de partager la ligne entre les différents acteurs de la
communication. Ce partage est appelé
multiplexage(capacité à transmettre sur un seul support physique (appelé voie haute vitesse), des
données provenant de plusieurs paires d'équipements (émetteurs et récepteurs))

Les câbles BUS de terrain On appelle bus, en informatique, un ensemble de liaisons physiques
(câbles, pistes de circuits imprimés, etc.) pouvant être exploitées en commun par plusieurs éléments
matériels afin de communiquer.
Les bus ont pour but de réduire le nombre de « voies » nécessaires à la communication des
différents composants, en mutualisant les communications sur une seule voie de données.
En réalité chaque bus est généralement constitué de 50 à 100 lignes physiques distinctes,
classées en trois sous-ensembles fonctionnels : (le bus d’adresse, de données, et de contrôle ).
Le système de BUS de terrain est utilisé dans les réseaux numériques de contrôles machines et
d’unités de fabrication.
Les BUS de terrains doivent répondre aux critères suivant:
• utilisation en zones à risques ou non
• hautes vitesses
• importants débits
• hautes performances en temps réels
• propriétés d’analyses
• alimentation électrique via le bus
3types de structures de réseaux : topologie en Bus, en Etoile, en Anneau

VANGAH Aristide | Réseaux Locaux – Première Edition Page 73


Cours de Réseaux Locaux – Première Année

Notions De Bases Sur Ethernet

Ethernet est aujourd’hui la technologie de réseau local dominante sur le plan mondial.
Ethernet est une famille de technologies de réseau local que le modèle de référence OSI rend plus
facile à appréhender. Tous les réseaux locaux doivent traiter le problème de base qui est l’attribution
de noms à chaque station ou nœud. Les spécifications Ethernet prennent en charge différents
médias, bandes passantes et autres variantes des couches 1 et 2. Cependant, le format de trame de
base et le système d’adressage sont les mêmes pour toutes les variantes d’Ethernet.

Différentes stratégies MAC ont été élaborées pour permettre à plusieurs stations d’accéder
aux médias physiques et aux équipements de réseau. Il est important d’expliquer comment les
équipements de réseau obtiennent l’accès aux médias de réseau pour que les étudiants puissent
comprendre et dépanner le réseau tout entier.

Ce module porte sur certains des objectifs des examens CCNA 640-801, INTRO 640-821 et ICND 640-
811.
 À la fin de ce module, les étudiants doivent être en mesure de réaliser les tâches
suivantes:
 Décrire les notions de base de la technologie Ethernet
 Expliquer les règles d’attribution de nom de la technologie Ethernet
 Expliquer la relation entre Ethernet et le modèle OSI

VANGAH Aristide | Réseaux Locaux – Première Edition Page 74


Cours de Réseaux Locaux – Première Année
 Décrire le processus de verrouillage de trame et la structure de trame Ethernet
 Lister les noms des champs des trames Ethernet et leur objet
 Identifier les caractéristiques de CSMA/CD
 Décrire la synchronisation, l’espacement intertrame et la réémission temporisée
après une collision
 Définir les erreurs et les collisions Ethernet
 Expliquer le concept d’autonégociation en fonction de la vitesse et du mode duplex
configuré

6.1 - Notions de base sur Ethernet

6.1.1 - Introduction à Ethernet

La plus grande partie du trafic sur Internet débute et aboutit sur des connexions Ethernet.
Depuis ses débuts dans les années 70, Ethernet a évolué pour répondre à la demande accrue en
réseaux locaux haut débit. Lorsque les médias à fibre optique ont été introduits, Ethernet s’est
adapté pour tirer parti de la bande passante supérieure et du faible taux d’erreur qu’offre cette
technologie. À présent, le même protocole qui transportait les données à 3 Mbits/s en 1973 assure
des transmissions à 10 Gbits/s.

Le succès d’Ethernet est dû aux facteurs suivants:


 Simplicité et facilité de maintenance
 Capacité à incorporer de nouvelles technologies
 Fiabilité
 Faible coût d’installation et de mise à niveau

L’introduction de Gigabit Ethernet a étendu la technologie de réseau local originale à un tel point
qu’Ethernet est maintenant une norme des réseaux MAN et WAN.

À l’origine, l’idée était de permettre à deux hôtes au moins d’utiliser le même média sans
aucune interférence entre les signaux. Ce problème d’accès multiple de l’utilisateur à un média
partagé a été étudié au début des années 70 à l’Université d’Hawaï. Un système nommé Alohanet a
été développé pour donner à plusieurs stations des Iles Hawaï un accès structuré à la fréquence
radio partagée dans l’atmosphère. Ce travail a par la suite constitué la base de la méthode d’accès
Ethernet connue sous l’acronyme CSMA/CD.

Le premier réseau local au monde a été la version originale d’Ethernet. Robert Metcalfe et
ses collaborateurs de Xerox l’on conçu il y a plus de trente ans. La première norme Ethernet a été
publiée en 1980 par un consortium de Digital Equipment Company, Intel et Xerox (DIX). Metcalfe
souhaitant qu’Ethernet soit une norme standard dont tout le monde puisse bénéficier, elle a été
publiée en tant que norme ouverte. Les premiers produits développés respectant la norme Ethernet
ont été commercialisés au début des années 80. Ethernet transmettait alors à 10 Mbits/s sur un
câble coaxial épais et sur une distance pouvant atteindre 2 kilomètres (km). Ce type de câble coaxial
de la largeur d’un petit doigt était appelé thicknet.

VANGAH Aristide | Réseaux Locaux – Première Edition Page 75


Cours de Réseaux Locaux – Première Année

En 1985, le comité de normalisation IEEE pour les réseaux locaux et métropolitains a publié
des normes pour les réseaux locaux. Ces normes commencent par le numéro 802. La norme Ethernet
porte le numéro 802.3. L’IEEE a voulu faire en sorte que ses normes soient compatibles avec l’ISO
(International Standards Organization) et le modèle OSI. Pour ce faire, la norme IEEE 802.3 devait
répondre aux besoins de la couche 1 et de la partie inférieure de la couche 2 du modèle OSI. En
conséquence, certaines modifications mineures de la norme Ethernet originale ont été apportées à
la 802.3.

Les différences entre les deux normes sont si mineures que n’importe quelle carte réseau
Ethernet peut transmettre et recevoir à la fois des trames Ethernet et 802.3. Pour l’essentiel, les
normes Ethernet et IEEE 802.3 sont identiques.

La bande passante de 10 Mbits/s d’Ethernet était plus que suffisante pour les lents PC des
années 80. Au début des années 90, ceux-ci devinrent bien plus rapides, les tailles des fichiers
augmentèrent et des goulets d’étranglement commencèrent de se produire. La plupart des
problèmes étaient causés par la faible disponibilité de la bande passante. En 1995, l’IEEE annonça
une norme pour un Ethernet à 100 Mbits/s. Vinrent ensuite des normes pour Gigabit Ethernet en
1998 et 1999.

Toutes les normes sont, pour l’essentiel, compatibles avec la norme Ethernet originale. Ainsi,
une trame Ethernet pourrait quitter la carte réseau d’un PC en empruntant un câble coaxial ancien à
10 Mbits/s, être dirigée sur une liaison à fibre optique Ethernet à 10 Gbits/s et aboutir sur une carte
réseau à 100 Mbits/s. Tant que la trame reste sur les réseaux Ethernet, elle n’est pas modifiée. Pour
cette raison, Ethernet est réputé très évolutif. La bande passante du réseau pourrait être augmentée
plusieurs fois sans entraîner de modification de la technologie Ethernet.

La norme Ethernet originale a été modifiée plusieurs fois pour gérer de nouveaux médias et
des taux de transmission plus élevés. Ces modifications fournissent des normes pour les nouvelles
technologies et maintiennent la compatibilité entre les variantes d’Ethernet.

6.1.2 - Règles d’attribution de noms Ethernet par l’IEEE

Ethernet n’est pas une technologie de réseau unique mais une famille de technologies qui
inclut l’existant, Fast Ethernet et Gigabit Ethernet. Les vitesses d’Ethernet s’échelonnent entre 10,
100, 1000 ou 10 000 Mbits/s. Le format de trame de base et les sous-couches IEEE des couches OSI 1
et 2 restent cohérents quelle que soit la forme d’Ethernet.

Chaque fois qu’Ethernet doit être étendu pour ajouter un nouveau média ou une nouvelle
capacité, l’IEEE publie un nouveau supplément à la norme 802.3. Les nouveaux suppléments sont
identifiés par une ou deux lettres (p. ex. 802.3u). Une description abrégée, appelée identificateur,
est également affectée au supplément.

VANGAH Aristide | Réseaux Locaux – Première Edition Page 76


Cours de Réseaux Locaux – Première Année

La description abrégée comporte les éléments suivants:


 Un chiffre qui indique le nombre de Mbits/s transmis
 Des lettres pour indiquer que la signalisation de la bande de base est utilisée
 Une ou plusieurs lettres de l’alphabet indiquant le type de média utilisé. Par
exemple,
F = câble à fibre optique et T = paire de cuivre torsadée non blindée

Ethernet repose sur la signalisation de bande de base, qui utilise la totalité de la bande
passante du média de transmission. Le signal de données est transmis directement sur le média de
transmission.

Dans la signalisation à large bande, le signal de données n’est plus placé directement sur le
média de transmission. Ethernet utilisait la signalisation à large bande dans le cadre de la norme
10Broad36. 10Broad36 est la norme de l’IEEE correspondant à un réseau Ethernet 802.3 qui utilise la
transmission à large bande avec un câble coaxial épais fonctionnant à 10 Mbits/s. 10Broad36 est à
présent considérée comme obsolète. Un signal analogique ou de porteuse est modulé par le signal
de données puis transmis. Les émissions radiophoniques et la TV par câble utilisent la signalisation à
large bande.

L’IEEE ne peut pas forcer les fabricants à se conformer complètement à une quelconque
norme. L’IEEE a pour cela deux objectifs principaux:
 Fournir les informations nécessaires pour construire des équipements qui sont
conformes aux normes Ethernet
 Promouvoir l’innovation auprès des fabricants

6.1.3 - Ethernet et le modèle OSI

Ethernet opère dans deux domaines du modèle OSI. Il s’agit de la moitié inférieure de la
couche liaison de données, que l’on appelle sous-couche MAC, et la couche physique.

VANGAH Aristide | Réseaux Locaux – Première Edition Page 77


Cours de Réseaux Locaux – Première Année

Les données qui transitent entre deux stations Ethernet passent souvent par un répéteur.
Toutes les stations du même domaine de collision voient le trafic passant par un répéteur. Un
domaine de collision est un domaine partagé. Les problèmes qui proviennent d’une partie d’un
domaine de collision auront en principe un impact sur le domaine de collision tout entier.

Un répéteur transmet le trafic à tous les autres ports. Il n’envoie jamais de trafic par le port
qui a servi à le recevoir. Tout signal détecté par le répéteur sera transmis. Si le signal subit une
dégradation due à l’atténuation ou au bruit, le répéteur tentera de reconstruire et de régénérer le
signal.

Afin de garantir une bande passante et une opérabilité minimales, les normes spécifient le
nombre maximum de stations par segment, la longueur maximum de segment, ainsi que le nombre
maximum de répéteurs entre stations. Les stations séparées par des répéteurs se trouvent à
l’intérieur du même domaine de collision. Les stations séparées par des ponts ou des routeurs se
trouvent dans des domaines de collision différents.

La figure fait correspondre diverses technologies Ethernet avec la partie inférieure de la


couche 2 OSI et avec l’ensemble de la couche 1. Sur la couche 1, Ethernet gère des signaux, des flots
de bits qui circulent sur le média, des composants qui placent les signaux sur le média et diverses
topologies. La couche 1 Ethernet joue un rôle clé dans le cadre des communications entre les

VANGAH Aristide | Réseaux Locaux – Première Edition Page 78


Cours de Réseaux Locaux – Première Année
équipements. Toutefois, utilisées seules, ces fonctions ne sont pas suffisantes. La couche 2 traite ces
restrictions.

Les sous-couches liaison de données contribuent de façon significative à la compatibilité


technologique et aux communications informatiques. La sous-couche MAC est responsable des
composants physiques qui seront utilisés pour communiquer les informations. La sous-couche LLC
(Logical Link Control – contrôle de lien logique) reste relativement indépendante de l’équipement
physique qui sera utilisé pour le processus de communication.

La figure fait correspondre diverses technologies Ethernet avec la partie inférieure de la


couche 2 OSI et avec l’ensemble de la couche 1. Alors qu’il existe d’autres variétés d’Ethernet, celles
illustrées sont les plus largement utilisées.

VANGAH Aristide | Réseaux Locaux – Première Edition Page 79


Cours de Réseaux Locaux – Première Année

6.1.4 - Attribution de noms

Un système d’adressage est nécessaire pour identifier de façon unique les ordinateurs et les
interfaces qui permettent une distribution locale des trames sur Ethernet. Ethernet utilise des
adresses MAC qui comportent 48 bits et qui sont exprimées à l’aide de douze chiffres hexadécimaux.
Les six premiers chiffres hexadécimaux, qui sont administrés par l’IEEE, identifient le fabricant ou le
fournisseur. Cette partie de l’adresse MAC est appelée identifiant unique d’organisation (OUI). Les
six autres chiffres hexadécimaux forment le numéro de série d’interface ou une autre valeur
administrée par le fabricant. On dit parfois des adresses MAC qu’elles sont rémanentes (BIA -
burned-in adresses) parce qu’elles demeurent en mémoire morte (ROM) et sont copiées en mémoire
vive (RAM) lors de l’initialisation de la carte réseau.

Au niveau de la couche liaison de données, des en-têtes et des en-queues MAC sont ajoutés
aux données de la couche supérieure. Ces en-têtes et en-queues contiennent des informations de
contrôle destinées à la couche liaison de données du système de destination. Les données des
couches supérieures sont encapsulées dans la trame liaison de données, entre l’en-tête et l’en-
queue, puis envoyées sur le réseau.

La carte réseau utilise l’adresse MAC afin de déterminer si un message doit être transmis aux
couches supérieures du modèle OSI. Elle n’utilise pas de temps processeur pour effectuer cette
évaluation, ce qui améliore les temps de communication sur le réseau Ethernet.

Sur un réseau Ethernet, lorsqu’un équipement envoie des données, il peut ouvrir une voie de
communication en utilisant l’adresse MAC de l’autre équipement. L’équipement source attache un
en-tête avec l’adresse MAC de l’équipement de destination prévu, et envoie des données sur le
réseau. Tandis que les données se déplacent sur le média réseau, la carte réseau de chaque
équipement du réseau vérifie si son adresse MAC correspond à l’adresse physique de destination
VANGAH Aristide | Réseaux Locaux – Première Edition Page 80
Cours de Réseaux Locaux – Première Année
transportée par la trame de données. En l’absence de correspondance, la carte réseau ignore la
trame de données. Lorsque les données atteignent le nœud de destination, la carte réseau fait une
copie et transmet la trame aux couches OSI. Sur un réseau Ethernet, tous les nœuds doivent
examiner l’en-tête MAC.

Tous les équipements qui sont connectés à un réseau local Ethernet possèdent des interfaces
adressées MAC. Cela inclut les stations de travail, imprimantes, routeurs et commutateurs.

6.1.5 - Verrouillage de trame de couche 2

Les trains binaires codés sur un média physique constituent une réalisation technologique
remarquable. Cependant, à eux seuls, ils ne suffisent pas à assurer la communication. Le verrouillage
de trame permet de récupérer des informations essentielles qu’il n’était pas possible d’obtenir
uniquement avec les trains binaires codés. Ces informations sont les suivantes:
 Quels sont les ordinateurs en communication?
 Quand commence la communication entre des ordinateurs et quand se termine-t-
elle?
 Quelles erreurs se sont produites lors de la communication entre les ordinateurs?
 Quel sera le prochain ordinateur à communiquer?

Le verrouillage de trame est le processus d’encapsulation de la couche 2. Une trame est une
unité de données de protocole de couche 2. Un graphique de tension en fonction du temps pourrait
être utilisé pour visualiser les bits. Cependant, il peut s’avérer trop difficile de représenter sous
forme de graphique les informations d’adresse et de contrôle pour les unités de données plus
importantes. Vous pouvez également utiliser le schéma de structure de trame, qui est articulé sur le
diagramme de tension en fonction du temps. Les schémas de format de trame se lisent de gauche à
droite, comme un oscillogramme. Les schémas de structure de trame font apparaître différents
regroupements de bits (ou champs), qui remplissent d’autres fonctions.

Il existe plusieurs types de trame différents, décrits par diverses normes. Une trame
générique comprend des sections appelées champs. Chaque champ est constitué d’octets. Les noms
des champs sont les suivants:
 Champ de début de trame
 Champ d’adresse
VANGAH Aristide | Réseaux Locaux – Première Edition Page 81
Cours de Réseaux Locaux – Première Année
 Champ de longueur/de type
 Champ de données
 Champ FCS (Frame Check Sequence = Séquence de contrôle de trame)

Les ordinateurs connectés à un média physique doivent pouvoir signaler qu’ils s’apprêtent à
transmettre une trame. Différentes technologies apportent une solution. Quelle que soit la
technologie, toutes les trames débutent par une séquence d’octets pour signaler la transmission des
données.

Toutes les trames contiennent des informations d’identification, telles que le nom du nœud
source, ou adresse MAC source, et celui du nœud de destination, ou adresse MAC de destination. La
plupart des trames contiennent des champs spécialisés. Dans certaines technologies, un champ de
longueur indique la longueur exacte de la trame en octets. Certaines trames comportent un champ
de type précisant le protocole de couche 3 utilisé par l’équipement qui veut envoyer des données.

Les trames sont utilisées pour envoyer des données de couche supérieure, puis des données
d’application utilisateur d’une source à une destination. Le paquet de données inclut le message à
envoyer ou les données d’application utilisateur. À des fins de synchronisation, d’autres octets
peuvent être ajoutés pour que les trames aient une longueur minimale. Des octets LLC sont
également ajoutés au champ de données dans les trames IEEE standard. La sous-couche LLC prend
les données de protocole réseau, c’est-à-dire un paquet IP, et y ajoute des informations de contrôle
pour faciliter l’acheminement de ce paquet IP jusqu’au nœud de destination. La couche 2
communique avec les couches de niveau supérieur par le biais de la sous-couche LLC.

Toutes les trames, ainsi que les bits, les octets et les champs qu’elles contiennent, peuvent
comporter des erreurs provenant d’une multitude de sources. Le champ de la séquence de contrôle
de trame (FCS) contient un numéro, calculé par l’ordinateur source, qui repose sur les données
contenues dans la trame. Ce numéro est ajouté à la fin de la trame qui est envoyée. Lorsque le nœud
de destination reçoit la trame, il calcule à nouveau la séquence de contrôle de trame et la compare à
celle qui est incluse dans la trame. Si les deux numéros sont différents, il y a une erreur et la trame
est abandonnée.

Étant donné que la source ne peut pas détecter que la trame a été abandonnée, la
retransmission doit être lancée par des protocoles orientés connexion de couche supérieure
fournissant le contrôle de flux de données. Habituellement la retransmission a lieu, parce que ces
protocoles, tels que TCP, s’attendent à ce qu’un accusé de réception de trame (ACK) soit envoyé par
la station homologue dans un laps de temps donné.
Il y a trois façons de calculer le numéro de séquence de contrôle de trame:
 Code de redondance cyclique (CRC), exécution des calculs sur les données.
 Parité bidimensionnelle, place des octets individuels dans une matrice bidirectionnelle et
effectue des contrôles de redondance verticalement et horizontalement sur la matrice, ce qui crée
ainsi un octet supplémentaire produisant un nombre pair ou impair de 1 binaires.

VANGAH Aristide | Réseaux Locaux – Première Edition Page 82


Cours de Réseaux Locaux – Première Année
 Somme de contrôle Internet, somme résultant de l’addition des valeurs de tous les bits de
données.

Le nœud qui transmet les données doit obtenir l’attention des autres équipements pour
commencer et terminer une trame. Le champ de longueur indique où la trame se termine. La trame
se termine après la séquence de contrôle de trame. Il y a parfois une séquence formelle d’octets
appelée «délimiteur de fin de trame».

6.1.6 - Structure de trame Ethernet

Sur la couche liaison de donnée, la structure de trame est pratiquement identique pour
toutes les vitesses d’Ethernet, de 10 Mbits/s à 10 000 Mbits/s. Cependant, au niveau de la couche
physique, presque toutes les versions d’Ethernet sont différentes. À chaque vitesse est associé un
ensemble distinct de règles de conception d’architecture.

Dans la version Ethernet qui a été développée par DIX avant l’adoption de la version IEEE
802.3, le préambule et le délimiteur de début de trame (SOF) ont été combinés en un champ unique.
La configuration binaire était identique. Le champ de longueur/type comportait uniquement la
longueur dans les premières versions d’IEEE et uniquement le type dans la version DIX. Ces deux
utilisations du champ furent officiellement combinées dans la version IEEE ultérieure puisque les
deux utilisations étaient courantes.

VANGAH Aristide | Réseaux Locaux – Première Edition Page 83


Cours de Réseaux Locaux – Première Année

Le champ de type Ethernet II est incorporé dans la définition de trame 802.3 actuelle.
Lorsqu’un nœud reçoit une trame, il doit examiner le champ de longueur/type afin de déterminer
quel protocole de couche supérieure est présent. Si la valeur de ces deux octets est égale ou
supérieure à la valeur hexadécimale 0x0600 (1536 en notation décimale), alors le contenu du champ
de données est décodé suivant le protocole indiqué. La structure de trame Ethernet II est celle
utilisée dans les réseaux TCP/IP.

6.1.7 - Champs des trames Ethernet

Une trame Ethernet 802.3 comprend les champs autorisés ou obligatoires suivants:
 Préambule
 Délimiteur de début de trame (SOF)
 Adresse de destination
 Adresse source
 Longueur/Type
 En-tête et données
 Séquence de contrôle de trame (FCS)
 Extension

VANGAH Aristide | Réseaux Locaux – Première Edition Page 84


Cours de Réseaux Locaux – Première Année

Le préambule est une succession de uns et de zéros permettant de définir la synchronisation


dans des implémentations Ethernet à 10 Mbits/s et moins rapides. Les versions plus rapides
d’Ethernet sont synchrones, aussi ces informations de synchronisation sont-elles inutiles mais
conservées à des fins de compatibilité. Un délimiteur de début de trame (SOF) est constitué d’un
champ d’un octet qui marque la fin des informations de synchronisation et qui contient la séquence
de bits 10101011.

L’adresse de destination peut être une adresse d’unicast, une adresse de multicast ou une adresse
de broadcast. Le champ d’adresse source contient l’adresse source MAC. Celle-ci est généralement
l’adresse d’unicast du nœud Ethernet qui a transmis la trame. Cependant, de nombreux protocoles
virtuels utilisent, et parfois partagent, une adresse MAC source afin d’identifier l’entité virtuelle.

Le champ de longueur/type peut être utilisé de deux façons. Si la valeur est inférieure à 1536
en notation décimale, soit 0x600 en notation hexadécimale, alors elle indique la longueur.
L’interprétation de la longueur est utilisée lorsque la couche LLC fournit l’identification de protocole.
La valeur de type précise le protocole de couche supérieure qui reçoit les données une fois le
traitement Ethernet terminé. La longueur indique le nombre d’octets de données qui suit ce champ.

Le champ de données -avec remplissage le cas échéant- peut être de n’importe quelle
longueur, pourvu que cela n’entraîne pas un dépassement de la taille maximum de la trame. L’unité
de transfert d’informations maximale (MTU) pour Ethernet étant de 1500 octets, les données ne
doivent pas dépasser cette taille. Le contenu de ce champ n’est pas spécifié. Une quantité non
spécifiée de données est insérée immédiatement après les données utilisateur lorsqu’il n’y a pas
suffisamment de données utilisateur pour que la trame ait la longueur minimale.
Ces données supplémentaires sont appelées données de remplissage. Ethernet exige que
chaque trame ait une longueur comprise entre 64 et 1518 octets.

Une séquence de contrôle de trame (FCS) contient un code de redondance cyclique (CRC) de
4 octets créé par l’unité émettrice et recalculé par l’unité réceptrice afin de s’assurer qu’aucune
trame n’a été endommagée. La corruption d’un seul bit, où que ce soit entre le début de l’adresse de
destination et la fin du champ FCS, entraînera une différence dans la somme de contrôle. Par
conséquent, la séquence de contrôle de trame s’inclut elle-même. Il n’est pas possible de faire la
distinction entre la corruption de la FCS et celle d’un autre champ utilisé dans le calcul.

6.2 - Fonctionnement d’Ethernet

6.2.1 - MAC

L’expression MAC (Media Access Control) fait référence aux protocoles qui, dans un
environnement à média partagé (domaine de collision), déterminent l’ordinateur autorisé à
transmettre des données. Avec la procédure LLC, la procédure MAC forme la version IEEE de la
couche 2, c’est-à-dire qu’elles sont toutes deux des sous-couches de la couche 2. Il y a deux grandes
catégories de protocole MAC, l’une déterministe, l’autre non déterministe.

Token Ring et FDDI sont des exemples de protocoles déterministes. Dans un réseau Token
Ring, les hôtes sont disposés en anneau et un jeton de données spécial circule d’un hôte à l’autre

VANGAH Aristide | Réseaux Locaux – Première Edition Page 85


Cours de Réseaux Locaux – Première Année
autour de l’anneau. Lorsqu’un ordinateur hôte désire émettre des données, il saisit le jeton, émet les
données pendant un temps limité, puis transmet le jeton à l’hôte suivant sur l’anneau. Token Ring
est un environnement dit sans collision, puisqu’un seul hôte peut transmettre à la fois.

Les protocoles MAC non déterministes font appel à la méthode dite du " premier arrivé,
premier servi ". Le système CSMA/CD (Carrier Sense Multiple Access with Collision Detection ou
détection de porteuse avec accès multiple et détection de collision) est simple. La carte réseau
guette l’absence de signal sur le média, puis commence à transmettre. Si deux nœuds transmettent
simultanément, une collision se produit et aucun d’eux n’est alors en mesure de transmettre.

Il existe trois technologies répandues de couche 2 : Token Ring, FDDI et Ethernet. Toutes trois
précisent des éléments de couche 2 (par exemple : LLC, attribution de noms, verrouillage de trame
et MAC), ainsi que des composants de signalisation et des éléments de média de couche 1. Les
technologies utilisées par chacune d’elles sont les suivantes :
 Ethernet, utilise une topologie de bus logique (flux d’informations sur un bus
linéaire) et une topologie physique en étoile ou en étoile étendue (câblage en
étoile).
 Token Ring, utilise une topologie logique en anneau pour contrôler le flux
d’informations et une topologie physique en étoile.
 FDDI, utilise une topologie logique en anneau pour contrôler le flux d’informations
et une topologie physique à deux anneaux.

6.2.2 - Règles MAC et détection de collision/réémission temporisée

Ethernet est une technologie de broadcast à média partagé. La méthode d’accès CSMA/CD
utilisée par le réseau Ethernet remplit les trois fonctions suivantes:
 Transmission et réception de trames de données
 Décodage des trames de données et vérification de ces trames afin de s’assurer
qu’elles ont une adresse valide avant de les transmettre aux couches supérieures du
modèle OSI
 Détection d’erreurs à l’intérieur des trames de données ou sur le réseau
VANGAH Aristide | Réseaux Locaux – Première Edition Page 86
Cours de Réseaux Locaux – Première Année

Dans la méthode d’accès CSMA/CD, les équipements de réseau qui ont des données à
transmettre sur le média réseau ne le font qu’après écoute de porteuse. Concrètement, cela signifie
que lorsqu’un nœud souhaite transmettre des données, il doit d’abord s’assurer que le média réseau
est libre. Si le nœud détermine que le réseau est occupé, il attendra pendant une durée aléatoire
avant de réessayer. Si le nœud détermine que le média est libre, il commence la transmission et
l’écoute. Le nœud se met à l’écoute pour s’assurer qu’aucune autre station ne transmet en même
temps. Une fois la transmission de données terminée, l’équipement se remet en mode d’écoute.

Les équipements de réseau détectent qu’une collision s’est produite lorsque l’amplitude du
signal augmente sur le média réseau. Lorsqu’une collision se produit, chaque nœud émetteur
continue de transmettre des données pendant une courte période afin de s’assurer que tous les
nœuds détectent la collision. Lorsque tous les nœuds ont détecté la collision, l’algorithme de
réémission temporisée est appelé et la transmission s’arrête. Les nœuds arrêtent de transmettre
pendant une période aléatoire, déterminée par l’algorithme de réémission temporisée. À l’expiration
du délai, chaque nœud peut tenter d’accéder à nouveau au média réseau. Les équipements
impliqués dans la collision ne sont pas prioritaires pour la transmission des données.
6.2.3 - Synchronisation Ethernet

VANGAH Aristide | Réseaux Locaux – Première Edition Page 87


Cours de Réseaux Locaux – Première Année
Les règles et les spécifications de base liées à un fonctionnement approprié d’Ethernet ne
sont pas particulièrement complexes, bien que certaines des implémentations de couche physique
rapides aient tendance à le devenir. Malgré cette simplicité élémentaire, lorsqu’un problème se
produit sur Ethernet, il est souvent relativement difficile d’en trouver l’origine. En raison de
l’architecture de bus commune d’Ethernet, également décrite comme un point de défaillance unique
intégré, l’étendue du problème englobe habituellement tous les équipements qui se trouvent dans le
domaine de collision. Dans les situations où des répéteurs sont utilisés, cela peut concerner des
équipements distants de jusqu’à quatre segments.

Toute station d’un réseau Ethernet qui souhaite transmettre un message " écoute " d’abord
pour s’assurer qu’aucune autre station n’est en cours de transmission. Si le câble est silencieux, elle
entame immédiatement la transmission. Le signal électrique met un certain temps à parcourir le
câble (délai), et chaque répéteur suivant introduit un bref temps de latence lors de la transmission
de la trame entre deux ports. En raison du délai et du temps de latence, il est possible pour plusieurs
stations de commencer la transmission au même moment ou quasiment au même moment, ce qui
engendre une collision.

Si la station connectée fonctionne en mode full duplex, alors elle peut envoyer et recevoir de
façon simultanée et les collisions ne doivent pas se produire. Le mode full duplex modifie également
les paramètres de synchronisation et élimine le concept de tranche de temps. Le fonctionnement en
full duplex permet de concevoir une architecture réseau plus étendue puisque la restriction de
synchronisation pour la détection de collisions est éliminée.

En mode half duplex, en supposant qu’aucune collision ne se produise, la station émettrice


transmet 64 bits d’informations de synchronisation appelées préambule. La station émettrice
transmet alors les informations suivantes:
 Informations sur les adresses MAC destination et source
 Certaines autres informations d’en-tête
 Charge utile réelle de données
 Somme de contrôle (FCS) utilisée pour s’assurer que le message n’a pas été corrompu en
cours de route

Les stations qui reçoivent la trame recalculent la FCS pour déterminer si le message entrant est
valide, puis transmettent les messages valides à la couche supérieure suivante de la pile de
protocoles.

Les versions à 10 Mbits/s ou moins d’Ethernet sont asynchrones. Asynchrone signifie que
chaque station réceptrice utilisera les huit octets d’informations de synchronisation afin de
synchroniser le circuit de réception avec les données entrantes, puis les abandonnera. Les
implémentations à 100 Mbits/s et plus d’Ethernet sont synchrones. Synchrone signifie que les
informations de synchronisation ne sont pas nécessaires, cependant, pour des raisons de
compatibilité le préambule et le délimiteur de début de trame (SFD) sont présents.

Pour toutes les vitesses de transmission Ethernet égales ou inférieures à 1000 Mbits/s, la
norme stipule qu’une transmission ne peut pas être inférieure à une tranche de temps. La tranche de
temps pour l’Ethernet 10 et 100 Mbits/s est de 512 temps de bit, soit 64 octets. La tranche de temps
pour l’Ethernet 1000 Mbits/s est de 4096 temps de bit, soit 512 octets. La tranche de temps est
calculée en se basant sur des longueurs de câble maximales dans l’architecture de réseau légale la
VANGAH Aristide | Réseaux Locaux – Première Edition Page 88
Cours de Réseaux Locaux – Première Année
plus étendue. Tous les délais de propagation sont au maximum légal et le signal de bourrage 32 bits
est utilisé lorsque des collisions sont détectées.

La tranche de temps calculée réelle est à peine supérieure à la durée théorique requise pour
aller jusqu’aux points les plus éloignés du domaine de collision, entrer en collision avec une autre
transmission au dernier moment possible, retourner les fragments de collision à la station émettrice
et les détecter. Pour que le système fonctionne, la première station doit détecter la collision avant
d’avoir terminé d’envoyer la taille de trame légale la plus petite. Pour permettre à l’Ethernet 1000
Mbits/s de fonctionner en mode half duplex, le champ d’extension a été ajouté aux seules fins
d’occuper l’émetteur suffisamment longtemps pour le retour d’un fragment de collision lors de
l’envoi de petites trames. Ce champ n’est présent que sur les liaisons 1000 Mbits/s en half duplex et
permet aux trames de taille minimale d’être assez longues pour satisfaire aux exigences de tranche
de temps. Les bits d’extension sont abandonnés par la station réceptrice.

Sur Ethernet 10 Mbits/s, il faut 100 nanosecondes (ns) pour transmettre un bit au niveau de
la couche MAC. À 100 Mbits/s il faut 10 ns pour la transmission de ce bit et donc seulement 1 ns à
1000 Mbits/s. Selon une estimation approximative, la valeur de 20,3 cm par nanoseconde est
souvent utilisée pour calculer le délai de propagation le long d’un câble UTP. Pour cent mètres de
câble à paires torsadées non blindées, cela signifie qu’il faut 5 temps de bit à peine à un signal
10BaseT pour parcourir la longueur du câble.

Pour que l’Ethernet CSMA/CD puisse fonctionner, la station émettrice doit avoir connaissance
d’une collision avant d’avoir terminé la transmission d’une trame de taille minimum. À 100 Mbits/s,
la synchronisation du système est à peine capable de servir 100 mètres de câble. À 1000 Mbits/s, des
ajustements spéciaux sont nécessaires du fait qu’environ une trame de taille minimum serait
transmise avant que le premier bit n’atteigne la fin des premiers 100 mètres de câble UTP. Pour
cette raison, le mode half duplex n’est pas autorisé dans le 10-Gigabit Ethernet.

6.2.4 - Espacement intertrame et réémission temporisée

L’espacement minimum entre deux trames n’entrant pas en collision est appelé espacement
intertrame. Cet espacement a pour limites le dernier bit du champ de la FCS de la première trame et
le premier bit du préambule de la deuxième trame.

Lorsqu'une trame est envoyée, toutes les stations d'un réseau Ethernet 10 Mbits/s doivent
attendre au minimum une durée de 96 bits, soit 9,6 microsecondes, avant qu’une autre station ait le
droit de transmettre la trame suivante. Sur les versions plus rapides d’Ethernet, l’espacement reste

VANGAH Aristide | Réseaux Locaux – Première Edition Page 89


Cours de Réseaux Locaux – Première Année
le même, à savoir 96 temps de bit, mais le temps nécessaire pour cet intervalle se réduit de façon
proportionnelle. On appelle cet intervalle écart d’espacement. Cet écart est prévu pour donner le
temps aux stations lentes de traiter la trame précédente et de se préparer pour la suivante.

Un répéteur doit régénérer les 64 bits d’informations de synchronisation, correspondant au


préambule et à la SFD, au début de chaque trame. Cela doit se faire malgré la perte potentielle de
certains bits de début de préambule en raison de la lenteur de la synchronisation. À cause de cette
réintroduction forcée de bits de synchronisation, une certaine réduction minime de l’écart
intertrame est non seulement possible mais attendue. Certains jeux de circuits Ethernet sont
sensibles à un raccourcissement de l’espacement intertrame, et risquent de ne plus pouvoir détecter
les trames en cas de réduction de l’écart. En raison de l’augmentation de leur puissance de
traitement, les ordinateurs personnels pourraient très facilement saturer un segment Ethernet de
trafic et commencer à retransmettre avant l’observation du délai d’espacement intertrame.

Lorsque la collision s’est produite et que toutes les stations rendent le câble inactif (en
attente de l’espacement intertrame complet), alors les stations à l’origine de la collision doivent
observer un délai supplémentaire et potentiellement de plus en plus long avant de tenter de
retransmettre la trame entrée en collision. Le délai d’attente est conçu intentionnellement pour être
aléatoire afin que les deux stations n’observent pas le même délai avant de retransmettre, ce qui
entraînerait d’autres collisions. Pour cela, on étend l’intervalle qui sert de base à la sélection du
temps de retransmission lors de chaque tentative de retransmission. La période d’attente est
mesurée par incréments de tranche de temps.

Si la couche MAC est incapable d’envoyer la trame après seize tentatives, elle abandonne et
génère une erreur sur la couche réseau. Une telle situation est assez rare et ne peut se produire
qu’en cas de surcharge extrême du réseau, ou lorsqu’il existe un problème physique.

6.2.5 - Traitement des erreurs

La condition d’erreur la plus commune sur les réseaux Ethernet est la collision. La collision
est le mécanisme qui permet de résoudre un conflit d’accès au réseau. Lorsqu’elles sont peu
nombreuses, les collisions constituent pour les nœuds de réseau un moyen simple, rapide et léger en
terme de charge administrative, d’arbitrer les conflits d’accès aux ressources réseau. Lorsque le
conflit devient trop important, les collisions peuvent devenir de sérieux obstacles pour le
fonctionnement effectif du réseau.

Les collisions entraînent une perte de la bande passante réseau qui est équivalente à la
transmission initiale et au signal de bourrage de collision. Il s’agit d’un délai de consommation qui
affecte tous les nœuds de réseau et qui peut provoquer une réduction significative du débit du
réseau.

VANGAH Aristide | Réseaux Locaux – Première Edition Page 90


Cours de Réseaux Locaux – Première Année

La grande majorité des collisions se produit au tout début de la trame, souvent avant le
délimiteur de début de trame (SFD). Les collisions qui se produisent avant le SFD ne sont
généralement pas signalées aux couches supérieures, comme si elles n’avaient pas eu lieu. Dès
qu’une collision est détectée, les stations émettrices transmettent un signal de " bourrage " sur 32
bits (jam) qui signale la collision. Cela est effectué afin que toute donnée transmise soit
complètement corrompue et que toutes les stations aient une chance de détecter la collision.

Dans la figure, deux stations écoutent pour s’assurer que le câble est inactif, puis elles
transmettent. La station 1 a pu transmettre une grande partie de la trame avant que le signal
n’atteigne le dernier segment de câble. La station 2 n’avait pas reçu le premier bit de la transmission
avant de commencer sa propre transmission et a pu envoyer plusieurs bits avant que sa carte réseau
ne décèle la collision. La station 2 a immédiatement tronqué la transmission en cours, remplacé le
signal de bourrage 32 bits et mis fin à toutes les transmissions. Au cours de la collision et de
l’événement de bourrage subi par la station 2, les fragments de collision ont tenté de retourner à la
station 1 en traversant le domaine de collision répété. La station 2 a terminé la transmission du
signal de bourrage 32 bits et s’est tue avant que la collision ne se propage vers la station 1 qui
ignorait encore la collision et continuait de transmettre. Lorsque les fragments de collision ont
finalement atteint la station 1, elle a également tronqué la transmission en cours et substitué un
signal de bourrage 32 bits au reste de la trame qu’elle était en train de transmettre. Dès l’envoi du
signal de bourrage 32 bits, la station 1 a cessé toute transmission.

Un signal de bourrage peut être constitué de n’importe quelles données binaires, tant qu’il ne
forme par une somme de contrôle valide pour la partie de la trame déjà transmise. Le modèle de
données le plus communément observé pour un signal de bourrage est simplement un modèle
répétitif de un, zéro, un, zéro identique au préambule. Dans un analyseur de protocole, ce modèle
s’affiche comme une séquence répétitive de 5 ou A en notation hexadécimale. Les messages
corrompus et partiellement transmis sont souvent appelés fragments de collision ou rebuts. Les
collisions normales sont d’une longueur inférieure à 64 octets et échouent à la fois au test de
longueur minimale et au test de somme de contrôle FCS.

VANGAH Aristide | Réseaux Locaux – Première Edition Page 91


Cours de Réseaux Locaux – Première Année
6.2.6 - Types de collisions

Les collisions se produisent généralement lorsque au moins deux stations Ethernet


transmettent simultanément au sein d’un domaine de collision. Une collision unique est une collision
qui a été détectée lors d’une tentative de transmission d’une trame, mais qui a abouti à la tentative
suivante. On parle de collisions multiples lorsque la même trame est entrée en collision plusieurs fois
avant d’être transmise avec succès. Les résultats de collisions et de fragments de collision sont des
trames incompatibles ou corrompues qui sont inférieures à 64 octets et comportent une FCS
invalide. Les trois types de collision sont les suivants:  Locale
 Distante
 Tardive

Pour créer une collision locale sur du câble coaxial (10Base2 et 10Base5), le signal circule sur
le câble jusqu’à ce qu’il rencontre un signal de l’autre station. Les ondes se chevauchent alors,
annulant certaines parties du signal ou dédoublant d’autres parties. Le dédoublement du signal
élève le niveau de tension de ce dernier au-delà du maximum autorisé. Cette condition de surtension
est ensuite ressentie par toutes les stations du segment de câble local comme une collision.
Au début, la forme d’onde de la figure représente des données normales codées
Manchester. Quelques cycles plus loin dans l’échantillon, l’amplitude de l’onde se met à doubler.
C’est le début de la collision, lorsque les deux formes d’onde se chevauchent. Juste avant la fin de
l’échantillon, l’amplitude retourne à la normale. Cela se produit lorsque la première station à
détecter la collision arrête de transmettre et que le signal de bourrage de la deuxième station en
collision est encore observé.

Sur un câble UTP, tel que 10BaseT, 100BaseTX et 1000BaseT, une connexion n’est détectée
sur le segment local que lorsqu’une station détecte un signal sur la paire réceptrice en même temps
qu’il envoie sur la paire émettrice. Puisque les deux signaux sont sur des paires différentes, il n’y a
aucune modification caractéristique du signal. Les collisions ne sont reconnues sur du câble UTP que
lorsque la station fonctionne en mode half duplex. À ce titre, la seule différence fonctionnelle entre
le fonctionnement en mode half duplex et en mode full duplex consiste à savoir s’il est possible ou
non d’utiliser de façon simultanée les paires de transmission et de réception. Si la station n’est pas
en train de transmettre, elle ne peut pas détecter une collision locale.

Réciproquement, une défaillance du câble due à une diaphonie excessive peut faire percevoir
à une station sa propre transmission comme une collision locale. Les caractéristiques d’une collision
distante sont celles d’une trame de longueur inférieure à la longueur minimum, dont la somme de
contrôle FCS est invalide, mais qui ne manifeste pas de signe de collision locale tel qu’une surtension
ou une activité de réception/transmission simultanée. Cette sorte de collision résulte habituellement
VANGAH Aristide | Réseaux Locaux – Première Edition Page 92
Cours de Réseaux Locaux – Première Année
de collisions qui se produisent du côté éloigné d’une connexion répétée. Un répéteur ne transmettra
pas un état de surtension, et ne peut pas être à l’origine de l’activité simultanée des paires TX et RX
de la station. La station doit être en train de transmettre pour que les deux paires soient actives, ce
qui constitue une collision locale. Sur les réseaux UTP, il s’agit d’un type de collision couramment
observable.

Il ne reste aucune possibilité pour une collision normale ou légale après que les 64 premiers
octets aient été transmis par les stations émettrices. Les collisions qui se produisent après les 64
premiers octets sont appelées "collisions tardives". La différence la plus significative entre les
collisions tardives et les collisions qui se produisent avant les 64 premiers octets réside dans le fait
que la carte réseau Ethernet retransmettra automatiquement une trame entrée en collision de façon
normale, mais ne le fera pas pour une trame dont la collision a été tardive. Au niveau de la carte
réseau, tout s’est bien déroulé, et les couches supérieures de la pile de protocoles doivent
déterminer que la trame a été perdue. Hormis la retransmission, une station qui détecte une
collision tardive la traite exactement de la même façon qu’une collision normale.

6.2.7 - Erreurs Ethernet

La connaissance des erreurs types est inestimable pour comprendre le fonctionnement et le


dépannage des réseaux Ethernet. Voici les sources d’erreur types d’Ethernet:
 Collision ou rebut(runt), Transmission simultanée qui se produit avant que la tranche de
temps ne se soit écoulée
 Collision tardive, Transmission simultanée qui se produit après que la tranche de temps se
soit écoulée
 Jabber, trame longue et erreurs de plage, Transmission excessivement ou illégalement
longue
 Trame courte, fragment de collision ou runt, Transmission illégalement courte
 Erreur FCS, Transmission corrompue
 Erreur d’alignement, Nombre insuffisant ou excessif de bits transmis
 Erreur de plage, Le nombre réel et le nombre signalé d’octets de la trame ne
correspondent pas
 Fantôme (ghost) ou longueur excessive (jabber), Préambule anormalement long ou
événement de bourrage

Alors que les collisions locales et distantes sont considérées comme faisant partie du
fonctionnement normal d’Ethernet, les collisions tardives sont considérées comme des erreurs. La
présence d’erreurs dans un réseau suggère toujours qu’une investigation plus poussée va suivre. En
fonction des erreurs détectées, la gravité du problème détermine l’urgence du dépannage. Ainsi
quelques erreurs détectées en plusieurs minutes ou en plusieurs heures seront d’une priorité basse.
Par contre, des milliers d’erreurs détectées en quelques minutes relèveront de l’urgence.

Le jabber est défini dans différentes sections de la norme 802.3 comme une transmission
d’une durée d’au moins 20 000 à 50 000 temps de bit. Cependant, la plupart des outils de diagnostic
signalent ce type d’erreur chaque fois qu’une transmission détectée dépasse la taille de trame légale
maximum, qui est bien inférieure à une durée de 20 000 à 50 000 temps de bit. De façon plus
appropriée, on parlera de trames longues plutôt que de jabber.

VANGAH Aristide | Réseaux Locaux – Première Edition Page 93


Cours de Réseaux Locaux – Première Année

Une trame longue est une trame, étiquetée ou non, dont la longueur dépasse la taille légale.
Il n’est pas tenu compte du fait que la trame a une somme de contrôle FCS valide. Cette erreur
signifie en général que du jabber a été détecté sur le réseau.

Une trame courte est une trame qui est plus petite que la taille minimum légale de 64 octets,
et dont la séquence de contrôle de trame est bonne. Certains analyseurs de protocole et moniteurs
de réseau appellent ces trames " runts ". En général, la présence de trames courtes ne veut pas dire
que le réseau est défaillant.

Le terme de jargon runt désigne en général quelque chose d’inférieur à la taille de trame
légale. Il peut se rapporter à des trames courtes dont la somme de contrôle FCS est valide, bien qu’il
soit plutôt employé pour les fragments de collision.

6.2.8 - Séquence de contrôle de trame et au-delà

Une trame reçue dont la séquence de contrôle de trame est mauvaise (également appelée
somme de contrôle ou erreur CRC), diffère de la transmission originale d’au moins un bit. Dans une
trame FCS erronée, les informations d’en-tête sont probablement correctes, mais la somme de
contrôle calculée par la station réceptrice ne correspond pas à celle rattachée à la fin de la trame par
la station émettrice. La trame est alors abandonnée.

Un nombre élevé d’erreurs FCS d’une seule station est habituellement le signe d’une carte
réseau défaillante et/ou de pilotes logiciels défaillants ou corrompus, ou encore d’un mauvais câble
reliant cette station au réseau. Si les erreurs FCS sont associées à de nombreuses stations, elles sont
généralement dues à un mauvais câblage, à une version inappropriée du pilote de la carte réseau, à
un port de concentrateur défaillant ou à un bruit induit dans les systèmes de câbles.

VANGAH Aristide | Réseaux Locaux – Première Edition Page 94


Cours de Réseaux Locaux – Première Année

On parle d’erreur d’alignement lorsqu’un message ne se termine pas par une frontière entre
octets. Plutôt qu’un nombre correct de bits binaires formant des groupements d’octets complets, on
observe des bits supplémentaires (moins de huit). Une telle trame est tronquée à la frontière entre
octets la plus proche, et une erreur d’alignement est signalée si la somme de contrôle FCS échoue.
Cette erreur est souvent due à des pilotes incorrects ou à une collision, et elle s’accompagne
fréquemment d’une défaillance de la somme de contrôle FCS.

On parle d’erreur de plage lorsque la valeur du champ de longueur d’une trame ne


correspond pas au nombre d’octets réel dénombré dans la trame reçue. Cette erreur apparaît
également lorsque la valeur du champ de longueur est inférieure à la taille minimum légale sans
remplissage du champ de données. Une erreur similaire, Out of Range, est signalée lorsque la valeur
du champ de longueur indique une taille de données qui est trop grande pour être légale.

Fluke Networks a inventé le terme fantôme (ghost) pour désigner l’énergie (bruit) détectée
sur le câble qui semble être une trame, mais à laquelle il manque un SFD valide. Pour être qualifiée
de fantôme, la trame doit être d’une longueur de 72 octets au moins, préambule compris. Sinon, elle
entre dans la catégorie des collisions distantes. En raison de la nature particulière des fantômes, il
est important de noter que les résultats des tests dépendent grandement de l’endroit du segment
où la mesure est effectuée.

Les boucles de mise à la terre et d’autres anomalies de câblage sont habituellement à


l’origine du ghosting. La plupart des outils de surveillance du réseau ne détectent pas l’existence des
fantômes pour la même raison qu’ils ne détectent pas les collisions de préambule. Les outils se fient
entièrement à ce que le jeu de circuits leur indique. Les analyseurs de protocole logiciels, de
nombreux analyseurs de protocole matériels, les outils de diagnostics portatifs, ainsi que la plupart
des sondes de surveillance à distance (RMON) ne détectent pas ces événements.

6.2.9 - Autonégociation Ethernet

Lorsque Ethernet est passé de 10 à 100, puis à 1000 Mbits/s, il est devenu nécessaire de
rendre chaque technologie interopérable, au point de pouvoir connecter directement les interfaces
10, 100 et 1000. Un processus appelé autonégociation des vitesses en half duplex ou full duplex a été
développé. Plus particulièrement, au moment où Fast Ethernet a été introduite, la norme incluait
une méthode permettant de configurer de façon automatique une interface donnée afin de
l’adapter à la vitesse et aux capacités du partenaire de liaison. Ce processus indique comment deux
partenaires de liaison peuvent négocier automatiquement une configuration offrant le meilleur
niveau de performances communes. Il présente l’avantage supplémentaire de n’impliquer que la
partie inférieure de la couche physique.

La norme 10BaseT exigeait que chaque station transmette une impulsion de liaison toutes les
16 millisecondes environ, c’est-à-dire à chaque fois que la station n’était pas engagée dans la
transmission d’un message. L’autonégociation a adopté ce signal et l’a renommé impulsion de liaison
normale (NLP). Lorsqu’une série de NLP est envoyée en groupe à des fins d’autonégociation, ce
groupe est appelé rafale FLP (impulsion de liaison rapide). Chaque rafale FLP est envoyée selon le
même intervalle de synchronisation qu’une NLP, et elle est conçue pour permettre à des
équipements 10BaseT anciens de fonctionner normalement en cas de réception d’une rafale FLP.

VANGAH Aristide | Réseaux Locaux – Première Edition Page 95


Cours de Réseaux Locaux – Première Année

L’autonégociation est effectuée en transmettant une rafale d’impulsions de liaison 10BaseT


émise par chacun des deux partenaires de liaison. La rafale communique les capacités de la station
émettrice à son partenaire de liaison. Après avoir interprété ce que lui propose son partenaire,
chaque station bascule sur la configuration commune la plus performante et établit une liaison à
cette vitesse. Si un incident quelconque interrompt les communications et que la liaison est perdue,
les deux partenaires de liaison tentent en premier lieu d’établir une nouvelle fois la liaison à la
vitesse qu’ils avaient négociée en dernier. Si cette tentative échoue, ou si la liaison a été perdue
depuis trop longtemps, le processus d’autonégociation recommence. La liaison peut être perdue en
raison de facteurs externes, telles qu’une défaillance de câble ou une réinitialisation émise par l’un
des partenaires de liaison.

6.1.10 - Établissement de liaison et modes full duplex et half duplex

Les partenaires de liaison sont autorisés à ignorer l’offre de configuration pour laquelle ils
sont équipés. Cela permet à l’administrateur réseau de forcer des ports à une configuration de
vitesse et de mode duplex donnée, sans désactiver l’autonégociation.

L’autonégociation est optionnelle pour la plupart des implémentations Ethernet. Gigabit


Ethernet requiert sa mise en œuvre, bien que l’utilisateur puisse la désactiver. L’autonégociation a
été définie à l’origine pour les implémentations UTP d’Ethernet, et elle a été étendue pour
fonctionner avec d’autres implémentations à fibre optique.

Lorsqu’une station d’autonégociation tente pour la première fois d’établir une liaison, elle est
supposée activer 100BaseTX pour tenter d’établir une liaison de façon immédiate. En présence de la
signalisation 100BaseTX, et si la station prend en charge 100BaseTX, elle tentera d’établir une liaison
sans négocier. Si la signalisation produit une liaison ou en cas de réception de rafales FLP, la station
poursuivra avec cette technologie. Si un partenaire de liaison ne propose pas de rafale FLP, mais des
NLP, cet équipement est automatiquement supposé être une station 10BaseT. Durant l’intervalle
initial de recherche d’autres technologies, le chemin de transmission envoie des rafales FLP. La
norme n’autorise la détection parallèle d’aucune autre technologie.

Si une liaison est établie au moyen de la détection parallèle, elle doit obligatoirement se faire
en half duplex. Il existe seulement deux méthodes pour réaliser une liaison full duplex. L’une d’elle
consiste à effectuer un cycle complet d’autonégociation, et l’autre à forcer administrativement les
partenaires de liaison au full duplex. Si l’un des partenaires est forcé à se configurer en full duplex,
mais que l’autre tente d’autonégocier, il y a nécessairement un décalage dans le duplex. Cela

VANGAH Aristide | Réseaux Locaux – Première Edition Page 96


Cours de Réseaux Locaux – Première Année
entraîne des collisions et des erreurs sur cette liaison. De plus, si une extrémité est forcée au mode
full duplex, l’autre doit l’être aussi. Le 10-Gigabit Ethernet qui ne prend pas en charge le mode half
duplex est une exception.

De nombreux fournisseurs mettent en œuvre le matériel de façon à ce qu’il balaie


successivement les divers états possibles. Il transmet des rafales FLP pour autonégocier pendant un
moment, puis il se configure pour Fast Ethernet, tente d’établir la liaison pendant un moment, et
enfin se met à l’écoute. Certains fournisseurs ne proposent aucune tentative d’établir la liaison
jusqu’à ce que l’interface entende une rafale FLP ou un autre schéma de signalisation.

Il y a deux modes duplex, le mode half duplex et le mode full duplex. Le mode half duplex est
obligatoire pour les médias partagés. Toutes les implémentations coaxiales sont en half duplex par
nature et ne peuvent pas fonctionner en full duplex. Les implémentations UTP et en fibre optique
peuvent fonctionner en half duplex. Les implémentations en 10 Gbits/s sont spécifiées pour le full
duplex uniquement.

En half duplex, une seule station peut transmettre à la fois. Pour les implémentations
coaxiales, la transmission d’une deuxième station entraîne le chevauchement et l’altération des
signaux. Puisque le câble UTP et la fibre optique transmettent généralement sur des paires séparées,
les signaux ne peuvent se chevaucher ou s’altérer. Ethernet a établi des règles d’arbitrage pour
résoudre les conflits engendrés par des situations où plusieurs stations tentent de transmettre en
même temps. Les deux stations d’une liaison point-à-point en mode full duplex sont autorisées à
transmettre à n’importe quel moment, que l’autre station soit en transmission ou non.

L’autonégociation permet d’éviter la plupart des situations où une station d’une liaison point-
à-point transmet en half duplex et l’autre en full duplex.

Pour le cas où les partenaires de liaison ont la possibilité de partager plus d’une technologie,
reportez-vous à la liste de la figure. Cette liste sert à déterminer quelle technologie doit être choisie
parmi les configurations proposées.

Les implémentations Ethernet à fibre optique ne figurent pas dans cette liste de résolution
prioritaire car l’électronique et l’optique de l’interface ne se prêtent pas à une reconfiguration facile
entre implémentations. Il est supposé que la configuration de l'interface est fixe. Si les deux
interfaces sont en mesure d’autonégocier, c’est qu’elles utilisent déjà les mêmes implémentations
Ethernet. Cependant, il reste quelques choix de configuration à déterminer, tels que la configuration
duplex, ou le choix de la station qui jouera rôle de station maître à des fins de synchronisation.

Résumé

VANGAH Aristide | Réseaux Locaux – Première Edition Page 97


Cours de Réseaux Locaux – Première Année
Ethernet n’est pas une technologie réseau unique, mais une famille de technologies de
réseau local qui incluent l’existant, Fast Ethernet et Gigabit Ethernet. Lorsque Ethernet doit être
étendu pour ajouter un nouveau média ou une nouvelle capacité, l’IEEE publie un nouveau
supplément à la norme 802.3. Les nouveaux suppléments reçoivent une désignation d’une ou deux
lettres (p. ex. 802.3u). Ethernet repose sur la signalisation de bande de base, qui utilise la totalité de
la bande passante du média de transmission. Ethernet fonctionne sur deux couches du modèle OSI, à
savoir la moitié inférieure de la couche liaison de données, que l’on appelle sous-couche MAC, et la
couche physique. Sur la couche 1, Ethernet comprend l’interfaçage avec les médias, les signaux, les
trains binaires se déplaçant sur les médias, les composants qui envoient des signaux sur les médias,
ainsi que diverses topologies. Les bits de couche 1 ont besoin d’une structure pour que les trames de
la couche 2 OSI puissent être utilisées. La sous-couche MAC de la couche 2 détermine le type de
trame approprié pour le média physique.

L’une des points communs à toute les formes d’Ethernet est la structure de trame. C’est ce
qui permet aux différents types d’Ethernet de fonctionner ensemble.

Voici plusieurs des champs autorisés ou obligatoires d’une trame Ethernet 802.3:
 Préambule
 Délimiteur de début de trame
 Adresse de destination
 Adresse source
 Longueur/Type
 Données et remplissage
 Séquence de contrôle de trame

Dans les versions 10 Mbits/s et plus lentes d’Ethernet, le préambule fournit les informations
de synchronisation dont le nœud récepteur a besoin pour interpréter les signaux électriques qu’il
reçoit. Le délimiteur de début de trame marque la fin des informations de synchronisation. Les
versions à 10 Mbits/s et plus lentes d’Ethernet sont asynchrones, c’est-à-dire qu’elles utilisent les
informations de synchronisation du préambule pour synchroniser le circuit de réception avec les
données entrantes. Les implémentations à 100 Mbits/s et plus rapides d’Ethernet sont synchrones.
Synchrone signifie que les informations de synchronisation ne sont pas nécessaires, mais pour des
raisons de compatibilité, le préambule et le délimiteur de début de trame (SFD) sont quand même
présents.

Les champs d’adresse de la trame Ethernet contiennent des adresses de couches 2 ou MAC.

Toutes les trames sont sujettes à des erreurs de causes diverses. Le champ de la séquence de
contrôle de trame (FCS) contient un nombre, calculé par le nœud source, qui repose sur les données
contenues dans la trame. Lorsqu’il parvient à destination, il est recalculé et comparé afin de vérifier
que les données reçues sont complètes et exemptes d’erreur.

Une fois les données tramées, la sous-couche MAC (Media Access Control) est également en
charge de déterminer quel ordinateur dans un environnement à média partagé ou domaine de
collision, est autorisé à transmettre des données. Il existe deux grandes catégories de MAC,
déterministe (chacun son tour) et non déterministe (premier arrivé, premier servi).

VANGAH Aristide | Réseaux Locaux – Première Edition Page 98


Cours de Réseaux Locaux – Première Année

Comme exemple de protocole déterministe, citons Token Ring et FDDI. Le mode de détection
de porteuse avec accès multiple et détection de collision (CSMA/CD) est un système non
déterministe simple. La carte réseau guette l’absence de signal sur le média, puis commence à
transmettre. Si deux nœuds ou plus transmettent simultanément, une collision se produit. Si une
collision est détectée, les nœuds attendent pendant une durée aléatoire puis retransmettent.

L’espacement minimum entre deux trames n’entrant pas en collision est appelé espacement
intertrame. Cet espacement est nécessaire pour donner le temps à toutes les stations de traiter la
trame précédente et de se préparer pour la suivante.

Les collisions peuvent se produire à divers stades de la transmission. On appelle collision


locale une collision où un signal est détecté sur les circuits de réception et de transmission en même
temps. On appelle collision distante une collision qui se produit avant que le nombre minimal
d’octets ait pu être transmis. Une collision qui se produit après que les 64 premiers octets de
données ont été envoyés est considérée comme une collision tardive. La carte réseau n’effectue pas
de retransmission pour ce type de collision.

Alors que les collisions locales et distantes sont considérées comme des événements
normaux du fonctionnement d’Ethernet, les collisions tardives sont considérées comme des erreurs.
Les erreurs Ethernet résultent de la détection de trames de longueur supérieure ou inférieure à la
norme, ou à des transmissions trop longues ou illégales, appelées jabber. Runt est un terme de
jargon qui désigne tout élément inférieur à la taille de trame légale.

L’autonégociation détecte la vitesse de transmission et le mode duplex (half duplex ou full


duplex) de l’équipement raccordé à l’autre extrémité du câble, et s’ajuste en fonction de cette
configuration.

4.1. Thick Ethernet :10Base5


Notons que le premier câble Ethernet à avoir été standardisé est le câble de type Thick Ethernet
(normalisé 10Base5) appelé aussi Yellow Cable, ou 'tuyau d'arrosage', en raison de sa dimension et
de sa couleur. Il s'agit d'un câble coaxial blindé de 50 Ohm, terminé, d'un diamètre de près de 2cm,
utilisable sur une distance de 500m sans ré- amplification du signal électrique. La bande passante est
de 10Mbits/s.
Aussi, ses dimensions le rendent malaisé à poser et sa 'connectique' est délicate : en effet, il faut
perforer l'enveloppe du câble pour y introduire une aiguille permettant la connexion sur un
tranceiver (émetteur) externe.
En réalité, il s'agit d'un bus, puisque tous les nœuds se connectent les uns à côté des autres (la
distance entre deux connections sur le câble doit être, pour des raisons de physique électrique, d'un
multiple de 1,5m).
À travers son port AUI (Access Unit Interface) de 15 pôles, une machine pourra se connecter sur le
réseau. Un câble AUI d'une longueur maximum de 5m et d'un 'Tranceiver' permettant la jonction
physique sur le câble coaxial.
4.2. Thin Ethernet : 10Base2
Ce câble coaxial fin de 50 Ohm, appelé aussi 'CheaperNet', terminé et facile à poser est apparu après
le Thick Ethernet et présente les caractéristiques suivantes:

VANGAH Aristide | Réseaux Locaux – Première Edition Page 99


Cours de Réseaux Locaux – Première Année
- Longueur maximum sans ré-amplification : 185m.
- Connecteurs de type BNC à bayonnettes, branchement à l'aide de connecteurs en 'T', nombre
de connexions maximum par segment de 185m: 30.
- Débit ou bande passante de 10Mbits/s.
C’est un câble de type 'bus', puisque tous les nœuds se connectent les uns à coté des autres. Sa
connectique est délicate : en fait un câble facilement sujet à des perturbations intermittentes
difficilement éliminables.
4.3. Câblage universel structuré (UTP/STP) : 10Base-T
Il reprend le principe du câble téléphonique puisqu'il s'agit d'un câblage physique en étoile (chaque
prise est reliée à un nœud central, appelé répartiteur ou 'Hub'; il est donc structuré) à base de
conducteurs en cuivre torsadés entre eux afin de pallier l'absence d'un épais isolant (lutte contre la
diaphonie).
Ce câble est constitué de 8 conducteurs de cuivre, isolés par un enrobage plastique et torsadés par
paire.
Afin de lutter contre les phénomènes électromagnétiques, un blindage (Schielded Twisted Pair)
extérieur peut être ajouté : c'est la solution qui a été adoptée sur le réseau des Hospices, vu
l'environnement 'agressif' du CHUV.
En tant qu’il permet le passage de différents types d'informations : réseau informatique Ethernet ou
TokenRing, téléphonie, domotique, vidéo etc., ce type de câblage prend le nom d'universel.
En Ethernet et sans ré-amplification, La distance maximum atteignable, sur de tels câbles est de
100m (y compris les câbles de renvois et les câbles de bureau !).
Le débit ou la bande passante potentielle, pour des câbles certifiés de catégorie 5, est de
100Mbits/s.
5. Contrôle d'erreurs (CRC).
Au moment de l’envoi d’un paquet d'information sur le réseau, rien ne garantit qu'il parvienne à son
destinataire en bon état: en effet, selon la qualité du média, des parasites et autres perturbations
électromagnétiques peuvent détériorer le signal électrique et, par exemple, faire passer une valeur
binaire de '1' à '0', ce qui peut rendre l'information inutilisable.
Pour une conversation téléphonique, les deux interlocuteurs sont capables de reconstituer les bouts
d'information rendus inaudibles, ce qui n'est pas le cas lors d'une transmission de données. Il faut
donc s'assurer que l'information reçue est conforme à l'information envoyée.
Pour cette raison, des mécanismes de contrôle d'erreur ont été mis en place au niveau des couches
basses: il s'agit principalement du CRC (Cyclic Redundancy Code).
Le CRC représente une fonction mathématique (un binôme) redonnant une valeur calculée sur la
valeur binaire du paquet, cette valeur étant calculée par l'équipement expéditeur pour chaque
paquet envoyé et ajouté à la fin des paquets. L'équipement récepteur calcule à son tour le CRC: si la
valeur correspond au CRC reçu, il considère le paquet comme dépourvu d'erreur; dans le cas
contraire, il ne le réceptionne pas.
Le comportement de l'équipement récepteur, en cas d'erreur, dépend de son protocole:
1. Il peut demander immédiatement le renvoi du paquet en erreur (NetWare, par exemple), ce
qui provoque un trafic important, surtout si l'on songe que chaque paquet correct est
acquitté au moyen d'un paquet d'accusé de réception (aknowledgment).
Cette méthode est relativement simple à gérer.

VANGAH Aristide | Réseaux Locaux – Première Edition Page 100


Cours de Réseaux Locaux – Première Année
2. Il peut attendre l'arrivée d'un certain nombre de paquets, et demander ensuite le renvoi des
paquets en erreur (TCP/IP). Cette méthode génère un trafic moins important, puisqu'un seul
paquet d'accusé de réception est envoyé pour un certain nombre de paquets reçus (ce
nombre varie en fonction de la taille de la fenêtre de réception).

3. Il peut ignorer l'événement, valider le paquet, et laisser les applications gérer le problème (en
provoquant une erreur, dans le pire des cas...): par ex. UDP/IP.
Cette solution rustique est rarement utilisée; dans ce cas, les applications doivent mettre elles-
mêmes en place des solutions de contrôle.

En conclusion, la complexité du travail de gestion d'erreur (appelée aussi gestion de flux, si l'on tient
compte de la gestion de l'engorgement qui pourrait se produire si l'équipement récepteur n'arrive
plus à réceptionner correctement les paquets pour cause de saturation) dépend de la qualité du
service fourni par le protocole de communication.
6. Paquets Ethernet
D'un point de vue logique, un paquet Ethernet est composé d'une suite de bits ayant une
signification particulière en fonction de leur emplacement dans le paquet. Ce paquet est ensuite
modulé (Manchester Bi-Phasé) afin d'être envoyé sous la forme d'un signal électrique sur les câbles
du réseau.
La taille maximum d'un paquet est de 1518 bytes et la taille minimum de 512 bytes.
- Les premiers bits servent de délimiteur de paquet et de préambule et ne sont utiles que d'un
point de vue électrique (Start).
- La série de bits suivant représente l'adresse Ethernet de destination (appelée aussi adresse
physique ou adresse MAC). Une adresse Ethernet est composée de 6 bytes, ce qui donne,
dans une représentation hexadécimale, une suite du type '00 c0 a4 23 d4 02'; les 3 premiers
bytes sont caractéristiques du fabricant, les 3 derniers appartenant en propre à l'équipement.
Ces adresses sont uniques et attribuées par le fabricant.
- Une adresse de type ff ff ff ff ff ff représente un broadcast, c'est-à-dire un message envoyé à
tous les nœuds du réseau.
- Le troisième bloc de bits représente l'adresse Ethernet source, c'est-à-dire l'adresse propre
de l'équipement.
- Le champ suivant représente soit le type de paquet, soit la longueur du paquet, en fonction
du type de trame utilisée: Ethernet II ou 802.3.
C'est pourquoi nous devons travailler avec deux types de paquets dans des environnements
particuliers (TCP/IP exige des paquets de type Ethernet II, tandis que NetWare peut accepter les
deux types de paquets, en fonction de la configuration des serveurs).
- Le plus grand champ est composé des données et des éventuels caractères de remplissage.
Ces données ne représentent pas les données finales utiles à l'application, mais

VANGAH Aristide | Réseaux Locaux – Première Edition Page 101


Cours de Réseaux Locaux – Première Année
correspondent au paquet issu de la couche précédente (rappelons-nous le modèle des
poupées russes).
- les derniers bits donnent la valeur de CRC (Cyclic Redundancy Code) calculée par
l'équipement émetteur.

7. TCP/IP.
C’est un protocole de communication, issu du monde Unix, en passe de devenir le protocole de
communication incontournable pour interconnecter des machines différentes.
C’est aussi le protocole utilisé sur le réseau mondial Internet.
Le développement de ce protocole est antérieur à la normalisation ISO et ses différentes couches ne
correspondent donc pas exactement au modèle à 7 couches.
En général, TCP/IP est une suite de protocoles comprenant également une couche applicative et de
services.
La couche basse, est la couche IP (Internet Protocol), située juste en dessus d'Ethernet. Elle s'occupe
principalement de gérer l'adressage logique et d'assurer l'acheminement des paquets d'un nœud à
l'autre.
Les adresses logiques sont du type 155.105.50.47 et représente un groupe de 32 bits. Un masque
(mask) du type 255.255.255.0 permet de créer des sous-ensembles logiques (subnet).
La couche TCP (Transmission Control Protocol), appelée la couche haute, s'occupe de gérer les
erreurs et de contrôler le flux en mettant en place des mécanismes de répétition de paquets et
d'ajustage de fenêtre de réception (c'est-à-dire le nombre de paquets qu'il est possible de recevoir
avant de les valider/invalider).
La couche TCP détermine également quel est le service (application) transporté par le paquet au
moyen d'un numéro de port; ces numéros de port sont normalisés et figurent en principe sur une
table présente dans chaque équipement.
L’ensemble de protocole TCP/IP met à disposition des services (applications) comme telnet (terminal
à distance), ftp (File Transfert Protocol, pour l'échange de fichiers), nfs (Network File System, de SUN,
pour permettre le partage de fichiers dans un environnement de type 'bureautique'), lp (Line Printer,
pour les impressions), smtp (Simple Mail Transfer Protocol, pour la messagerie), http (HyperText
Transfer Protocol - World-Wide Web) etc.
On montre sur le schéma suivant, les imbrications des différentes couches lorsqu'une commande dir
est effectuée depuis une session telnet sur une machine Vax fonctionnant avec le protocole TCP/IP :

VANGAH Aristide | Réseaux Locaux – Première Edition Page 102


Cours de Réseaux Locaux – Première Année

7.1. Mécanismes d'adressage


Les adresses logiques TCP/IP, attribuées localement, sont codées sur 32 bits et regroupées par
convention en 4 octets.

En mode binaire une adresse IP prend donc cette forme:


10011011 01101001 00110010 01000101
Traduit en mode décimal, on obtient 4 groupes de nombres compris entre 0 et 255 (2 puissance 8 =
256); dans notre exemple: 155.105.50.69
Ces adresses uniques sont attribuées par le NIC en fonction de la taille et de l'intérêt pour la
communauté Internet de la société du demandeur. Une plage d'adresses lui est assignée (qui
correspond à l'adresse de son réseau, libre à lui de disposer des adresses de cette plage).
Pour permettre la création de groupes d'adressage différents, ce protocole met en place la notion de
réseau (network), de sous-réseau (subnetwork) et de nœud (node), déterminés en fonction de leur
classe.
(Pensons à nouveau au monde téléphonique, où il existe un indicatif par pays, puis par région etc.)
L'adresse du réseau est constituée des n premiers bits, l'adresse éventuelle du sous- réseau des m
bits suivants et l'adresse du nœud des derniers bits.

Le nombre de bits attribués à l'adresse réseau (n), et au nœud plus l'éventuel sous- réseau (32-n)
dépend de la classe de cette adresse.
Au niveau mondial, et sur Internet (c'est-à-dire à l'échelle de la planète), c'est l'adresse du réseau qui
est connue.
En fonction de la valeur des premiers bits, l'adresse sera déclarée de classe A, B ou C.
Si le premier bit est à 0, il s'agit d'une classe A (en décimal de 1.0.0.0 à 127.0.0.0)
VANGAH Aristide | Réseaux Locaux – Première Edition Page 103
Cours de Réseaux Locaux – Première Année
Si les 2 premiers bits sont à 1 0, il s'agit d'une classe B (en décimal de 128.0.0.0 à 191.0.0.0).
Si les 3 premiers bits sont 1 1 0, il s'agit d'une classe C (en décimal de 192.0.0.0 à 254.0.0.0).
Une adresse de classe A est composée de 8 bits d'adresse de réseau et de 24 bits d'adresse de
nœuds. Il y a donc potentiellement, au monde, 128 réseaux de classe A comprenant chacun
quelques millions de nœuds (faites le calcul...).
Une adresse de classe B est composée de 16 bits d'adresse de réseau et de 16 bits d'adresse de
nœuds. Il y a donc potentiellement quelque 16 000 réseau de classe B comprenant chacun environ
16 000 nœuds.
Une adresse de classe C est composée de 24 bits d'adresse de réseau et de 8 bits d'adresse de
nœuds. Il y a donc potentiellement quelque millions d'adresses de réseau de classe C comprenant
chacun 128 nœuds.
Une adresse du type 155.105.50.69 montre qu'il s'agit d'une adresse de classe B appartenant au
réseau 155.105.0.0
7.1.1. Masques et sous-réseaux (subnets)
Un masque (mask) est utilisé pour identifier clairement la partie de l'adresse représentant le réseau
et celle appartenant au nœud. Ce masque est composé de 32 bits: les bits représentant le réseau
sont positionnés à 1.
En effet, le masque pour un réseau de classe B se compose comme suit:
11111111 11111111 -- 00000000 00000000
10011011 01101001 -- 00110010 01000101
réseau -------------- nœud
et prend donc la valeur 255.255.0.0 en mode décimal.
Il est toujours possible de créer, au sein même du réseau de classe donnée, des sous- réseaux
(subnet, ou segment logique, ou segment IP), destinés à créer des structures logiques au niveau du
réseau d'entreprise.
Les masques de sous-réseau (subnetmask) ont été introduits à cet effet.
Une partie des bits d'adresse de nœud sont réservés pour définir les sous-réseaux; le nombre de bits
dédiés à cette fin dépend du nombre de sous-réseaux que l'on veut créer (donc du nombre de
nœuds potentiels qu'il y aura par sous-réseau).
Pour un réseau de classe B, il est ainsi possible de définir 254 sous-réseaux de 254 nœuds en
choisissant un subnetmask de 8 bits.
11111111 11111111--11111111--00000000
10011011 01101001--00110010--01000101
réseau---------------- sous-réseau--- nœud

Dans ce cas de figure, le masque prend donc la valeur 255.255.255.0 en mode décimal.
Une adresse du type 155.105.50.69 montre qu'il s'agit d'une adresse de classe B appartenant au
réseau 155.105.0.0 et au sous-réseau 50.
Entre les différents réseaux et sous-réseaux, les Routeurs permettent l'acheminement des paquets.
7.2. Mécanismes de communication TCP/IP
Pour communiquer en mode TCP/IP, un équipement doit donc générer un paquet TCP, l'encapsuler
dans un paquet IP puis le passer à la couche Ethernet qui le module et l'envoie sur le réseau.
La couche TCP a pour tâche d'identifier le service utilisé à l'aide de son n° de port (23 pour telnet, par
exemple) et d'attribuer un n° à la session en cours (134 par exemple) afin d'identifier les paquets
appartenant à une même session.

VANGAH Aristide | Réseaux Locaux – Première Edition Page 104


Cours de Réseaux Locaux – Première Année
La couche IP ajoute l'adresse IP de l'équipement émetteur (adresse source) et celle de l'équipement
destinataire.
La couche Ethernet, quant à elle, ajoute les adresses Ethernet de la source et de la destination,
module le paquet et l'envoie sur le réseau selon CSMA/CD.
Le mécanisme inverse est effectué à la réception:
Le nœud destinataire repère le paquet qui lui est destiné grâce à son adresse Ethernet (!) et le
transmet à la couche IP.
La couche IP effectue quelques vérifications et transmet la partie 'data' à la couche TCP qui
détermine le type de service (n° port) mis à contribution et le n° de la session concernée.
Dans cet exemple, l'adresse IP n'est pas utilisée lors de la réception du paquet: en effet, lors de la
réception, seule la couche Ethernet est mise à contribution car, pour récupérer un paquet transitant
sur le réseau en fonction de son adresse logique (IP ou autre) il faudrait saisir chaque paquet et le
passer à la couche chargée de l'adressage logique (couche IP ou autre) pour déterminer si ce paquet
est à considérer ou non: il en résulterait une surcharge inutile de travail pour l'équipement
récepteur.
Le lecteur attentif remarquera que l'adresse Ethernet (adresse physique) du nœud de destination
n'est, a priori, pas connue puisqu'une connexion TCP/IP s'effectue sur son adresse IP logique.
L’ARP (Address Resolution Protocol), est un mécanisme mis en place pour déterminer quelle adresse
Ethernet correspond à l'adresse IP demandée.
En bref, L'adresse IP est donc uniquement utilisée pour acheminer l'information à travers le réseau.
7.2.1 Noms logiques (DNS)
Puisqu’il est vite fastidieux de connaître l'adresse IP de plusieurs dizaines de nœuds différents, un
système de nom logique a été mise en place: il s'agit du service de nom DNS (Domain Name Service).
Pour chaque réseau correspond un nom particulier unique (nom de domaine, Domain Name).
Pour chaque nœud correspond également un nom unique.
Le nom du réseau (domaine) est attribué d'entente avec le responsable réseau local par le NIC.
La lecture s'effectue de droite à gauche: la partie de droite représente le réseau et la partie de
gauche le nœud; par convention, les sociétés commerciales se voient attribuer le suffixe 'com', les
organisations militaires le suffixe 'mil' et les écoles le suffixe 'edu'; les réseaux qui ne correspondent
pas à ces critères peuvent être classés par pays ('ma' pour le maroc, 'ch' pour la suisse, 'uk' pour
l'Angleterre etc.).
.ma
Afin de différencier les réseaux faisant partie d'un même suffixe, un (ou plusieurs) nom représentatif
de l'emplacement et de la nature du réseau est ajouté. (ac, org, net,…).
ac.ma
Un nom de nœud est finalement ajouté selon une convention propre à l'organisation du réseau (n°
de bureau, nom de l'utilisateur, type de la machine, nom comique etc.)
fsr.ac.ma
Plusieurs noms peuvent être attribués à un même nœud: il y alors un nom canonique et des alias.
A ce stade, nous constatons qu'un nœud possède deux adresses logiques:
- une adresse IP de type 155.105.50.101
- une adresse 'nom' de type fsr.ac.ma
La correspondance entre ces deux noms est établie soit à travers une table locale à l'équipement
(ficher host) soit grâce à un serveur de nom (serveur DNS).
Le réseau Internet contenant des millions d'adresses IP (et ce nombre augmente chaque jour...), il
est donc impossible de tenir à jour une telle table localement !
VANGAH Aristide | Réseaux Locaux – Première Edition Page 105
Cours de Réseaux Locaux – Première Année
Les serveurs de noms offrant ce service, en principe deux (un de backup) par réseau, tiennent à jour
l'ensemble des adresses IP (ainsi que le nom canonique et les alias correspondant) de leur réseau.
Ces serveurs de noms communiquent à l'échelle mondiale et peuvent ainsi redonner l'adresse de
n'importe quel nœud du réseau Internet !
Lorsqu’il y aura l'établissement d'une communication entre deux nœuds TCP/IP à l'aide d'un nom, le
serveur DNS est tout d'abord interrogé; ce dernier retourne la valeur de l'adresse IP correspondant
au nom demandé.

Pour deux nœuds qui se trouvent sur le même réseau (ac.ma par exemple), ils n'ont pas besoin
d'utiliser le nom du réseau : la communication s'effectue sur leur seul nom (fsr), car ils appartiennent
au même domaine.
Il y a des machines hôtes (hosts) d'Internet qui utilisent le nom logique pour vérifier l'identité de
l'équipement essayant de se connecter. En absence de nom, la connexion peut être refusée !
7.3. UDP, SNMP, Mail
UDP (User Datagram Protocol) est une couche haute située en dessus d’IP et en parallèle avec TCP.
Le mécanisme d'UDP est beaucoup plus rustique que TCP puisqu'il ne met pas en place de solution
de renvois de paquet(s) en cas d'erreur ou de perte. Cette couche est peu utilisée, si ce n'est pour
des applications ne nécessitant pas une garantie quant à la réussite de chaque transaction (tftp par
exemple (Trivial File Transfert Protocol)).
UDP/IP et TCP/IP peuvent cohabiter sur le même équipement.

SNMP (Simple Network Managment Protocol) est le protocole standard de gestion d'équipement
réseau. SNMP se situe au dessus de la couche UDP.
Pour pouvoir être géré à distance, un équipement doit évidemment supporter ce protocole.
Le système de messagerie (E-mail) SMTP (Simple Mail Transfer Protocol) permet l'échange de
messages et de documents sur le réseau. SMTP est un service TCP/IP et nécessite un serveur de
messagerie (serveur SMTP).
Ce serveur est en contact avec les serveurs de l'ensemble de la communauté Internet, ce qui permet
ainsi d'envoyer des messages dans le monde entier.

VANGAH Aristide | Réseaux Locaux – Première Edition Page 106


Cours de Réseaux Locaux – Première Année
Une adresse est composée du nom de la machine serveur SMTP précédé du signe '@' et du nom de
la personne destinataire ou expéditrice du message.
economiquessciences@yahoo.fr
Les messages sont expédiés sur le serveur SMTP local (qui accueille l'expéditeur, celui-ci devant être
au bénéfice d'un acompte sur cette machine) qui les transmet, via Internet au serveur SMTP du
destinataire (lui-même propriétaire d'un acompte sur ce serveur).
Les messages et documents sont stockés sur le serveur SMTP du destinataire jusqu'à l'instant où
celui-ci vient les rechercher (soit manuellement, soit automatiquement toutes les x minutes et/ou
lorsque l'ordinateur personnel est mis en marche).
Eudora est le logiciel utilisé sur les PCs et Macintosh pour accéder au serveur SMTP (yahoo.fr dans le
cas du serveur yahoo).

8. Equipements réseau
L’ensemble d'infrastructure d'un réseau informatique est composée, outre le câblage cuivre et
optique, de matériel électronique et informatique.
8.1. Tranceivers
Ce sont des équipements de transformation de signal physique d'une nature en un autre signal d'une
autre nature: de BNC-10Base2 à FOIRL (Fiber Optical Inter Repeater Link), ou de AUI (Access Unit
Interface) à 10BaseT par exemple.
Ces composants, qui ne possèdent pas d'adresse physique, ne régénèrent pas le signal et ne peuvent
donc pas augmenter la distance maximum de transmission (qui dépend du type de média, comme
nous l'avons vu).

8.2. Repeaters
Ces répéteurs sont à comparer à des amplificateurs qui régénèrent le signal et qui permettent ainsi
d'étendre la distance maximum de transmission.
Ils peuvent être munis de différents types de tranceivers et possède chacun une adresse physique
par port.

VANGAH Aristide | Réseaux Locaux – Première Edition Page 107


Cours de Réseaux Locaux – Première Année

Le réseau reste unique, c'est-à-dire que le trafic entre les nœuds A et B se retrouve également sur la
partie droite du repeater et inversement; les collisions sont propagées.
Ce type d'équipement ne nécessite aucune configuration logicielle.
8.3. Bridges
Les Bridges ou les ponts font partie des équipements d'interconnexion et possèdent au minimum 2
ports munis de Tranceiver ou de connecteur AUI ayant une adresse physique chacun.
Ce type d'équipement, logiciel et matériel, assure une segmentation physique et logique du réseau.
Seul les paquets destinés à un équipement situé de l'autre côté du Bridge le traverse.
Cela signifie que le trafic local entre les nœuds A et B ne traverse pas le Bridge et n'encombre ainsi
pas le segment de droite. Le trafic est filtré, les collisions ne sont pas propagées.

Les Bridges effectuent leur tri (le paquet doit-il passer ou non) sur les adresses physiques des
paquets.
En général, la configuration logicielle de ce type d'équipement est automatique, les possibilités de
filtrage sont assez restreintes et ne permettent pas une grande précision.
8.4. Routeurs
Un Router (routeur, appelé aussi abusivement Gateway) est également un équipement
d'interconnexion muni de 2 ports au minimum et ayant une adresse physique et logique pour chacun
d'eux.
Ces ports peuvent être connectés sur un modem: on parle alors de Remote Router (routeur distant);
dans ce cas, un autre Router muni d'un modem doit se trouver à l'autre extrémité de la liaison
téléphonique.
La configuration logicielle des ces équipements est complexe et permet la création de filtres très fins,
au niveau des couches de protocoles de communications (au niveau de IP, TCP etc.).
Certains équipements combinent les fonctionnalités de Bridge et de Router: les BRouters.
Dans l'exemple précédent, il est possible de décider que la station A peut communiquer en mode
TCP/IP avec les nœuds C et D, tandis que le nœud B ne peut communiquer qu'avec A et qu'en mode
IPX/Netx.
L'autre grande fonction des Routers est l'aiguillage (routage) des paquets à travers le réseau: les
paquets passent d'un Router à l'autre en fonction d'un chemin (route) calculé d'entente entre les
Routers du réseau (et ceci à l'échelle mondiale d'Internet), d'après une série de protocoles de
routage.
Les paquets de l'exemple ci-dessous transitent du nœud A au nœud B en passant par un chemin qui
peut varier d'une fois à l'autre (en fonction de la charge, des Routers hors-service etc.).
VANGAH Aristide | Réseaux Locaux – Première Edition Page 108
Cours de Réseaux Locaux – Première Année

8.5. Hubs
Les Hubs (concentrateurs) permettent la connexion de plusieurs nœuds sur un même point d'accès
sur le réseau, en se partageant la bande-passante totale.
La structure physique qui s'en dégage est une étoile, mais la topologie logique reste un bus (pour
Ethernet).
Les Hubs sont munis, sauf sur les équipements de bas de gamme, d'un port Repeater (optique ou
AUI) permettant la connexion sur le reste du réseau ou sur le backbone.
Il est en général possible d'y installer plusieurs types de modules (bridges ou autres).
9. Couches réseau : PCs
Les informations entrant et sortant de la carte réseau (Adapter) doivent être gérées par le PC.
La carte réseau est pilotée, comme n'importe quel périphérique, par un driver.
Les informations issues du driver (ou destinées à lui) doivent avoir un format tel qu'elles soient
exploitables par les protocoles (logiciels) supérieurs.
Dans un premier temps, les fabricants de cartes réseau proposaient leur propre suite de protocoles,
ce qui évitait les problèmes d'incompréhension entre le driver de la carte à proprement parler et le
reste de la couche réseau; cette façon de faire oblige à utiliser un seul fournisseur pour la partie
logicielle et matérielle, ce dernier n'étant, de plus, pas forcément capable de fournir tous les
protocoles nécessaires.
Une autre solution consiste à construire la partie basse du protocole de communication à l'aide du
driver de la carte: c'est le cas de l'IPX natif de NetWare.
Des constructeurs se sont finalement alliés afin de créer un standard qui permettrait d'utiliser
n'importe quel driver de carte réseau (répondant à ce standard) avec n'importe quelle suite de
protocoles.
De ces accords sont issus trois standards principaux: Packet Driver, ODI (Open Datalink Interface) de
Novell et NDIS (Network Driver Interface Specification) de Microsoft et 3com.
- Packet Driver est une spécification relativement indépendante des constructeurs mais assez
délicate à utiliser.
- NDIS est utilisé sur les NOS (Network Operating System) du type LAN Manager de Microsoft
et de ses dérivés (IBM-LAN server, Windows 95, Windows NT, DEC- Pathwork).
- La spécification ODI de Novell permet, outre l'emploi de n'importe quelle carte supportant ce
standard, l'utilisation en parallèle d’IPX/Netx de plusieurs piles de protocoles (TCP/IP et
IPX/Netx par exemple): on parle de multi-stack.

VANGAH Aristide | Réseaux Locaux – Première Edition Page 109


Cours de Réseaux Locaux – Première Année

Le logiciel 'ODI' chargé sur les PCs se nomme lsl.com (Link Support Layer) et est fournit par Novell. Sa
tâche est d'assurer le lien entre le driver de la carte réseau et les couches protocoles supérieures; il
est donc capable de déterminer s'il s'agit d'un paquet IP ou IPX et d'appeler le programme
correspondant (tcpip.exe ou ipxodi.com).
Le driver de la carte réseau compatible ODI (du type driver.com) est fourni par son fabricant
Le programme ipxodi.com (fournit par Novell) communique avec le programme netx.com qui lui-
même transmet les informations aux applications.
En parallèle, le programme tcpip.exe de LanWorkplace (Novell), qui comprend les couches IP et TCP,
s'occupe de la partie TCP/IP de la communication.
LanWorkplace de Novell est une suite d'applications TCP/IP (telnet, ftp, ping etc.) et de couches
réseau (tcpip.exe).
Windows 95 intègre directement les différentes couches réseau mais reprend les mêmes principes
de fonctionnement.

VANGAH Aristide | Réseaux Locaux – Première Edition Page 110

Vous aimerez peut-être aussi