Vous êtes sur la page 1sur 5

La technologie Ethernet

HISTORIQUE
Les bases de la technologie Ethernet sont apparues dans les années 70, avec un programme appelé
Alohanet. Il s’agissait d’un réseau radio numérique conçu pour transmettre les informations via une
fréquence radio partagée entre les îles hawaïennes.

Avec Alohanet, toutes les stations devaient suivre un protocole selon lequel une transmission sans
accusé de réception devait être retransmise après un court délai. Des techniques similaires
permettant d’utiliser un support partagé ont été appliquées plus tard à la technologie filaire, sous la
forme d’Ethernet.

Ethernet a été développé dans l’objectif d’accueillir plusieurs ordinateurs interconnectés sur une
topologie de bus partagée.

La première version d’Ethernet incorporait une méthode de contrôle de l’accès aux supports appelée
CSMA/CD (Carrier Sense Multiple Access with Collision Detection). Cette méthode d’accès a permis
de résoudre les problèmes liés à la communication de plusieurs périphériques sur un support
physique partagé.

Normes IEEE
Le premier réseau local au monde a été la version originale d’Ethernet. Robert Metcalfe et ses
collaborateurs de Xerox l’ont conçu il y a plus de trente ans. La première norme Ethernet a été
publiée en 1980 par un consortium de Digital Equipment Corporation, Intel et Xerox (DIX). Metcalfe
souhaitant qu’Ethernet soit une norme standard dont tout le monde puisse bénéficier, elle a été
publiée en tant que norme ouverte. Les premiers produits développés respectant la norme Ethernet
ont été commercialisés au début des années 80.

En 1985, le comité de normes de l’IEEE (Institute of Electrical and Electronics Engineers) pour les
réseaux locaux et métropolitains a publié des normes pour les réseaux locaux. Ces normes
commencent par le numéro 802. La norme Ethernet porte le numéro 802.3. L’IEEE a voulu faire en
sorte que ses normes soient compatibles avec l’ISO (International Standards Organization) et le
modèle OSI. Pour garantir cette comptabilité, la norme IEEE 802.3 devait répondre aux besoins de la
couche 1 et de la partie inférieure de la couche 2 du modèle OSI. En conséquence, certaines
modifications mineures de la norme Ethernet originale ont été apportées à la 802.3.

Ethernet fonctionne au niveau des deux couches inférieures du modèle OSI, à savoir la couche liaison
de données et la couche physique.

Couche 1 et couche 2
Ethernet fonctionne au niveau des deux couches inférieures du modèle OSI. Le modèle fournit une
référence à laquelle Ethernet peut être associé, mais il est en fait mis en œuvre dans la moitié
inférieure de la couche liaison de données, désignée sous le nom de sous-couche MAC (Media Access
Control) et de la couche physique uniquement.

Au niveau de la couche 1, Ethernet est associé aux signaux, aux flux de bits qui traversent les
supports, aux composants physiques qui placent les signaux sur les supports et à diverses autres
technologies. La couche 1 Ethernet joue un rôle clé dans la mise en œuvre des communications entre
les périphériques. Toutefois, chacune des fonctions de cette couche présente des limitations.

Comme présenté dans la figure, au niveau de la couche 2, Ethernet permet de contourner ces
limitations. Les sous-couches liaison de données contribuent largement à la compatibilité
technologique et à la communication entre périphériques. La sous-couche MAC est associée aux
composants physiques, qui seront utilisés pour communiquer les informations et préparer les
données pour qu’elles soient transmises sur les supports.

La sous-couche LLC (Logical Link Control) reste relativement indépendante de l’équipement physique
qui sera utilisé pour communiquer.

La trame Ethernet : encapsulation du paquet


La structure de trame Ethernet ajoute des en-têtes et des codes de fin à l’unité de données de
protocole de la couche 3 pour encapsuler le message envoyé.

L’en-tête et la queue de bande Ethernet disposent tous les deux de plusieurs sections (ou champs)
d’informations que le protocole Ethernet exploite. Chaque section de la trame est appelée un champ.
On distingue deux types de tramage Ethernet : la norme DIX Ethernet, appelée désormais Ethernet II,
et la norme IEEE 802.3, qui a été mise à niveau plusieurs fois pour inclure de nouvelles technologies.

Les différences entre les deux types de tramage sont minimes. Il s’agit notamment de l’ajout d’un
délimiteur de début de trame (SFD) et du remplacement du champ Type en un champ Longueur dans
la norme 802.3, comme l’indique la figure.

Taille d’une trame Ethernet

Les normes Ethernet II et IEEE 802.3 définissent une taille de trame minimale de 64 octets et
maximale de 1 518 octets. Cela comprenait tous les octets du champ Adresse MAC de destination
jusqu’au champ Séquence de contrôle de trame. Les champs Préambule et Délimiteur de début de
trame n’étaient pas inclus dans la description de la taille d’une trame. La norme IEEE 802.3ac, publiée
en 1998, a fixé la taille de trame maximale autorisée à 1 522 octets. La taille de trame a évolué de
manière à prendre en charge une technologie appelée réseau local virtuel (VLAN). Ces réseaux
virtuels, créés dans un réseau commuté, font l’objet d’un autre chapitre du cours.

Si la taille d’une trame transmise est inférieure à la taille minimale ou supérieure à la taille maximale,
le périphérique récepteur abandonne la trame. Les trames abandonnées sont souvent le résultat de
collisions ou d’autres signaux rejetés et donc traités comme étant non valides.

Description des champs de la trame


Champs Préambule et Délimiteur de début de trame

lLes champs Préambule (7 octets) et Délimiteur de début de trame (SFD, également appelé le début
de trame (1 octet)) servent à synchroniser les périphériques émetteurs et destinataires. Les huit
premiers octets de la trame préparent les noeuds de réception à recevoir. Les quelques premiers
octets indiquent essentiellement aux récepteurs de se préparer à recevoir une nouvelle trame.

Champ Adresse MAC de destination

Ce champ de 6 octets est l'identifiant du destinataire. Comme nous l'avons vu précédemment, cette
adresse est utilisée par la couche 2 pour aider les périphériques à déterminer si une trame leur est
adressée. L'adresse de la trame est comparée à l'adresse MAC du périphérique. Si les deux
correspondent, le périphérique accepte la trame.

Champ Adresse MAC source

 Ce champ de 6 octets identifie la carte réseau ou l'interface d'origine de la trame.

Champ Longueur/Type

Pour les normes IEEE 802.3 antérieures à 1997, le champ Longueur définit la longueur exacte du
champ de données de la trame. Cette longueur est ensuite utilisée dans la séquence de contrôle de
trame, pour garantir la réception du message. Sinon, le rôle de ce champ est d'indiquer le protocole
de couche supérieure présent. Si la valeur de deux octets est supérieure ou égale à l'hexadécimal
0x0600 ou au décimal 1 536, le contenu du champ Données est décodé selon le protocole EtherType
indiqué. Par contre, si la valeur est égale ou inférieure à la valeur hexadécimale 0x05DC ou à 1 500, le
champ Longueur est utilisé pour indiquer l'utilisation du format de trame IEEE 802.3. C'est ainsi que
l'on distingue les trames Ethernet II et 802.3.

Champs de données et remplissage

Ce champ de 46 à 1 500 octets contient les données encapsulées d'une couche supérieure, ce qui
correspond à une unité de données de protocole générique de la couche 3 ou à un paquet IPv4 pour
employer un terme plus courant. La longueur minimale de la trame est fixée à 64 octets. Si un paquet
de petite taille est encapsulé, d'autres bits sont utilisés pour augmenter la trame et la ramener à sa
taille minimale. Ces bits sont appelés champs de remplissage.

Champ Séquence de contrôle de trame :

Le champ FCS (4 octets) permet de détecter les erreurs d'une trame. Il fait appel à un contrôle par
redondance cyclique (CRC). Le périphérique d'envoi inclut les résultats d'un CRC dans le champ FCS
de la trame. Le périphérique de réception reçoit la trame et génère un CRC pour détecter les erreurs.
Si les calculs correspondent, aucune erreur ne se produit. Les calculs non rapprochés indiquent que
les données ont changé et que la trame est abandonnée. Si les données sont modifiées, cela peut
perturber les signaux électriques qui représentent les bits.