Vous êtes sur la page 1sur 20

NOM :MEDJAHED

PRENOM :MOHAMMED

Le réseau ATM.

1. Motivations de l'ATM

2. Définition générale de l'ATM

3. Caractéristiques de l'ATM:
Circuits virtuels,
Cellules (taille fixe et réduite),
Multiplexage statistique,
Intégration de services

4. Architecture des réseaux a commutation de cellules

5. La commutation de cellules et la couche ATM

6. La couche d'adaptation ATM (AAL):


AAL 1, AAL2, AAL3/4, AAL5

7. Les services ATM

8. La gestion des réseaux ATM :


La gestion des ressources,
Opération et maintenance

9. Le contrôle des réseaux ATM

Conclusion
Références
1. Motivations de l'’ATM : les communications multimédias.
Les exigences des réseaux actuels impliquent le traitement de plusieurs types de
trafic (voix, vidéo, données). Ces différents types d’information requièrent différentes
qualités de service : chaque trafic a ses caractéristiques individuelles qui rendent leurs
besoins en canaux de communication très différents. Chaque qualité de service (QS)
correspond à un certain débit de donnée ayant une certaine probabilité d’erreur (BER)
et avec un certain retard. Par exemple, pour la voix, sa génération doit pouvoir être
asynchrone si l’interlocuteur veut pouvoir parler quand il veut ; par contre, sa
transmission doit être synchrone (une fois le message commencé, cela doit pouvoir
circuler continuellement quand on parle) comme celle de la vidéo (on ne voudrait pas
voir d’abord une tête, puis un bras, puis le reste…), mais au contraire de la transmission
de données qui peut sans problèmes patienter dans des buffers.

Génération Transmission Bande passante


Voix asynchrone Synchrone petite et
constante
Vidéo synchrone Synchrone variable
Données synchrone ou Asynchrone Variable
asynchrone
Les réseaux téléphoniques, spécialisés pour transmettre de la voix, n'’offrent
qu’'une seule qualité de service à ces utilisateurs : un service à 2 voies avec des
petits retards terminaux à terminaux (end-to-end delay) qui garantit qu’'un appel, une
fois accepté, se réalisera jusqu à achèvement. L'’installation d’un circuit entre les deux
terminaux permettra l'’obtention de cette QoS : le réseau, qui est donc orienté
connection, garantit assez de ressources à chaque circuit pour assurer la qualité de
service exigée. En réalité, les terminaux sont "bêtes", c'’est le réseau qui fournit toute
l’intelligence.
A l’'inverse des réseaux par paquets, les réseaux par circuits sont bien adaptés aux
services à débit constant comme la voix numérique, et ceci grâce à la simplicité de leur
mécanisme de transfert. S’ils permettent les services temps réel, les réseaux par
circuits ne conviennent pas aux services par "à-coups" car ils sont peu efficaces dans
l’utilisation des ressources en cas de débits variables : en effet, ils consomment la
bande passante maximale en toute occasion même pendant les moments de silence.
Le réseau téléphonique actuel est inadéquat pour le traffic multimédia, c'est-à-dire la
communication simultanée de la voix, de la vidéo et du trafic de données. En effet,
d’une part les débits disponibles actuellement dans les réseaux téléphoniques
(maximum 128kbps pour l’'ISDN) sont largement inférieurs à ceux requis pour la
transmission multimédia (entre 0.35 et 3.5 Mbps pour la vidéo). D'’autre part, le réseau
téléphonique gaspille soit des buffers, soit de la bande passante quand il transmet des
données "décousues" de type bursty, c'’est-à-dire pour lesquelles les débits de pointe
(sur des courtes périodes) sont supérieurs aux débits moyens (sur des longues
périodes). Si le réseau est servi au débit de pointe, aux périodes où la source envoie
plus lentement que celui-ci, il y aura gaspillage de bande passante; si le réseau est
servi à un débit plus lent que le débit de pointe, la taille des buffers doit être
suffisamment grande pour pouvoir absorber les plus grands "sauts" (bursts).

L’'Internet n'’offre aucune qualité de service mais est beaucoup plus flexible et
économique que les réseaux téléphoniques. Les deux innovations clés utilisées sont la
transmission par paquets et le switching store-and-forward.
Chaque paquet, appelé datagramme dans le cadre de l’'Internet, se compose d’un
contenu, le payload, et de l'’information sur le contenu, le header, comportant en outre
l'’adresse de source et de destination ; ainsi, le réseau sait d'’où le paquet provient et où
il va. Ceci permet au réseau de stocker un paquet pendant un temps indéterminé, pour
ensuite le délivrer à destination quand cela convient. Ce principe n’'était pas applicable
dans les réseaux téléphoniques. Ce type de transmission, appelé store-and-forward,
ressemble à la gestion de courier postal où le bureau local ne renvoie les lettres au
bureau central que quelques fois par jour et pas à chaque fois qu’il y a une lettre : un
réseau de transmission par paquet suivant le mode store-and-forward est plus
économique que la transmission immédiate sans buffers (réseaux téléphoniques), de
plus elle peut conserver le message si la ligne est rompue et la renvoyer une fois la
ligne rétablie. Ainsi, le réseau Internet est un réseau sans connection dont le type de
transmission est qualifié de Best effort ("on envoie et on prie"). La philosophie
d'’Internet repose également sur un design de nature décentralisée où les terminaux
ne peuvent pas compter sur le réseau pour un transfert de données fiable. L'’idée est
qu’un transfert de données fiable soit fourni par des protocoles opérant aux extrémités
et pas dans le réseau : contrairement à la philosophie du réseau téléphonique, le
réseau peut être lent et stupide, c'’est l’intelligence des terminaux qui devra le
compenser.
Les réseaux par paquets sont destinés aux services par "à-coups", ils sont efficaces
en cas de débits variables mais ne permettent pas la définition d'’une borne supérieure
du temps de transfert et ne conviennent donc pas pour les services en temps réel.
Malgré qu'’elle soit essentielle à la scalability de l'’Internet, la décentralisation du
contrôle peut vite conduire à l’'anarchie car un service fiable ne peut jamais être
garanti : puisqu'’il n’y a pas de contrôle sur les routeurs du réseau, le moindre paquet
corrompu peut détruire la cohérence des tables de routage et ainsi et ainsi causer
rapidement des problèmes dans tous le réseau.
Les applications Multimédia ont besoin de garanties de performance en temps réel,
ce qui exige au réseau d'’offrir une certaine qualité de service, or il est difficile d’intégrer
cela dans l’'architecture actuelle de l’'Internet : en effet, une transmission du type store-
and-forward avec des buffers partagés entre plusieurs utilisateurs est un système où le
premier venu est le premier servi, ce qui peut créer de grands retards ou pertes aux
utilisateurs. De plus, pour garantir une certaine qualité de service, il faut pouvoir
informer chaque routeur le long du chemin de la QoS demandé par chaque courant de
paquets. Cependant, Internet n’'a pas une simple manière d’'identifier les courants de
paquets et cela requière plus de coopération entre les routeurs.
Les réseaux ATM(Asynchronous Transfer Mode) ont pour but de combiner la
flexibilité de l'’Internet avec les garanties par usager de la QoS des réseaux
téléphoniques. Ils ont l'’intention d’'offrir une certaine gamme de qualités de service à un
coût raisonnable et ont donc le potentiel de remplacer le réseau téléphonique et
l'’Internet, cela créerait une infrastructure unique capable de prendre en charge la
diversité des services futurs, transmettant à la fois voix, vidéo, et données. Les
avantages obtenus si un réseau unique de transfert serait mis en place, remplaçant les
deux techniques de commutation par une seule seraient d’une part une souplesse
d’'adaptation aux changements et aux nouveaux besoins (scalability, manageability),
d’'autre part une meilleure efficacité dans l’'utilisation des ressources disponibles (high
bandwith, end-to-end quality of service) et enfin, un coût plus faible d'’investissement,
de fabrication, d'’opération et de maintenance (cost-effective).Ce sont les grands
objectifs de design des réseaux ATM.

2. Définition générale de l’'ATM.


On définit le mode de transfert comme la relation existante entre les techniques de
commutation et de multiplexage. Suivant ce critère, on distingue deux modes de
transfert:
 le mode de transfert synchrone ou STM (Synchronous Transfer Mode):
Dans ce mode de transfert, utilisé dans les réseaux téléphoniques, la bande passante
est organisée en trames périodiques composées de tranches de temps (slots)
attribuées aux utilisateurs, d’'une façon prédéterminée. Cette technique convient bien
aux services à débits constants mais par contre elle gaspille de la bande passante pour
des services à débits variables.

 le mode de transfert asynchrone ou ATM (Asynchronous Transfer Mode):


Dans ce mode de transfert, les tranches sont assignées aux utilisateurs selon les
besoins et il n’'y a pas de structure de trame. La technique ATM se fonde d'’une part sur
la commutation par paquets, et d'’autre part sur le multiplexage temporel
asynchrone, apparenté à une commutation se rapprochant du circuit car elle répartit le
temps en slots. Ceci permet d’avoir une meilleure utilisation des ressources pour
prendre en charge les services à débits variables sans gaspiller autant de bande
passante que dans la technique STM.
Dans la technique ATM, le flux d’information multiplexé est structuré en petits blocs de
longueur fixe, les cellules. Celles-ci sont assignées à la demande selon l'’activité de la
source et les ressources disponibles. Comme pour les datagrammes de l'’Internet, les
cellules se compose d’un champ d’information et d’'un entête. Contrairement aux
datagrammes dont l'’entête se compose de l'’adresse complète de destination, l'’entête
des cellules comprend un identificateur (plus petit qu’une adresse complète) de
circuit virtuel. Le routage de la cellule de supervision qui met en place le circuit virtuel
est effectué par des tables de routage qui déterminent vers quel noeud est envoyé la
cellule de supervision avec l’'adresse du destinataire final. Cette cellule de supervision
détermine pour chaque noeud l’'association entre le port d’entrée et le port de sortie.
Ces associations sont regroupées dans la table de commutation.

La technique ATM est orienté connection : une cellule ne sera transmise que
lorsqu'’un circuit virtuel aura été ouvert; ce circuit virtuel est tracé à l’'intérieur du réseau
par des marques laissées dans chaque noeud traversé. La correspondance d'’un
identificateur à sa destination doit être établie à chaque commutateur (switch) le long du
chemin avant que la transmission de données ne commence : il y a donc une phase
d'’établissement d’appel (call setup phase) préalable à une phase de transmission de
données.
3. Caractéristiques de l’'ATM.
Les réseaux ATM sont basés sur d'’importants concepts: les circuits virtuels, les
cellules avec leur petite taille fixe, le multiplexage statistique et l'’intégration de services.
Tous ces concepts permettent de construire des réseaux qui peuvent transporter
plusieurs classes de trafic (contrairement aux réseaux téléphoniques) avec des
garanties sur la qualité de service par usager (contrairement à Internet).
A.Circuits virtuels.
Les identificateurs de circuit virtuel prennent moins de place dans l'’entête vu qu'’ils
sont plus petits que les adresses complètes comprises dans les entêtes des
datagrammes. Les circuits virtuels sont donc plus efficaces que les datagrammes dans
leur utilisation de la bande passante. Cependant, une phase préalable d’établissement
d'’appel (call setup phase) est nécessaire avant la transmission des données.
Illustrons ce concept par un exemple simple : prenons deux switch S1 et S2 reliés entre
eux, chacun d’eux étant reliés à plusieurs "terminaux" appelés host (H1,H2,H3,…).
Prenons le cas où H1 envoie un message à H2.

Dans le cas de datagrammes, l'’adresse complète de H2 se trouve dans l’'entête du


datagrammme. Le switch S1 prend connaissance de l’'adresse et, au moyen d'’une
table de routage, l'’envoie vers le switch S2 qui à son tour l'’envoie vers H2.
Dans le cas de circuits vituels,
 H1 envoie d’'abord un message de pré-établissement (setupmessage) pour
demander une connection vers H2. Au moyen d'’une table de routage, S1
choisit S2 comme switch suivant et lui envoie le setup message. S2 renvoie alors
l’'identificateur de circuit virtuel à H1 (le Virtual Circuit Identifier VCI assigné à
H1 est "1").
 Après la procédure d’'établissement, si H1 veut envoyer un message à H2, en
analysant le VCI dans l'’entête, S1 sait que ce message est destiné à S2 et
l'’envoie simplement à l'’interface de sortie correcte.
 Pour éviter les conflits entre les paquets provenant par example de H1 et H3 et
tous deux destinés vers H2, on utilise généralement la méthode du VCI
swapping. Afin d’'éviter la confusion entre les paquets provenant de H1 et H3, ils
doivent avoir des VCI différents sur la ligne S1-S2. En fait, quand S1 reçoit des
paquets de H3, il modifie le VCI dans l’'entête de 1 à 2. Cette méthode exige
d’avoir une table de commutation à chaque switch pour établir la relation entre
les VCIs d’'entrée et ceux de sortie.

Nous allons maintenant passer en revue certaines caractéristiques des circuits virtuels,
ses avantages et inconvénients par rapport aux datagrammes.
 Toutes les cellules envoyées lors de la phase de transmission de données
doivent suivre le même itinéraire car chaque paquet transporte un
identificateur et non pas l'’adresse complète, et cet identificateur est connu
seulement par les noeuds pré-établis lors de setup phase. En cas de "rupture
"d’un noeud, le circuit virtuel est perdu et il faut alors rerouter le circuit virtuel, ce
qui est compliqué et fastidieux. Au contraire, les datagrammes peuvent chacun
choisir le chemin pour atteindre leur destination de manière indépendante. En
cas de rupture d’un switch, les datagrammes qui y sont enregistrés dans le
switch sont perdus, mais il est facile alors de router d’autres datagrammes autour
de la rupture. L'’itinéraire identique suivie par les cellules leur permet d’arriver
dans l'’ordre avec une plus grande probabilité que pour les datagrammes. Un
circuit virtuel ne fournit pas nécessairement de garantie de fiabilité et est
soumis aux mêmes types de "pertes" que les réseaux de datagrammes.
Cependant, un commutateur orienté circuit virtuel peut fournir unequalité de
service par circuit virtuel puisqu’'un tel commutateur peut enregistré un certain
état spécifique à chaque circuit virtuel (per-VC state): par exemple, les entrées-
sorties de la translation table, une priorité relative du circuit virtuel, ou la quantité
de bande passante réservée à ce circuit virtuel. Au contraire, un commutateur
orienté datagramme peut difficilement fournir une qualité de service par
"courant d’information" ( per-stream QoS) car ils ne distinguent pas les
paquets venus de différentes sources et n’enregistrent pas d’informations
spécifiques à chaque courant d’information.
 La séparation des procédures de transfert de données et de celles de
contrôle nécessaires pour la phase de pré-établissement (call setup phase)
permet une implémentation plus facile des commutateurs : celle-ci peut sa
faire entièrement en hardware, ce qui facilite le transfert de données qui sera
rapide et bon marché. La séparation data et contrôle permet également des
contrôleurs de switch plus intelligents. Dans les réseaux orientés datagramme, la
réalisation en hardware est très difficile car un switch doit lire l’'adresse complète
et chercher dans la table de routage pour chaque paquet entrant.
 La taille réduite des identificateurs de cicuits virtuelspermet d'’avoir une
entête plus petite et donc une meilleure utilisation de la bande passante.
L’’enregistrement de l’'information spécifique à chaque circuit virtuel s'’avère
également plus facile ; ainsi, quand une cellule arrive, le VCI de l’entête peut être
utilisé et directement mis en rapport à une information spécifique au VCI, ce qui
rend l'’implémentation des switch en hardware possible. Toutefois, le transfert
de données sur un circuit virtuel ne peut se faire qu'’une fois la phase de
préparation terminée : cela implique un certain retard, appelé call setup
latency puisque le setup message doit aller de la source vers sa destination et
puis retourner. Il existe plusieurs moyens pour réduire ce retard:
 Le Virtual path représente une série de VCIs pré-établis qui
partent d'’une source particulière et vont vers une destination
particulière. Les virtual paths rassemble de l'’information sur
plusieurs circuits virtuels et permettent d'’économiser de la
signalisation et de l'’espace au niveau des tables de switch.
 Etablissement de l’appel en parallèle avec le transfert de
données: lors de l'’établissement de l'’appel, on envoie le premier
paquet de données sur un VCI spécial qui n’a pas d'’entrée à la
table de commutation. Le commutateur le stocke ensuite alors dans
un buffer spécial attendant les instructions du switch controller qui
utilise les paquets de supervision pour déterminer la destination du
paquet de données. Malheureusement, l'’implémentation du switch
et de son contrôleur devient beaucoup plus complexe.
B.Les cellules: paquets de taille fixe.
Les principales raisons pour lesquelles les réseaux ATM utilisent des paquets de
taille fixe appelés cellules au lieu de paquets de longueurs variables sont :

1. Implémentation hardware des mémoires-tampons (buffers) plus facile:


Avant d’être envoyées à destination, les cellules sont stockées dans des mémoires-
tampons; or, l'’allocation dynamique de stockage est beaucoup plus difficile pour les
paquets de taille variable que pour ceux de taille fixe. En effet, l'’adoption de paquets de
taille variable exigerait des mémoires-tampons de grande taille avec une gestion de la
mémoire disponible beaucoup plus difficile, de plus des procédures de fragmentation et
de compression de la mémoire seraient nécessaires.
2. Line scheduling plus facile:

Le link scheduler détermine quelle cellule (provenant de H1 ou H3) ira sur la ligne;
cela détermine donc le retard et la bande passante reçues par un circuit virtuel (pour H1
ou H3). Au moyen d’une programmation adéquate du link scheduler, un opérateur de
réseau peut allouer différentes bandes passantes et retards à différents circuits virtuels.
Il est beaucoup plus facile de gérer cette allocation si les paquets sont de taille fixe
puisqu’alors chaque cellule prend une part constante de la bande passante à
transmettre.
3. Traitement parallèle des paquets:
Pour maximiser le parallélisme et donc augmenter la capacité des noeuds, tous les
éléments de commutation (switching) doivent accomplir un transfert partiel des paquets
simultanément. Puisque le temps de transmission des paquets dépend de sa longueur,
le parallélisme maximale est atteint lorsque tous les paquets ont la même taille, sinon il
y aura des gaspillages de temps dû à l'’attente de l’achèvement du processing d'’un
paquet plus long.

La taille fixe des cellules ATM a donc de nombreux avantages: elle augmente la
capacité des noeuds via le traitement parallèle; de plus, elle réduit le temps de
groupage des paquets, le temps de traversée des paquets et la variance du délai
d’'acheminement dans le réseau; enfin, elle permet l'’emploi de mémoires-tampon de
petite taille.
Cependant, la taille fixe a également des désavantages: une source qui envoie des
données dont la taille est plus grande que la taille fixe imposée doit segmenter ses
données pour ensuite les rassembler à l'’arrivée; de même, il y a un gaspillage de
bande passante lors de l’'envoi de cellule plus petite que la taille imposée; en outre,
lorsqu’'on fragmente un long message en plusieurs cellules (taille fixe),la dernière
cellule est rarement remplie et il y a donc également un gaspillage de bande passante.

C.Paquets de petite taille.


La commutation de cellules est une commutation de paquets assez particulière
puisque tous les paquets sont de longueur constante et cette longueur est toute petite.
Cette cellule comprend deux parties : un en-tête de 5 octets et un champ de données
de 48 octets, donc une longueur totale de 53 octets.
Le fait que le champ d’information soit exactement de 48 octets est le résultat d’'un
accord entre les Européens qui souhaitaient 32 octets et les Américains qui désiraient
64 octets. Une cellule courte est mieux adaptée aux services en temps réels qui sont
très sensibles aux retards de réseau. D’'autre part, une cellule plus longue est plus
efficace pour différents types de services de communication de données puisqu’il y a
moins d’ "overhead", c'’est-à-dire d'’information de gestion de données. Il y a donc un
compromis entre les deux. Par exemple, prenons la transmission de la parole
téléphonique à 64kbps pour laquelle un octet part de l'’émetteur toutes les 125 µs et où
les délais de propagation doivent rester inférieurs à 28 ms pour éviter certains
problèmes d’'séchos et autres. Il faut donc que la somme des 6ms pour remplir la
cellule, du temps de transport de la cellule dans le réseau et des 6ms pour la vider reste
inférieur à 28 ms. Ce qui nous laisse 16 ms de délai de propagation et donc une
distance maximale de 3200 km pour une vitesse de propagation de 200.000km/h. Vu
l’'étendue du territoire américain, ceux-ci ont dû mettre en place différents équipements
adaptés pour augmenter cette distance. Par conséquent, les Américains préféraient une
meilleure utilisation de la bande passante en allongeant le champ d’information des
cellules par rapport à la partie de supervision. Au contraire, puisque nos territoires sont
moins étendus, les européens ont préférés choisir une taille de cellule plus petite pour
éviter de devoir équiper nos lignes contre les échos et autres…et aussi afin de gagner
du temps aux extrémités.

D. Multiplexage statistique.
Considérons un multiplexeur à répartition de temps qui répartit les cellules ATM depuis
4 sources dans une ligne de sortie partagée.
Si exactement une cellule arrive à chacune des entrées toutes les secondes, le
multiplexeur doit avoir un débit de sortie d’au moins 4 cellules /seconde et chaque
buffer d'’entrée une capacité d’au moins une cellule. Puisqu’'une cellule doit attendre au
moins que les trois autres cellules soient transmises, une source aurait un retard de file
( queuing delay) d’'au moins trois fois temps de service d'’une cellule.
Prenons l’'exemple de cellules arrivant par à-coup de 10 cellules également espacées
d’1 seconde chacune (le débit de pointe est donc d’'1cellule/seconde)et avec un gap
entre deux à-coups de 100 secondes (le débit moyen est donc de 0.09
cellule/seconde puisqu'’il y a 10 cellules toutes les 110 secondes). On peut prendre
différents débits de sortie : pour un débit de sortie de 4 cellules/seconde
correspondant à la somme des débits de crêtes, le multiplexeur ne sera jamais saturé
même si tous les 4 bursts arrivent en même temps. On aura alors un queuing delay
maximum de 0.75 s (3 fois le temps de service d’une cellule à cette vitesse de sortie).
Toutefois, il est probable qu’un seul burst soit présent à un moment donné, on pourrait
alors de manière optimiste estimer le débit de sortie à 1 cellule/seconde, et ceci au
frais des mémoires-tampons dans le cas où la sortie serait occupée. Si on prend un
débit de sortie égale à la somme des débit moyen 0.36 cellule/seconde, alors le
queuing delay est infini puisque la taille des mémoires-tampons d'’entrée augmentera
sans cesse.
Cette figure montre le compromis entre le gain de multiplexage statistique et le
retard de file dans le pire des cas (worst-case queuing delay). Par exemple pour
une vitesse de sortie de 1.25 cellules/seconde, notre gain de multiplexage statistique
qui est le rapport de la somme des débits de pointe à l’entrée et du débit à la sortie,
s’élève à un gain de 4/1.25 = 3.2 puisqu’on opère à la vitesse de pointe de 4
cellules/seconde. Mais le retard sera supérieure à 0.75 seconde. Etant donné que le
buffer d'’entrée doit être suffisamment grand pour traiter le délai maximum en
supposant aucune perte. La courbe mesure donc aussi le compromis entre le gain de
multiplexage statistique et la taille de la mémoire-tampon (sans pertes).
Le commutateur de cellules (cell switch) peut également exploiter le gain de
multiplexage statistique puisque le scheduler de sortie est identique à un multiplexeur à
répartition de temps.Le principe général est le suivant : chaque fois que des débits
moyens à long terme diffèrent des débits de crête, on peut utiliser le multiplexage
statistique pour échanger du débit (de service) contre un certain retard.
E. Intégration de services.
Traditionnellement, on a toujours utilisé trois réseaux différents pour transporter la voix,
la vidéo et les données, et ceci parce que chacun d’eux représente un type de traffic
différent avec différentes exigences de service. L'’unification de ces services est une
grande motivation pour le design des réseaux ATM qui devraient remplacer les
infrastructures des réseaux téléphoniques, ceux de télévision et de données.
Les réseaux ATM peuvent fournir d’'énormes capacités de commutation grâce à la taille
fixe des cellules ATM permettant une implémentation efficace en hardware. Par
exemple un commutateur 8X8 ATM peut avoir une capacité totale de 1 Gbps et cela
pour moins de 100$. En vidéo, un débit de 1,5 Mbps est demandé, et donc ce
commutateur ne pourrait supporter que 666 utilisateurs.
Les réseaux ATM supportent différentes exigences de performance puisqu’ils
permettent aux utilisateurs de spécifier une QoS désirée pendant la phase
d'’établissement et puisqu'’il gèrent leurs ressources de manière à satisfaire ces
exigences. Par example, un utilisateur peut demander un débit de 1.4 Mbps pendant la
phase d'’établissement. Cette demande de ressource est faite à chaque switch
controller le long du chemin. Si un contrôleur n’a pas la capacité de traiter l’'appel, celui-
ci est rejeté. Sinon, le débit de l'’appel est garanti et les commutateurs s’assurent que la
source ne transmet pas plus vite que 1.4 Mbps.
Les réseaux ATM peuvent aussi utiliser d’'intelligentes planifications de lignes (link
scheduling) pour satisfaire les exigences de service. Un appel téléphonique délivre des
données au commutateur de manière périodique et le link scheduler doit permettre à la
voix d’être transmis périodiquement à la ligne de sortie. Contrairement à la voix ou à la
vidéo, les données arrivent sporadiquement et par conséquent les cellules de données
ne seraient programmées seulement quand elles arrivent. L’'intégration de ces services
est possible grâce à la flexibilité de la planification(scheduling)en ATM : les en-têtes des
cellules permettent de postposer les appels non-prioritaires avant les appels urgents.

4. Architecture des réseaux à commutation de cellules.


Les réseaux à commutation de cellules utilisent un nouveau modèle en couches de
référence, dit modèle UIT-T pour pouvoir prendre en charge les applications
multimédias, c’est-à-dire la superposition de la voix, des données et de l'’image.
Ce nouveau modèle en couches diffère donc du modèle ISO qui correspondait à
l’'architecture des réseaux d’'ordinateurs (uniquement la transmission de données).

Le modèle UIT-T ne s'’intéresse qu'’au transport de bout en bout de l'’information et non


pas à son traitement aux extrémités du réseau. Ce modèle se compose de trois
couches :
 La couche physique: la plus basse couche s’'occupe du transport des
cellules sur un support physique et regroupe à peu près les fonctionnalités
des trois premières couches du modèle OSI.Les protocoles de niveau
physique dépendent du médium utilisé (PMD : Physical Medium
Dependent). Les supports de communication les plus courants pour
implémenter ces protocoles PMD sont les supports SONET (Synchronous
Optical NETwork) et SDH(Synchronous Digital Hierarchy). Cette couche
physique est subdivisé en deux sous-couches:
 la couche TC (Transmission Convergence) qui convertit le flot de
cellules provenant de la couche ATM en un flux continu de bits.
 la couche PM (Physical Medium) est chargée de la transmission
sur le support physique et des problèmes d'’horloge.
 La couche de l'’ATM: elle gère le transport de bout en bout de la cellule.
 La couche d’'adaptation à l'’ATM (AAL): elle se charge de l'’interface
avec les couches supérieures.
5. La commutation de cellules et la couche ATM.
La couche ATM s’occupe des cellules ATM composées de 5 octets d’en-tête et de 48
octets d'’information. Dans les noeuds ATM, seuls les en-têtes sont traités, les champs
d'’information restent inchangés. Les principales fonctions de la couche ATM sont les
suivantes :
 Créer une cellule ATM en ajoutant un en-tête au champ d’'information reçu par
l’AAL. A la réception, la couche ATM retire l’en-tête avant que la cellule ne soit
reçue par l’AAL.
 Multiplexer et démultiplexeur les flux de cellules provenant de différentes
connections. Les connections sont identifiées par le VCI (Virtual Channel
Identifier ou identificateur de voie virtuelle) ou par le VPI (Virtual Path Identifier
ou identificateur de conduit virtuel) qui sont contenus dans les en-têtes de
cellules.
 Lire et interpréter les champs d'’information contenus dans les en-têtes de
cellules. Le VCI/VPI est lu et traduit dans les noeuds ATM pour s’assurer que les
cellules sont envoyées aux adresses correctes.
 Fournir les mécanismes de contrôle de flux.
Détaillons maintenant la structure de la zone de supervision et décrivons les fonctions
associées aux différentes parties de l’en-tête. Tout d’abord, il y a deux en-têtes
différents suivant que la cellule provient de l'’extérieur ou passe d'’un noeud de
commutation à un autre noeud de commutation à l'’intérieur du réseau : il y a l'’interface
utilisateur-réseau UNI (User-Network Interface) utilisée pour rentrer ou sortir du réseau;
et l'’interface NNI (Node Network Interface) située entre deux noeuds du réseau.

Les 4 bits de contrôle de flux générique GFC (Generic Flow Control ) de l'’interface
UNI servent au contrôle d’accès et au contrôle de flux sur la partie terminale, entre
l’'utilisateur et le réseau (le champ GFC n’'existe que sur l'’interface UNI et ne peut donc
pas transporter des informations de bout en bout) ainsi qu’au contrôle de qualité de
service dans le réseau de l’utilisateur final. L'’objectif est d'’assurer que la bande
passante, allouée à chaque service, ne soit pas excédée. Ainsi, lorsque plusieurs
utilisateurs veulent entrer dans le réseau ATM par un même point d'’entrée, il faut
ordonner leurs demandes.
La fonction de routage est obtenue par l’identificateur de circuit virtuel qui se comose de
deux parties : l’'identificateur de voie virtuelle (VCI) et l'’identificateur de conduit
virtuel (VPI). Ces deux étiquettes permettent de commuter les cellules.
Le VCI identifie une connexion propre sur l'UNI ou le NNI.Pour chaque connexion, la
valeur du VCI change le long du conduit emprunté par la cellule. Le séquencement des
cellules est conservé sur le VCI. Le VPI se compose d'’un multiplexage de VCI
empruntant le même chemin physique ( conduit virtuel). Aux noeuds intermédiaires du
conduit virtuel,seule la valeur du VPI dans l’en-tête est traitée. Aux noeuds terminaux du
conduit indiqué par la valeur VPI, les terminaux destinataires sont trouvés par la valeur
du VCI. Dans un commutateur ATM, on commute une cellule en utilisant les deux
étiquettes (VCI & VPI) ; dans un brasseur, on ne se sert que d’'une seule étiquette
(VPI). La figure ci-dessous montre un circuit virtuel avec un commutateur ATM et un
brasseur.
Les 3 bits d'’identificateur du type de capacité utile PT (Payload Type) définissent
letype d’'information transporté sur la cellule, c’'est-à-dire si le champ d'’information
de la cellule ATM est du type utilisateur ou signalisation, s'’il y a congestion ou non…
Le bit de priorité de perte de cellule CLP (Cell Loss Priority) indique la priorité de la
cellule, c’est-à-dire si la cellule peut être perdue en cas de congestion (CLP=0) ou si
elle est prioritaire (CLP=1). Le bit CLP va servir dans le contrôle de flux et permettra de
différencier deux classes de cellule d'’une même connection et de disposer de deux
qualités de service en terme de paerte de cellules ou de temps de transfert. Par
example, dans le cas du service vidéo, les cellules de synchronisation peuvent être
prioritaires.
Le champ de Contrôle d’erreur d’en-tête HEC (Header Error Control) sur 8 bits sert à
détecter et à corriger, si possible, les erreurs dans l’'en-tête de la cellule pour se
protéger des erreurs de routage.
6. La couche d'adaptation de l'ATM (AAL)
La couche AAL a été conçue initialement pour pouvoir gérer l’'interface entre une
application et le réseau ATM proprement dit. L'’application s’exécuterait donc
directement au-dessus de l'’AAL. Pour ce faire, cette couche doit fournir tous les
mécanismes nécessaires pour garantir une certaine qualité de service (QoS). Cette
philosophie explique la raison pour laquelle la couche AAL peut paraître si compliquée.
En effet, elle doit incorporer une série de fonctions traitant de la présentation, des
erreurs et du contrôle de flux, qui normalement s'’opèrent à des niveaux supérieurs.
La couche AAL est composée de deux sous-couches : la sous-couche de convergence
(CS : Convergence Sublayer) et la sous-couche de segmentation et de réassemblage
(SAR : Segmentation And Reassembly). La sous-couche CS dépend du service qui doit
être rendu à l’'utilisateur. Elle se trouve au-dessus de la couche SAR et définit le bloc
d’informations qui devra être transporté de bout en bout par la couche ATM, après
fragmentation dans la couche SAR. Quant à la sous-couche SAR, elle permet
essentiellement de segmenter les données des couches supérieures en un ensemble
de segments de données correspondant à la taille des cellules. Au niveau du
destinataire, cette même couche rassemble les cellules pour restituer des données aux
couches supérieures. Elle permet également de compenser le délai variable de la
méthode ATM, de prendre en charge les cellules perdues ou encore de récupérer la
synchronisation horloge.
L'UIT-T classifie les services du réseau ATM en quatre classes. La classification est
basée sur trois paramètres : la relation de temps entre la source et le destinataire, le
débit constant ou variable et le mode de connexion. Nous allons successivement pour
chacune des classes spécifier leurs types d'’application ainsi qu’analyser leurs
protocoles (chaque classe possède son propre protocole).

1. La classe A et son protocole l’'AAL1


La classe A est orientée vers les services pour lesquels le débit reste constant (service
CBR : constant bit rate), le service est en mode connecté et le délai est minimal
(exemple : la téléphonie).
a. la sous-couche SAR de l’AAL1
L’information est placée dans une unité de données propre à cette classe (appelée
SAR-PDU : Segmentation And Reassembly – Protocol Data Unit) qui se compose de 48
octets. Cette information est subdivisée en paquets contenant 47 octets et un octet
d’en-tête (appelé header). Ces paquets sont ensuite envoyés vers la couche ATM où ils
rempliront le champ d'’information des cellules. La figure suivante montre la composition
de l’octet header.
La zone SN (Sequence Number) se subdivise en le champ SNC (Sequence Number
Counter) qui permet de détecter si des cellules ont été perdues ou mal insérées (les
cellules sont numérotées en séquence de 0 à 7 et, lorsqu’'une cellule est perdue, on s
'’en aperçoit grâce à un déséquencement) et le champ CSI (Convergence Sublayer
Information) qui permet de transporter une marque de temps RTS (Residual Time
Stamp) pour caler l'horloge du récepteur ou délimiter des blocs de données.
La zone SNP (Sequence Number Protection) protège le numéro de séquence afin de
ne pas à avoir à détecter d'’erreurs de déséquencement dues à une erreur sur la zone
de numérotation elle-même.
Dans la classe A, il n'’y a aucun contrôle d’erreurs sur les 47 octets du champ
d'’information, parce que des erreurs occasionnelles de bits dans le transfert de
données ne posent pas de problèmes pour ce type de service.
On rajoute souvent une technique d'’entrelacement d’octets pour éviter la perte
successive d’octets. Cela permet de ne perdre qu’un octet tous les 47 octets plutôt que
de perdre 47 octets successifs (figure10.16).
Remarquons aussi qu’'il n'’est pas nécessaire que les 47 octets soient utilisés. Le
nombre d'’octets réellement utilisés est déterminé par le délai que le service en question
est capable de tolérer.
b. La sous-couche CS de l’AAL1
Cette sous-couche remplit quelques fonctions telles que la correction d’erreurs dans
des applications audio et video, la synchronisation et le traitement de cellules perdues
ou mal insérées.
2. La classe B et son protocole l’'AAL2
Pour les services de la classe B, le débit est variable (VBR : Variable Bit Rate), le
service est en mode connecté et le délai est minimal (exemple : le multimédia).
a. La sous-couche SAR de l’AAL2
L'’AAL2 place le flux de bits provenant des niveaux supérieurs dans un SAR-PDU de 48
octets qui est ensuite envoyé vers la couche ATM.
Le rôle de la couche SAR est assez semblable à celui des services CBR : division et
récupération des trames d’informations, prise en charge des cellules en partie remplies,
adaptation du débit et prise en charge des cellules perdues.

On y trouve un header composé d’un champ SN (Sequence Number) qui permet de


numéroter les trames modulo 8 ou16 et ainsi de détecter si des cellules ont été perdues
ou mal insérées; et d’'un champ IT (Information Type) qui indique le début (BOM), la
continuation (COM) ou la fin (EOM) d’un message.
La zone trailer est composée d’un champ LI (Length Indicator) qui permet de détecter
la zone de données effectivement occupée sur les 45 octets disponibles et d’un champ
CRC (Cyclic Redundancy Checksum) qui permet de détecter des erreurs au cours du
transfert (le contrôle a lieu aussi sur les 45 octets, ce qui n’était pas le cas de la classe
A).
Comme dans le cas de l’'AAL1, il n'’est pas nécessaire que tous les octets soient
utilisés.
b. La sous-couche CS de l’AAL2
Cette couche remplit les mêmes fonctions que celles de la couche CS de l'’AAL1.
3. Les classes C et D et leurs protocoles AAL3/4 et AAL5
Les classes C et D correspondent aux applications de transfert de données. Le débit
est variable et la relation de temps n'’est pas nécessaire pour ces deux classes.
Les transferts de données de classe C et D sont respectivement en mode connecté et
en mode non connecté.
On a typiquement à faire ici à des services du type ‘data communications’.
L'’AAL3 et l'’AAL4 étaient initialement séparées, mais vu leurs similitudes, ils ont été
combinés pour former l’'AAL3/4. L'’AAL3/4 et l'’AAL5 supportent tous les deux la classe
C et la classe D. L'’AAL5 a été conçue lorsque l’'on a décidé que l'’AAL3/4 devenait trop
compliquée pour certains services.
La couche CS de ces deux protocoles ont été divisés en deux sous-couches :
 la sous-couche CPCS (Common Part Convergence Sublayer) qui prend en
charge la délimitation, le séquencement, la réservation de mémoire aux
extrémités et la détection d'’erreurs (en classe 5).
 La sous-couche SSCS (Service-Specific Convergence Sublayer) qui prend en
charge la segmentation/réassemblage, le blocage/déblocage, la correction
d’erreur, le contrôle de flux, la remise optionnelle des segments de ce niveau
vers le niveau supérieur et le mode assuré restreint aux communications point à
point.

L’'AAL3/4
Les paquets d’informations de tailles variables sont envoyés vers la couche CS, qui les
entasse dans une unité de données CS-PDU. Ce dernier est alors envoyé vers la
couche SAR, où il est subdivisé en SAR-PDU de 48 octets, qui à son tour est émis vers
la couche ATM.
a. La sous-couche SAR de l’AAL3/4
Le SAR-PDU de cette classe est de nouveau constitué d'’un header et d'’un trailer.

On y trouve plusieurs champs :


 Le champ ST (Segment Type) peut prendre quatre valeurs et indique si le SAR-
PDU contient un BOM, un COM, un EOM, ou un SSM (Single-Segment
Message), ce qui signifie qu’'il y a assez de place pour que le CS-PDU aille
entier dans un SAR-PDU.
 Le champ SN (Sequence Number) permet la numérotation des cellules modulo
16.
 Le champ MID (Multiplexing Identifier) est utilisé pour distinguer parmi les
différents CS-PDU ceux qui seront concurremment transférés sur une et la
même connection ATM. Les SAR-PDU appartenant au même CS-PDU ont la
même valeur MID.
 Le champ LI (Length Indicator) indique la longueur utilisée de la zone de
données.
 Le champ CRC (Cyclic Redundancy Checksum) sécurise le message en
détectant les erreurs qui peuvent survenir pendant le transport.
b. La sous-couche CS de l’AAL3/4
On y trouve les champs suivants:
 Le champ CPI (Common Part Indicator ) spécifie comment le niveau CPCS doit
interpréter les différentes zones de tête et de fin de la trame.
 Le champ Basize (Buffer Allocation size) donne une estimation de la longueur
des CPCS-PDU qui vont arriver. Cela permet de réserver la mémoire au niveau
du récepteur.
 Le champ Length qui contient la taille exacte de la zone de données de la trame
et les champs Btag (Beginning tag) et Etag (End tag) permettent de détecter des
erreurs sur la trame.
 La zone AL (Alignement) indique le début de la zone finale de la trame.
 Le champ PAD (PADing field) ajuste la longueur de la zone d'’information du CS-
PDU (appelée CPCS-SDU payload) à un multiple de 32 bits (4octets).
La seconde couche du niveau CS, la couche SSCS peut ajouter de nouveaux services
comme par exemple une segmentation et un réassemblage ou une correction d’erreurs
qui permettrait d’'améliorer la qualité de service de l'’AAL.
Le CS-PDU consiste en un champ d'’informations possédant une taille maximale de
65532 octets, en un header et un trailer, chacun contenant quatre octets. Le header et
le trailer contiennent des informations utilisées pour l'’allocation des mémoires tampons
au récepteur et pour la détection d’erreurs.
On y trouve les champs suivants :
 Le champ CPI (Common Part Indicator ) spécifie comment le niveau CPCS doit
interpréter les différentes zones de tête et de fin de la trame.
 Le champ Basize (Buffer Allocation size) donne une estimation de la longueur
des CPCS-PDU qui vont arriver. Cela permet de réserver la mémoire au niveau
du récepteur.
 Le champ Length qui contient la taille exacte de la zone de données de la trame
et les champs Btag (Beginning tag) et Etag (End tag) permettent de détecter des
erreurs sur la trame.
 La zone AL (Alignement) indique le début de la zone finale de la trame.
 Le champ PAD (PADing field) ajuste la longueur de la zone d’'information du CS-
PDU (appelée CPCS-SDU payload) à un multiple de 32 bits (4octets).
La seconde couche du niveau CS, la couche SSCS peut ajouter de nouveaux services
comme par exemple une segmentation et un réassemblage ou une correction d’erreurs
qui permettrait d’'améliorer la qualité de service de l’'AAL.
L'’AAL5
Un désavantage de l'’AAL3/4 est son overhead relativement grand et par conséquent sa
faible efficacité. Pour cette raison, l'’AAL5 a été développé. Il est moins complexe et
fournit un meilleur contrôle des erreurs. Il est souvent appelé SEAL (Simple and
Efficient Adaptation Layer).
a. La sous-couche SAR de l’AAL5
Le but de la classe 5 est donc de prendre l'’entité de niveau supérieur et de la découper
en tronçons de 48 octets pour l’'introduire dans la zone de données de la cellule ATM.
La structure de la cellule SAR-5, ainsi que le découpage de l’entité de niveau supérieur
sont décrits dans la figure suivante. Il y a un minimum de perte puisque la CPCS-PDU
(unité de données du protocole commun de la couche CS) est directement découpée
en fragments de 48 octets.

b. La sous-couche CS de l’AAL5
Tout comme dans l'’AAL3/4, le champ d'’information du CS-PDU consiste en un
maximum de 65532 octets. Ce CS-PDU, qui possède un trailer de 8 octets contenant
des informations pour la détection et le traitement d’erreurs, est ajusté par le champ
PAD afin d’obtenir un champ de données d'’une longueur multiple de 48 octets.
On y trouve, outre le champ PAD, CPI, length et CRC déjà vu auparavant, un champ
CPCS-UU (CPCS User-to-User indication) qui permet d'’indiquer les début, continuation
et fin de la CPCS-PDU.
La couche SSCS peut recevoir les fonctionnalités déjà mentionnées dans le paragraphe
sur le niveau CS-4.
7. LES SERVICES ATM
Les services qui pourront être rendus par les réseaux ATM sont nombreux et ils
concernent en tout premier lieu le multimédia. En attendant l'’arrivée massive de ces
applications, les réseaux ATM vont surtout supporter des services déjà développés. Ces
services offrent parfois des protocoles de niveau inférieur, comparables à ceux de
l'’ATM mais qui rendent un service beaucoup moins performant. Un bon exemple
provient de l’'utilisation d'’un réseau ATM pour transporter des paquets IP. En effet, les
protocoles IP et TCP sont en grande partie dupliqués dans les couches ATM et AAL.
Comme le réseau ATM est rapide et peut, de ce fait, assurer un transport performant
des paquets IP, cette solution est largement utilisée.
Cependant, le futur de l'’ATM consistera à travailler en mode natif ATM, c’est-à-dire à
mettre des cartes ATM directement dans les machines à connecter et de travailler en
ATM de bout en bout.
Pour le moment, les principaux services définis consistent à utiliser le réseau ATM
comme un réseau de transport physique. Ainsi, le réseau ATM doit acheminer des
trames Ethernet ou des paquets IP, etc…
Un certain nombre de services ont déjà été définis dans les différents organismes de
normalisation : l'’émulation de réseaux locaux, IP sur ATM, le service de transport
vidéo, le service CLNAP (ConnectionLess Network Access Protocol) de communication
en mode non connecté, etc…
La structure en couches du service CLNAP est rapidement représentée dans la figure
ci-dessous où l'’on constate qu’'une nouvelle couche CLNAP est placée au-dessus de
l’'AAL3/4. Celle-ci réalise le routage, l'’adressage et la sélection de la qualité de service
par des fonctions spécifiques. Ces fonctions sont réalisées avec le même équipement
que la commutation des trames ATM.
Erreur! Nom du fichier non spécifié.
En conclusion, les applications le plus souvent définies au-dessus d'’un réseau ATM
proviennent de services classiques de transport de données. Les applications en mode
natif n’arriveront que petit à petit avec des équipements terminaux qui accepteront des
cartes coupleurs à des prix acceptables.

8. LA GESTION DES RESEAUX ATM


Un réseau ATM peut offrir à ses utilisateurs une grande flexibilité, et les opérateurs
peuvent bénéficier d'’un haut degré d’utilisation. Pour ce faire, les opérateurs doivent
posséder un système bien développé pour le contrôle et la gestion des ressources du
réseau.
Un réseau idéal basé sur l’'ATM devrait rendre possible pour l’utilisateur de transférer
n'importe quelle quantité de débit, à des niveaux de qualité qu'’il pourrait choisir et qui
lui conviendraient à tout moment. Le prix qui doit être payé pour une telle flexibilité est
la complexité croissante dans la gestion et le contrôle des ressources disponibles du
réseau.
1. LA GESTION DES RESSOURCES
Le contrôle des ressources implique le maintien de la qualité négociée de toutes les
connections du réseau, en utilisant des ressources appropriées et un réseau
dimensionnée de façon optimale.
Les ressources qui doivent être contrôlées sont la bande passante (spécifiée en
cellules par seconde ou en bits par seconde), les mémoires tampons (si elles
dépassent leurs capacités, cela résultera en des pertes de cellules), le nombre de
voies virtuelles et la capacité du processeur.
Lors de l'’ouverture d’une connexion ATM, l'’opérateur et l’'utilisateur négocient sur un
certain nombre de détails techniques, qui résulte en la création d'’un contrat de trafic.
Celui-ci spécifie les caractéristiques des informations de l'’utilisateur, ses exigences en
matière de délai permis dans le réseau et de qualité de transfert que l'’opérateur se
charge de maintenir.
Ce contrat de trafic est hautement dépendant de la qualité de service (QoS), qui est
le niveau de performance du réseau offerte par l’'opérateur. On trouve deux classes de
qualité de service : l’'une où aucuns paramètres de performance ne sont spécifiés (cette
classe traite les services best-effort, pour lesquels l’'opérateur ne s’est pas engagé
quant à la qualité) et l’'autre où des paramètres de performance ont été spécifiés. On
adopte comme paramètres de performance le taux d'’erreur par cellule, le taux de perte
de cellules, le délai de transfert par cellule, la variation du délai de transfert par cellule,
le taux de cellules mal insérées, le délai moyen de transfert par cellule.
Les caractéristiques des informations de l'’utilisateur sont spécifiées dans le descripteur
de trafic. Ce dernier consiste en un ensemble de paramètres de trafic qui sont envoyés
lorsqu'’une connexion est demandée. Ils spécifient, par exemple, le débit crête et la
durée des rafales.
Un concept clé de l’ATM est sa grande flexibilité. Grâce à ses différents types de
protocoles vus précédemment, l’ATM offre différents types de classe :
 CBR (constant bit rate), qui correspond à un circuit virtuel avec une bande
passante fixe. Les services de cette classe contiennent les services de voix ou
de video temps réel.
 VBR (variable bit rate), qui correspond à un circuit virtuel pour des trafics
variables dans le temps et plus spécifiquement les services produisant un flot
très irrégulier. Les services de cette classe contiennent les services
d'’interconnexion de réseaux locaux.
 ABR (available bit rate), qui permet d’utiliser la bande passante pour des
applications qui ont des débits variables et qui sont sensibles aux pertes. Un
débit minimum doit être garanti pour que les applications puissent cependant
passer dans un temps acceptable. Dans ce cas, le temps de réponse n’'est plus
garanti.
 UBR (unspecified bit rate), qui correspond au meilleur effort (best effort). Il n’y a
aucune garantie ni sur les pertes ni sur le temps de transport. Le service UBR
est le service qui est offert dans internet. Cependant, la solution est totalement
différente ici, car il s’agit simplement d'’une utilisation de ce qui n’a pas pu être
utilisé par les autres services.
Toutes ces classes requièrent des qualités différentes de service. Cette difficulté est
remarquablement surmontée grâce à une très grande efficacité de gestion de la bande
passante réalisée par le multiplexage statistique des services. Ce multiplexage
statistique peut être défini simplement : une ligne de réseau peut être partagée par
plusieurs circuits virtuels. L’allocation des ressources est réalisée de façon statistique.
Ce multiplexage statistique permet un gain économique qui n’était pas possible de
réaliser par le concurrent principal de l'’ATM, le STM (Synchronous transfert mode).

2. OPERATION ET MAINTENANCE
Pour la gestion du réseau, l'’UIT-T a introduit la recommandation I.610 qui concerne, à
la base, la maintenance de l’interface UNI (User Network Interface) et les accès au
réseau ; son but étant de décrire les fonctions permettant de maintenir le niveau
physique et l’'accès au niveau de l’interface ATM. Cette recommandation privilégie cinq
environnements : la gestion de performance, la détection de pannes, la protection du
système, l'’information sur les pannes et les performances, la localisation des fautes.
Des fonctions spéciales d’opération et de maintenance OAM (Operation And
Maintenance) sont réalisées par l’'intermédiaire de cinq niveaux hiérarchiques :
F1 : niveau section de régénération des signaux ;
F2 : niveau section numérique ;
F3 : niveau de transmission sur le chemin ;
F4 : niveau du conduit virtuel ;
F5 : niveau de la voie virtuelle.
Ces cinq niveaux de contrôle sont représentés dans la figure ci-dessous.
Erreur! Nom du fichier non spécifié.
Cette figure doit être lue comme ceci : une connexion de voie virtuelle peut être vue
dans le haut de l'’illustration. Cette voie se compose de ‘maillons’ de voies virtuelles.
Chaque ‘maillon’ est une connexion de conduits virtuels composés eux-mêmes de
‘maillons’ de conduits virtuels. Chaque maillon de conduit virtuel est un chemin de
transmission. Chaque chemin de transmission consiste en une ou plusieurs sections
numériques. Chaque section numérique se compose d’une ou plusieurs sections de
régénération.
Seuls les deux niveaux les plus hauts concernent la partie ATM, on ne s'’intéressera
qu'’à ceux-là dans la suite.
Des cellules OAM pour les niveaux F4 et F5 sont utilisées pour le contrôle des conduits
virtuels et des voies virtuelles en ce qui concerne les performances et la disponibilité.
Les cellules F4 sont utilisées pour surveiller un VPC (Virtual Path Connection) et les
cellules F5 pour surveiller un VCC (Virtual Channel Connection).

Ces cellules sont composées de divers champs :


 Header : deux valeurs VCI sont réservées pour l’identification des cellules OAM
du niveau F4 et deux valeurs PTI sont réservées pour l’identification des cellules
OAM du niveau F5.
 OAM type : spécifie le type de fonction d’opération et de maintenance à laquelle
on se réfère, par exemple, le traitement des erreurs.
 Function type : spécifie quelle fonction la cellule OAM supporte parmi la classe
de fonctions de ‘type OAM’, par exemple, les fonctions d’alarme AIS (Alarm
Indication Signal) ou RDI (Remote Defect Indication).
 Function-specified field : utilisé lorsque diverses fonctions OAM sont exécutées.
 Error detection code (EDC) : un code de correction d’erreurs basé sur le contenu
du champ d'information dans la cellule OAM, utilisé pour la détection d’erreurs.
9. LE CONTROLE DES RESEAUX ATM
Après les services et la gestion des réseaux ATM, on s’intéresse ici au contrôle des
réseaux ATM. Cet aspect est traité par un plan spécifique qui est tout à fait différent de
ce qui se passe dans une recommandation comme X.25 où la mise en place d’un circuit
virtuel se fait par l’intermédiaire d’un paquet d’'appel qui est acheminé dans le plan
utilisateur. Dans un réseau ATM, la mise en place du circuit virtuel s'’effectue par
l'’intermédiaire du plan de contrôle.
Trois types de signalisation ont été définis dans la norme :
 la méta signalisation qui a pour but de mettre en place et de détruire les circuits
virtuels qui seront utilisés pour transporter la signalisation (le numéro de voie
virtuelle VCI vaut 1);
 la signalisation de diffusion qui est utile lorsqu’un utilisateur souhaite ouvrir un
circuit virtuel multipoint (le numéro de voie virtuelle VCI vaut 2);
 la signalisation point à point qui est la plus classique. Deux sous-cas pourront
être déterminés, la signalisation interne au réseau et la signalisation de bout en
bout (le numéro de voie virtuelle VCI vaut 5).
Le VCI permet de différencier les cellules de ces différentes signalisations.
Toutes ces cellules de signalisation sont transitées sur des voies virtuelles spécifiques.
Ces connections doivent être établies par une procédure de métasignalisation. Une fois
créés, tous les messages de signalisation sont véhiculés sur cette voie virtuelle
particulière SVC (Signaling Virtual Channel). Il peut y avoir plusieurs SVC par voie
virtuelle. Ces procédures de signalisation ont plusieurs fonctions : établir, libérer et
maintenir les SVC ; résoudre les problèmes d'’attribution de numéros VCI/VPI ; gérer la
bande allouée aux SVC. Pour ces SVC, une couche AAL spécifique doit être utilisée.
Le niveau de protocole qui remplace la couche AAL s’appelle SAAL (Signalling ATM
Adaptation Layer) et possède des caractéristiques assez semblables à celles de la
classe 5. La couche CPCS est également très semblable à celle de la classe 5 et est
surmontée par le protocole SSCOP (Service Specific Connection Oriented Protocol)
quiprend la place du protocole SSCS. Au-dessus de la couche SAAL, on trouve le
protocole Q.2931 qui définit le format de la signalisation entre l’abonné et le
commutateur de raccordement. On y trouve aussi le protocole B-ISUP qui est utilisé
pour la signalisation entre des réseaux ATM publics qui sont gérés par différents
opérateurs. Une bonne vue d’ensemble est présentée ci-dessous.

CONCLUSION
Les réseaux ATM essayent de combiner les meilleurs concepts du réseau téléphonique,
tel que le service orienté connexion et la qualité de service bout à bout, et ceux de
l’'Internet tel que la commutation par paquets. Les cinq principaux concepts d’'ATM qui
permettraient une infrastructure unique capable de prendre en charge la diversité des
services futurs, transmettant à la fois voix, vidéo et données sont les circuits virtuels, la
taille fixe et réduite des paquets, le multiplexage statistique et l'’intégration de services.
Bien que les réseaux ATM aient le potentiel de remplacer Internet et le réseau
téléphonique, il reste de nombreux problèmes à résoudre avant une réalisation concrète
de tels réseaux.
L'’Internet, basé sur le protocole IP, représente une infrastructure grandissante non
ATM. Par conséquent, vu les nombreux investissements placés dans la technologie
Internet, les réseaux ATM doivent coopérer avec les réseaux IP. Cette ‘interopérabilité’
des deux réseaux est problématique à cause de leurs philosophies fondamentalement
différentes. D’une part l'’Internet est orienté sans connexion et l’ATM en mode connecté,
d’autre part les réseaux ATM prônent la qualité de service tandis que l'Internet garantit
un service best-effort. Si les réseaux ATM doivent être utilisés par un nombre
continuellement croissant d’abonnés à Internet, ils doivent satisfaire aux souhaits de
ses utilisateurs. Tel est le défi des designers des protocoles ATM.

REFERENCES
 G. Pujolle, Les Réseaux, Ed. Eyrolles, 1995.
 S. Keshav, An engineering approach to computer networking : ATM network, the
Internet, the telephone network, Addison-Wesley, 1997.
 Understanding telecommunications, Volume 2, Ericsson Telecom, Telia and
studentlitteratur , 1998.
 http://byerley.cs.waikato.ac.nz/~tonym/articles/atm/node2.html