Vous êtes sur la page 1sur 36

Introduction

P l ei n d ’aveni r et t rès prom et t eur, t el es t l e vi s age des rés eaux ad hoc


auj o u rd ’h ui qu i s e d i s t i nguent des aut re s form es d e r és eaux s ans fi l par une
abs en ce t o t al e d’i n fras t ruct ur e fi x e. Un nom bre quel co nque de m obi l es
équi p és d e c art es d ’i nt erfa ce r adi o et des couch es prot oco l ai res adéqu at es
s uffi s en t p ou r form er un rés eau ad-hoc . L es débi t s at t ei nt s auj ourd’hui s ur
ce t y p e d e rés e aux r endent pos s i bl e l e t r ans fert de fl ux m ul t i m édi a s oum i s à
de fo rt es con t rai nt e s . Dès l ors , i l es t légi t i m e de cherch er à fourni r aux
appl i cat i on s des ga r ant i es s ur l e dél ai , s ur l es t aux de p ert es ou enco re s ur
l a b an d e pas s ant e. L es s ol ut i ons ut il i s ées dans l e m onde fi l ai re s ont
i nad ap t ées au x con t rai nt es l i ées à l ’ut i l i s at i on du m édium radi o et à
l ’abs en c e d’ad m i ni s t rat i on cent ral i s é e.

E n eff et , l es ond es hert zi ennes s e prop agent m oi ns vi t e que l a l um i ère. E n


cons éq u en c e, l es ré s eaux r adi o s ont m o i ns rapi des qu e l es rés eaux fi l ai r es
ut i l i s an t des fi b res o pt i ques . De pl us , l a propagat i on d es ond es radi o es t t r ès
s ens i b l e à l ’en vi ron n em ent . Une onde ra di o peut êt re fort em ent at t énuée p ar
un o b s t acl e. L e m é di um radi o es t don c m oi ns fi abl e qu e s on hom ol ogue
fi l ai re. P l us i eurs s ignaux peuvent aus s i ent rer en col l i s i on et i l n’es t pas
pos s i b l e d’i s o l er des part i es du rés e a u au m oyen de co m m ut at eurs . En
cons éq u en c e, l a bande pas s ant e es t part agée ent r e l es m obil es proches l es
uns d es aut r es . L e fonct i onnem ent ad -hoc aj out e d’ aut re s cont rai nt es à
cel l es -ci . D’un e p a rt , l ’abs ence t ot al e d’adm i ni s t rat i on cent ral i s ée rend
com p l ex e et coû t e us e l ’ut i l i s at i on de s t echni ques d e m ul t i pl exage des
com m u n i cat i ons ut il i s ées dans l es rés eaux ave c poi nt d’acc ès (FDM A ,
T DM A et c.). E n eff e t , pour ut i li s er ce t ype de m écani s m es , i l faut concevo i r
un pro t o col e d i s t ri b u é perm et t ant aux n oeuds de s e pa rt ager l es fr équenc es ,
l es co d es ou l es uni t és de t em ps . D’ aut r e part , l a m obi l i t é d es noeuds d’un
t el rés e au p rov oqu e des chang em ent s f ré quent s de t opol ogi e. Le rout ag e d ans
de t el s rés eau x ét a nt aus s i di s t ri bué, les rout eurs s ont l es m obi l es et u n
t rans fert d e do nnées peut ai s ém ent êt r e i nt errom pu par l e dé part d’un noeud
s ur l a ro u t e ut i l i s ée.

L a p l u p art des al go ri t hm es de qual i t é d e s ervi c e du m onde fi l ai re repos ent


s ur l a co n nai s s an ce d ’i nform at i ons préci s es s ur l ’ét at du rés eau, cons i dèrent
que l es p ert es s o nt fai bl es , que l a band e pas s ant e di s poni bl e es t l arge ou
enco re q u e l a t opo l o gi e du rés e au es t gl obal em ent s t abl e.

La Qo S es t m ai n t enant un poi nt i m port ant dans t ous l es rés e aux


(i nfo rm at i que et T el ecom ). Il s em bl e i nt éres s ant d'ét ud i er l es m oyens
perm et t ant d'i nt ro dui re cet t e not i on dans l es rés eaux ad hoc e t en part i cul i er
dans l es rés eaux a d hoc m obi l es (M ANE T s ) où l es t er m i naux s ont en
m ouv em ent l es un s par rappo rt aux aut res . En e ffet , l es appl i cat i ons
m ul t i m ed i a qu e l 'on connai t auj ourd'hu i néces s i t ent d es ga rant i es de QoS
pl us o u m oi ns i m port ant es qu'i l s erai t bon de pouvoi r propos er dans ce t ype
de rés e au x en core e xpéri m ent aux.
Figure 1: Réseaux Ad Hoc - source O.Bamouh / H.Lalaoui

I- Présentation succinte des réseaux ad-hoc (MANETs)

On p eu t d éfi n i r un ré s eau ad hoc m obi l e ( M ANE T : M obi l e Ad hoc NETwork )


com m e ét ant un s yst èm e aut onom e dynam i que com pos é de noeuds m obi l es
i nt erco n n ect és vi a des connexi ons s an s fi l (t ypi quem ent en Wi Fi ) s ans
l ’ut i l i s at i o n d ’une i nfras t ruct ur e fi x e d e t ype poi nt d'a ccès par ex em pl e et
s ans ad m i ni s t rat i o n cent ral i s é e.
Figure 2:Le modèle sans infrastructure des réseaux mobiles- source O.Bamouh / H.Lalaoui

Le modèle de réseau sans infrastructure préexistante ne comporte pas l'entité «site fixe ». Tous
les sites du réseau sont mobiles et communiquent d'une manière directe en utilisant leurs
interfaces de communication sans fil. L'absence de l'infrastructure ou d'un réseau filaire
composé des stations de base, oblige les unités mobiles (UM) à se comporter comme des
routeurs qui participent à la découverte et la maintenance des chemins pour les autres hôtes du
réseau. La communication des nœuds du réseau ce fait directement, à la manière d'un réseau
peer-to-peer. Les noeuds sont donc libres de se déplacer aléatoirement et s’organisent
arbitrairement. Cependant, la route entre un noeud source et un noeud destination peut
impliquer plusieurs sauts sans fil, d’où l’appellation des réseaux sans fil multi-sauts. Un noeud
mobile peut donc communiquer directement avec un autre noeud s’il est dans sa portée de
transmission. Au delà de cette portée, les noeuds intermédiaires jouent le rôle de routeurs
(relayeurs) pour relayer les messages saut par saut.
Dans l’exemple suivant le nœud a envoie un flux de données au nœud g. Pour cela, les données
sont acheminées par les nœuds b et e. Après le mouvement, nous remarquons que le routage
des données devient plus complexe puisque le flux parcours non seulement les nœuds b et e
mais aussi les nœuds d, c et f. Le réseau est donc dynamique et imprévisible ce qui fait que la
déconnexion des unités est généralement très fréquente. La figure suivante est un exemple de
réseau adhoc. Chaque lien indique qu'une liaison directe existe entre les
L ’av an t ag e des M A NE Ts c’es t qu’ el l es i nt rodui s ent pl us de dynam i s m e que
dans l es r és e aux ad h oc s i m pl es , pui s que l es nœuds s ont m o bi l es l es uns pa r
rappo rt au x a ut res . I m agi nant une appl i c at i on m i l i t ai re où l e s rés e aux ad ho c
m obi l e s erai ent t co ns t i t ué de véhi cul es m i l i t ai res en m ouvem ent , dépl oyés
s ur u n ch am p de bat ai l l e et com m uni quant t ous l es uns avec les aut res , cré ant
ai ns i s p o nt an ém ent u ne i nfr as t ruct ur e d e com m uni cat i on qu el que s oi t l eu r
pos i t i o n .
Ini t i al em en t c e t ype de rés e aux, propos é à des fi ns m i l i t ai res , ét ai t des t i né à
perm et t re l e dépl oi em ent rapi de de s y s t èm es de com m uni cat i on dans des
zones d i ffi ci l es (ch am ps de bat ai l l e ou cat as t roph e nat ur el l e par exem pl e) .
Auj o u rd ' hui , ces ré s eaux s ont en pas s e de prendr e bi en pl us d'i m port ance
pui s q u e l es op érat eu rs com m encent à i m agi ner des offres com m erci al es à
l 'i nt en t i o n des ci vi l s .
L e d év el opp em en t d es bes oi ns de nom br eus es appl i cat i ons e n t erm e de QoS
a am en é l es ch er c heurs à t ent er d'i nt rodui re ces m écan i s m es dans l es
M ANE T s .

1.1 Do m ai n es d 'ap pl i cat i on des rés e aux ad hoc

L es co m m u ni cat i o ns et l es opérat i ons dans le dom ai ne m i l i t ai re


dem eu ren t l es t out es prem i è res appl i ca t i ons des rés eaux ad hoc. C epend ant ,
avec l ’ av an cem ent des re cher ches dans le dom ai ne des rés e aux et
l ’ém erg en ce des t e chnol ogi es s ans fi l (ex : B l uet oot h, IEEE 802.11 et
Hi perl an ) ; d ’aut res appl i cat i ons ci vi l es s ont apparu es.
On d i s t i n g ue :
 L es s ervi c es d’urg e nce : opér at i on de reche rch e et de s ec ours des
p ers onn es , t rem bl e m ent de t erre, feu x, i nondat i on, dans l e but de
rem pl ace r l ’i nfr as t r uct ure fi l ai r e,

 L e t rav ai l col l abora t i f et l es com m uni c at i ons dans des ent r epri s es o u
b ât i m en t s dans le cadre d’une réunion ou d’une conférence par exemple.

 Ho m e net work : part age d’ appl i cat i o ns et com m uni cat i ons des
éq u i p em ent s m obi l es .

 Ap p l i cat i on s com m erci al es : pou r un pai em ent él e ct roni que di s t ant


(t axi ) o u pour ’acc ès m obi l e à l ’Int er net , où s ervi ce de gui de en
fo n ct i o n de l a pos i t i on de l ’ut i l i s at eur.

 R és eaux de s ens e urs : pour des appl i cat i ons envi ronnem ent al es
(cl i m at , act i vi t é de l a t err e, s ui vi des m ouvem ent s des an i m aux, …
et c.) ou d om es t i que s (cont rôl e des équi pem ent s à di s t ance ).

 R és eaux en m ouvem ent : i nform at i que em barqué e et véhi cul es


co m m un i can t s .

 R és eaux M es h : c’es t une t echnol ogi e ém ergent e qui perm et d’ét endre
l a port ée d’un rés e a u ou de l e dens i fi er

1.2 P ro b l ém es s p éci fi ques pos és par l es M ANE T s

L es M ANE Ts pos ent des probl èm es s péci fi ques ayant une i nfl uenc e
i m po rt an t e s ur l es s ol ut i ons à m et t re en pl ace pou r as s ur er l a QoS . Les
prob l èm es pri n ci p au x s ont l a m obi l i t é de nœuds , l ' i nce rt i t ude s ur l es l i ens et
l a l i m i t at i on des res s ources des t e rm i na ux.

 M o bi l i t é des nœuds

L a m o b i l i t é des nœuds provoque des changem ent s fréqu ent s / dynam i ques
dans l a t opo l ogi e du rés eau. Des rout es peuvent s e crée r et di s paraî t re t rès
s ouv en t . C e d épl ace m ent a nat urel l em e nt un i m pact s ur l a m orphol ogi e d u
rés eau et peut m o di fi er l e com port e m ent du canal de com m uni cat i on.
Aj ou t o n s à cel a l a nat ure des com m uni cat i ons (l ongues et s ynchrones ,
court es et as yn chro n es ,. .).C es m odi fi c at i ons doi vent êt re pri s es en com pt e
l e pl u s rapi d em en t p os s i bl e par l e prot oc ol e de rout age afi n de :

o m ai nt en i r une vi s i on corre ct e de l a t opol ogi e par l es nœuds


o s upp ort er l a m ai nt en ance
o prendre en ch arge en un t em ps l i m it é l a recons t ruct i on des rout es
t out en m i ni m i s ant l ’overh ead g énér é par l es m es s ag es de
co nt rôl e.

L a réact i vi t é du di s pos i t i f m i s en pl ace face à c es m odi fi cat i ons a un i m pact


di rect s u r l a qu al i t é du s e rvi ce propos é à l 'ut i l i s at eur. P réci s ons t out de
m êm e q u e l es nœud s du rés eau ne doi vent pas t rop bouger pour pouvo i r
perm et t re un e ut i l i s at i on rai s onnabl e d u rés e au. P a r t rop, on ent end as s ez
l ent em en t p our l ai s s er l e t em ps à l 'i nfo r m at i on d' un change m ent de t opol ogi e
d'êt re d i f fus ée s ur l e r és eau avant qu'un e aut r e m odi fi c at i on m et t ant en j eu
ces m êm es nœuds ne se produi s e.
On v o i t i ci que l a m ai nt enan ce d es t abl es de rout age es t un t rav ai l
part i cu l i èrem en t d i f fi ci l e dans c e t ype d e rés e aux.

 L ’h ét érog énéi t é des noeuds

Un n o eu d m ob i l e pe u t êt re équi pé d’un e ou pl us i eurs i nt erfa ces radi o ayant


des cap a ci t és de t rans m i s s i on vari ées et opérant dans des pl ages de
fréqu en ces d i ff érent es . C et t e hét érogén éi t é de capa ci t é peu t engendrer des
l i ens as y m ét ri ques dans l e rés e au. De pl us , l es noeuds peuvent avoi r des
di fféren ces en t erm e de capaci t é de t rai t em ent (C P U, m ém oire), de l ogi ci el ,
de t ai l l e (pet i t , gr and) et de m obi l i t é (l ent , r api de). D ans ce cas , une
adap t at i o n d ynam i q ue des prot ocol es s ’avèr e néc es s ai re p our s upport er d e
t el l es s i t uat i o ns .

 L a t ai l l e des rés eau x ad hoc


S ouv en t d e p et i t e ou m oyenne t ai l l e (une cent ai ne de noeuds ) ; l e rés eau es t
ut i l i s é p o ur ét endre t em porai rem ent un rés eau fi l ai re, c om m e pour un e
confér en c e ou d es s i t uat i ons où l e dé pl oi em ent du rés ea u fi xe n ’es t pas
appro p ri é (ex : c at a s t rophes nat ur el l es ) . C ependant , q uel qu es appl i cat i ons
des rés eaux ad h oc n éces s i t ent une ut i l i s at i on al l ant j us qu’à des di zai n es de
m i l l i ers d e n oeuds , com m e dans l es r és e aux de s ens eu rs . D e s probl èm es l i és
au p as s ag e à l ’ éche l l e t el s que : l ’ad re s s age, l e rout ag e, l a ges t i on d e l a
l ocal i s at i o n des s en s eurs et l a con fi gur at i on du rés eau, l a s écuri t é, … et c,
doi v en t êt re r és ol us pour une m ei l l eure ges t i on du rés eau.

 R es s ou rces l i m i t ées

Il es t i m po rt an t de rappel e r que l es rés eaux ad-ho c o béi s s ent à des


cont rai n t es t rès s t ri ct es en t erm e d e r es s ources . L es t erm i n aux m obi l es s ont
par es s en ce d e p et i t s t erm i naux, pos s édant des r es s ourc es l i m i t ées . La
m obi l i t é d e ces t erm i naux i m pos e une l i m i t at i on s ur l eur ca paci t é d'én ergi e
qui a u n i m p a ct e di r ect s ur l e r ayon de t rans m i s s i on. D'aut re part , l es débi t s
di s po n i b l es s ont i nféri eurs à ceux que l 'on peut obs erver d ans l es rés e aux
fi l ai res . C 'es t une res t ri ct i on s uppl ém ent ai re à prendr e en com pt e dans l a
m i s e au p oi nt d' un m écani s m e de QoS .

 L ’abs enc e d’u n e i nf ras t ruct ur e cent r al i s ée

C haq u e n oeud t rava i l l e dans un envi ronnem ent pai r à pai r di s t ri bué, et agi t
en t an t q ue rout eu r pour rel aye r des co m m uni cat i ons , ou génère s es prop res
donn ées . L a g es t i o n du rés eau es t ai ns i di s t ri buée s ur l ’ens em bl e des
él ém en t s d u rés e au.

 In cert i t udes s ur l es l i ens

Dans c e t yp e d e r és eau, on n' a aucune garant i e s u r l e d ébi t de ch aque l i en.


De p l u s l a pui s s an ce d'ém i s s i on des t erm i naux peut vari er d a ns l e t em ps pour
s 'adap t er aux res s ou rces én ergét i ques du t erm i nal par ex em p l e.

 L a con t rai nt e d ’éne r gi e


L es éq u i p em ent s m obi l es di s pos ent de bat t eri es l i m i t ées , et dans cert ai ns cas
t rès l i m i t ées t el s q u e l es P DA, et par co ns équent d’une duré e de t r ai t em ent
rédui t e. S ach ant q u’une part i e de l ’én ergi e es t d éj à cons om m ée par l a
fonct i o n n al i t é du ro ut age. C el a l i m i te l es s ervi ces et l es appl i cat i on s
s upp o rt ées p ar chaq ue noeud.

De n o m b r eu x dé fi s s ont donc à r el ever a vant de pouvoi r ga ra nt i r une qu al i t é


de s erv i c e dans c es rés eaux.

II- . Solutions actuelles: Principaux modéles de QOS dans les réseaux Ad Hoc

Dans les réseaux de télécommunication, l’objectif de la qualité de service est d’atteindre un


meilleur comportement de la communication, pour que le contenu de cette dernière soit
correctement acheminé, et les ressources du réseau utilisées d’une façon optimale. La qualité
de service QoS (Quality of Service) peut être définie comme le degré de satisfaction d’un
utilisateur des services fournis par un système de communication. La QoS est définie dans
comme la capacité d’un élément du réseau (ex : routeur, noeud ou une application) de fournir
un niveau de garantie pour un acheminement des données. Le RFC 2386 caractérise la QoS
comme un ensemble de besoins à assurer par le réseau pour le transport d’un trafic d’une source
à une destination. Ces besoins peuvent être traduits en un ensemble d’attributs pré-spécifiés et
mesurables en terme de : Délai de bout en bout, Variance de délai (gigue), Bande passante,
Pertes de paquets.
Besoin du débit, gigue et délai pour le multimédia - source O.Bamouh / H.Lalaoui

Suivant le type de l’application, les besoins de QoS sont différents. Par exemple, pour les
applications temps réel, comme la voix et la vidéo, le délai de bout en bout d’un paquet doit
être limité, autrement le paquet est inutile. Les applications non temps réel, comme le transfert
de fichier ou la messagerie, quant à elles se focalisent sur la fiabilité des communications.

Besoin en délai et bande passante des applications - source O.Bamouh / H.Lalaoui

Le support de la qualité de service a été largement étudié dans les réseaux filaires. Le réseau
ATM (Asynchronous Transfert Mode) a considéré le support de la QoS pour les trafics en
plusieurs classes. Des solutions ont été proposées par l’IETF pour améliorer le réseau Internet
afin de fournir la QoS aux communications multimédia. Des mécanismes ont été fournis pour
gérer efficacement les ressources réseau (bande passante, mémoire tampons) pour répondre aux
exigences des applications. Dernièrement, avec l’émergence des services multimédia temps
réel, et les champs variés des applications des réseaux ad hoc, la qualité de service dans les
réseaux ad hoc est devenu un thème de recherche qui a suscité beaucoup d’intérêts. Dans ce
contexte, des travaux pour l’introduction des applications multimédia dans les réseaux ad hoc
ont été proposés. Cependant, il est très difficile de garantir une quelconque qualité de service à
une application temps réel dans un réseau ad hoc, car il faut prendre en considération les
spécificités de ces réseaux, à savoir : la bande passante limitée, le changement dynamique de la
topologie en fonction du temps, ainsi que le manque d’information complète sur l’état du
réseau. En outre, la communication entre les stations mobiles étant par voix radio, la qualité du
lien sans fil reste peu fiable, et susceptible à des variations suivant la configuration et l’état du
réseau. Les recherches concernant la qualité de service dans les réseaux ad hoc sont souvent
classées en quatre grandes catégories :

- Les protocoles d’accès au medium cherchent à ajouter des fonctionnalités aux couches
basses du modèle OSI afin de pouvoir offrir des garanties
- Les protocoles de routage avec qualité de service recherchent les routes ayant
suffisamment de ressources disponibles pour satisfaire une requête
- Les protocoles de signalisation cherchent à offrir des mécanismes de réservation de
ressources indépendants du protocole de routage sous-jacent.
- Les modèles de qualité de service définissent des architectures globales dans lesquelles
des garanties peuvent être fournies.

les composants de la QoS- source O.Bamouh / H.Lalaoui 2.1

Les protocoles d'accés au medium a. Description de la couche MAC IEEE 802.11 Beaucoup
de protocoles de routage avec qualité de service pour les réseaux Ad-hoc pourraient tirer parti
des protocoles de niveau 2, notamment le protocole d’accès au medium. Il est en charge d’éviter
les collisions, d’assurer le partage de la bande passante et de résoudre certains problèmes
spécifiques aux transmissions hertziennes. De ce fait, ce protocole est capable de gérer une
certaine qualité de service. La couche MAC du standard 802.11 se base sur la méthode d'accès
appelée ‘Distributed Coordination Function’ (DCF) qui utilise CSM/CA (Carrier Sense
Multiple Access/Collision Avoidance) pour supporter des transmissions asynchrones de
données. La deuxième fonction d’accès, optionnelle, est la PCF (Point Coordination Function)
qui sert à supporter les trafics temps réel. La fonction DCF est employée pour les réseaux Ad
hoc. Le principe de la fonction DCF consiste à écouter le médium pour voir si un autre noeud
est en train d'émettre, pour savoir si le médium est libre pour une certaine durée appelée (DIFS)
avant d’émettre.Sinon, la transmission est différée d’un temps de Backoff, choisi aléatoirement
entre 0 et une valeur maximale appelée Contention Window (CW). Cette dernière ne sera
décrémentée que si le médium est libre.

Principe de la fonction DCF- source O.Bamouh / H.Lalaoui

Néanmoins, la détection de collision par une station qui est entrain d’émettre simultanément
avec une autre n’est pas possible. Pour cela, un acquittement (ACK) est utilisé pour informer la
station émettrice que la trame est reçue avec succès

Méthode d’accès DCF


Un principe RTS/CTS (Request To Send / Clear To Send) est utilisé pour résoudre le problème
des stations cachées. Avant toute émission la station devra envoyer un message RTS pour
réserver le canal, la destination répond donc par un message CTS pour dire si elle est prête à
recevoir. Ainsi, le canal est réservé pour la durée de la transmission. Les messages RTS/CTS
et ACK sont prioritaires à l’accès au médium, car ils disposent d’un temps d’attente IFS (Inter
Frame Space) inférieur à celui des paquets de données. Dans la fonction DCF, les trames n’ont
pas de priorités, ce qui est inadapté pour les applications temps réel. Un mécanisme de priorité
pour la fonction DCF de la couche MAC 802.11 consiste à différencier les trafics, et introduire
une priorité en modifiant les paramètres de la fonction l'accès DCF. Son principe consiste à
associer des DIFS ou des temps de backoff plus court pour les flux prioritaires. Ainsi, les flux
prioritaires auront une plus grande probabilité d'accéder au médium que les autres. D’autres
paramètres de la fonction DCF peuvent aussi être utilisés pour différencier des services. b. IEEE
802.11e La spécification du draft IEEE 802.11e propose le support de la QoS dans les réseaux
sans fil avec une nouvelle fonction de contrôle EDCA (Enhanced Distributed Channel Access),
considérée comme la nouvelle version de la fonction DCF, et une fonction de coordination
hybride (HCF). EDCA introduit quatre catégories de trafics (TC). Les priorités sont contrôlées
par les stations en modifiant le schéma d’accès de base (DCF). Plus flexible que la fonction
PCF, HCF est utilisée par les points d’accès pendant la période d’accès contrôlée (CAP), qui
peut commencer à n’importe quel moment durant ’la superframe’. Autrement dit, ça lui permet
d’avoir accès au médium pour faire passer un trafic ayant des contraintes de QoS. Cette norme
réimplémente la couche MAC (Medium Access Control) en ajoutant un mécanisme de
réservation de la bande passante au niveau matériel. Elle est compatible avec les normes
802.11a, 802.11b (Wi-FI) et 802.11g. Cependant, il est clair que tant qu’on n’aura pas amélioré
le fonctionnement du coeur d’un réseau Infrastructure, c'est-à-dire la borne d’accès et plus
précisément le protocole qui la gère, on ne pourra pas avoir une amélioration de la QoS. Il faut
pour cela se rappeler que tous les paquets envoyés dans l’air doivent passer à travers la borne
d’accès pour être routé vers leur destination. Un autre problème sensible affectant la QoS dans
le lien air est la façon dont est partagée la bande passante en fonction des utilisateurs, mais là
encore, comment partager différemment la bande passante si on n’a aucun moyen de
différencier les différents flux de données arrivant à la borne d’accès. C’est pourquoi l’arrivée
de la norme 802.11e a été attendue avec impatience par tous les utilisateurs de réseau WLAN
voulant faire de la VoIP ou d’autres applications temps réel. c. Différenciation de services pour
802.11 Afin de concevoir des mécanismes de différenciation de services efficaces, un
mécanisme de priorités entre les trames est déployé. Pour ce faire, il faut adapter certains
paramètres de la fonction de coordination distribuée (DCF) du protocole selon la priorité des
paquets. Cette dernière repose sur la détection de porteuse (CSMA). Avant d’émettre, tout
noeud doit s’assurer que le canal est libre depuis un certain temps (DIFS puis CCA). Certains
paquets de signalisation peuvent être plus privilégies en leur accordant un temps SIFS (Short
Inter Frame Spacing) plus court que le DIFS. Dans le but d’améliorer la méthode d’accès DCF
du protocole 802.11, les techniques suivantes ont été proposées : 1. La fonction de backoff
différente: Consiste à attribuer des valeurs de fenêtres de contention (CW) supérieures pour les
stations les moins prioritaires et inversement, permettant ainsi de donner plus de chance à une
station prioritaire d’accéder au canal. 2. Les différents DIFS: Dans le standard IEEE 802.11 les
trames ACK ont une priorité sur les trames RTS, en attendant un temps SIFS qui est inférieur
à DIFS. Dans cette technique de différenciation chaque station mobile dispose de sa propre
valeur de DIFS qui définit son niveau de priorité pour l’accès au médium. 1. Un délai
supplémentaire, constant, aléatoire est ajouté au DIFS, permettant ainsi en cas de collision de
réinitialiser le processus et d’allonger le délai supplémentaire. 1. Distributed Fair Schedulzng:
Dans ce schéma d’accès la valeur du backoff générée avant un envoi, est proportionnelle à la
longueur de la trame de donnée et inversement proportionnelle au poids du flux ainsi les trames
peu prioritaires occupent le canal moins longtemp d. MACA / PR Le protocole MACA/PR
(Multiple Access Collision Avoidance with Piggyback Reservation) propose de différencier la
politique d’accès au médium selon la nature des flux. Il propose une bande passante garantie
dans le réseau via une réservation pour les trafics temps réel. Les flux non privilégiés
bénéficient du servuce « Best Effort ». Les paquets des flux non privilégiés sont traités de façon
standard. Pour les flux temps réel, une unique demande d’autorisation à transmettre (échange
RTS-CTS) est effectuée en début de flux
Principe du MACA/PR - source O.Bamouh / H.Lalaoui

Dès qu’un paquet n’est pas acquitté, une nouvelle demande d’autorisation est émise. Afin de
traiter les réservations de bande passante, l’émetteur inclut des informations dans chaque paquet
sur l’ordonnancement du paquet suivant. Tous les voisins du noeud récepteur, en écoutant
l’acquittement d’un paquet de données, possèdent des informations sur la date d’arrivée du
prochain paquet et peuvent différer leurs transmissions. Ce mécanisme permet de résoudre le
problème des stations cachées sans avoir recours à des paquets de signalisation particuliers. 2.2
Les protocoles de routage avec qualité de service Le routage avec QoS est un élément clé pour
réaliser une architecture de QoS pour les MANETs. Il est important de définir les objectifs visés
par le routage avec QoS. Le routage au mieux (sans QoS) consiste en général à trouver le plus
court chemin en terme de distance ou de délais entre une source et une destination. Dans le cas
du routage avec QoS, l'objectif n'est pas seulement de trouver le meilleur chemin selon un
critère précis, mais de trouver un chemin "admissible"satisfaisant certaines contraintes.
Plusieurs paramètres peuvent être utilisés tels que le délai, la bande passante, la disponibilité en
terme de QOS ou encore le coût de transmission. On voit apparaître donc des spécificités où les
routes doivent être calculées par flux et non par destination. En effet, un flux peut avoir des
besoins de QoS alors qu'un autre flux entre ces mêmes nœuds en aura d'autres. Le routage avec
QoS est très difficile dans les MANETs car il engendre un overhead important. En effet, les
nœuds doivent mettre en place un mécanisme permettant de stocker et mettre à jour les états de
liens dans un environnement mobile. Cette mobilité rencontrée rend le maintient de l'état précis
des liens très difficile et très coûteux. De plus, la mobilité ou le manque d'énergie peuvent
causer des ruptures dans les chemins établis, le protocole doit donc être capable de réagir très
vite à ce genre d'événement en recalculant des routes valides. Par conséquent, la complexité de
la recherche de routes optimales dépend des types de contraintes. L'idée est donc de trouver un
équilibre entre le gain apporté par le routage QoS et l'importance de l'overhead. Le routage avec
qualité de service ajoute en général des protocoles de routage usuels un contrôle d’admission
afin de sélectionner parmi les routes disponibles celles qui sauront satisfaire les contraintes du
flux. a. Routage avec QoS sur DSDV : DSDV(Dynamic Destination Sequenced distance-
Vector) ou vecteur de distance à destination dynamique séquencée est un protocole de routage
proactif implémenté avec la qualité de service afin de résoudre les problèmes liés aux stations
cachées. En effet, Lors d’une demande de réservation, DSDV évalue la quantité de bande
passante disponible sur la route principale. Tout en évaluant le nombre d’unités TDMA
(Division du temps en unités) appelées slots, disponible sur chaque lien tout au long de la route.
Il est nécessaire de ne pas utiliser les mêmes unités pour les transmissions entre deux liens
adjacents. Dès que le destinataire reçoit la demande de route, il renvoie à l’émetteur une
confirmation indiquant la politique d’allocation des unités choisie sur la route empruntée, la
réservation de ressources se fait parallèlement à cette réponse. Pour pallier aux problèmes liés
à la mobilité, une route secondaire non optimale en terme de nombre de sauts est maintenue.
Bien que ce protocole évalue bien la bande passante disponible sur un chemin et offre le calcul
de la probabilité de rejet des appels lors des simulations, il est incapable de résoudre les
problèmes d’interférences, en particulier lorsque deux nœuds utilisant les mêmes unités TDMA
se rapprochent et arrivent à portée d’émission l’un de l’autre. b.Ticket Based Probing : Ticket-
Based QoS Routing est un protocole de routage qui permet de réduire la quantité des messages
de routage diffusée pour la découverte de la route, car la recherche de routes par inondation
peut être très coûteuse. Ce protocole de routage QoS a été conçu pour des réseaux à faible
mobilité pour éviter de réel problème (scénario de type salle de conférence). La durée de vie
des routes doit être grande devant le temps nécessaire à l’établissement ou à la restauration
d’une route. Le protocole utilise une technique de réparation locale des routes. Le but de Ticket
Based Probing est de limiter ce surcoût et de fournir des garanties de qualité de service. La
découverte de route est limitée, car l’émetteur va associer une demande de route à un certain
nombre de tickets logiques qui va limiter la diffusion des requêtes. Chaque message de
découverte (ou d’observation) de route doit avoir au moins un ticket. Quand un message arrive
à un noeud, il peut être divisé en plusieurs message d’observation, qui sont relayés vers les
prochains sauts. Chaque message ’fils’ contiendra un sous ensemble des tickets de son message
’père’. Evidemment, un message ayant un seul ticket ne peut être divisé. Lors de l’arrivée d’un
message de découverte de route à la destination, le chemin saut par saut est connu et les
informations de délai ou de bande passante peuvent être utilisées pour effectuer la réservation
de ressources pour la route répondant aux besoins de QoS. Par conséquent, chaque noeud aura
la connaissance des caractéristiques des liens vers ses voisins immédiats grâce à la transmission
périodique de paquets de signalisation. Il peut donc ainsi sélectionner efficacement les voisins
à qui transmettre les demandes de route. Plus un flux de données aura de contraintes, plus on
associera de tickets à la demande correspondante; Le nombre de tickets généré est fonction de
la précision des informations d’états disponibles à la source et les besoins de QoS de la
communication. Deux problèmes sont étudiés: Etablir des routes, les plus proches de l’optimal
possible, de moindre coût avec des contraintes de délai (NP complet). Etablir des routes de
moindre coût avec des contraintes de débit (solvable en temps polynômial). Afin d’augmenter
la probabilité de trouver une route, deux types de tickets sont utilisés: Des tickets jaunes : Pour
permettre rechercher des chemins respectant la contrainte imposée. Des tickets verts : Pour
permettre d’obtenir des solutions à faible coût. Malgré le fait que les noeuds ne connaissent que
leur voisinage immédiat, Ticket Based Probing est efficace car il permet de trouver des routes
avec une probabilité proche de celle des algorithmes basés sur l’inondation du réseau et
meilleure que des algorithmes recherchant un plus court chemin. Il permet en outre de trouver
des routes de plus faible coût que ces deux types d’algorithmes.

Principe de Ticket Based Probing- source O.Bamouh / H.Lalaoui

c. CEDAR : CEDAR ou (Core-Extraction Distributed Ad hoc Routing Algorithm) est un


protocole réactif avec qualité de service basé sur une élection dynamique d’un coeur de réseau
stable. Le processus distribué d’élection de ces noeuds est local et dynamique. Le rôle des
noeuds du cœur est de propager efficacement des informations sur la bande passante disponible
dans les liens, d’assurer le routage dans le réseau en impliquant un minimum de noeuds dans
ce processus et de limiter autant que possible les diffusions. La distance de propagation des
informations dépend de la qualité du lien en terme de stabilité et de bande passante disponible.
CEDAR repose sur l’utilisation de protocoles d’accès au canal de type CSMA/CA minimisant
les risques de collision qui doivent être capables d’estimer la bande passante disponible sur les
liens. Les noeuds à l’extrémité des liens mesurent les variations de bande passante sur ces liens
et propagent ces informations. Afin de résoudre les problèmes liés à la mobilité, on conserve
des routes de secours utilisées pendant le temps de reconstruction de la route principale lorsque
celle-ci est perdue. La reconstruction peut être locale, à l’endroit de la cassure ou être à
l’initiative de la source. Il est basé sur trois composantes essentielles : – Extraction d’un coeur
du réseau : un ensemble de noeud est dynamiquement choisi pour calculer les routes et
maintenir l’état des liens du réseau. L’avantage d’une telle approche est qu’avec un ensemble
réduit de noeuds les échanges d’information d’état et de route seront minimisés, évitant ainsi
plus de messages circulant dans le réseau. En outre, lors d’un changement de route, seuls les
noeuds du coeur serviront au calcul. – Propagation d’état de lien : Les noeuds à l’extrémité des
liens mesurent les variations de bande passante sur ces liens et propagent ces informations.
L’objectif est d’informer les noeuds distants sur les liens de grande capacité, alors que les liens
de faible capacité reste connus au niveau local (ces noeuds n’ont pas une information sur la
topologie globale du réseau). Calcul de route : celui-ci est basé sur la découverte et
l'établissement d’un plus court chemin vers la destination satisfaisant la bande passante
demandée. Afin de résoudre les problèmes liés à la mobilité, on conserve des routes de secours
utilisées pendant le temps de reconstruction de la route principale quand cette dernière est
perdue. La reconstruction peut être locale, à l’endroit de la cassure ou être à l’initiative de la
source. Les noeuds du coeur du réseau auront plus de trafics à gérer, en plus des messages de
contrôle (pour la découverte et la maintenance des routes). En outre, en cas de forte mobilité,
la convergence de l’algorithme est difficile à atteindre
d. AODV avec qualité de service :

Le protocole de routage AODV avec QOS a pour objectif de : 1. • Introduire une métrique plus
appropriée que la distance (nombre de sauts). 2. • Faire face aux changements fréquents de la
topologie due à la mobilité des noeuds. AODV se base sur un algorithme « à la demande » cela
veut dire qu'il ne construit des routes entres noeuds que lorsqu'ils sont demandés par des noeuds
sources. L’ajout dans les paquets de contrôle d’un champ ‘route response’ RREP associé au
paramètre délai ou au paramètre bande passante, À la réception d’un message ‘route request’
RREQ ajouté également. Du fait que les informations suivantes sont ajoutées dans la table de
routage: bande passante minimale, délai maximum, et la liste des sources qui ont demandé des
garanties de délai ou de bande passante.

Chaque mobile vérifie s’il est en mesure d’honorer le service demandé, avant de retransmettre
le message. Si un nœud détecte que la QoS demandée n’est pas satisfaite alors il envoie un
message à la source ayant initiée cette demande de QoS, pour l’informer. Une métrique appelée
BWER (Bandwidth Efficicency Ratio) est utilisée pour l’estimation de la bande passante
résiduelle au niveau de chaque noeud. C’est la ration entre le nombre de paquets transmis et
reçus. A un saut, ce protocole messages Hello pour collecter les informations de bande passante
des mobiles dans son voisinage. La bande passante résiduelle d’un mobile est égale au
minimum de la bande passante résiduelle estimée par ce mobile et de celle des mobiles dans
son voisinage à un saut.

2.3 Les protocoles de signalisation

Le but des protocoles de signalisation est de fournir un moyen de propagation des informations
de contrôle à travers un réseau. Les informations transmises peuvent être de différentes natures.
Il peut s’agir d’informations topologiques, de demandes de recherche de routes satisfaisant
certaines contraintes ou encore de rapports sur l’état du réseau et la disponibilité des ressources.
De ce fait, la conception d’un protocole de signalisation consistera à définir les données et la
manière de les échanger pour la réalisation d’une tâche particulière. a. INSIGNIA : INSIGNIA
fut le premier système de signalisation in-band permettant la QoS pour les MANET en 1998.
Comme c’est un protocole qui repose sur la signalisation in-band, les messages de contrôle sont
alors encapsulés comme une option dans les paquets de données IP, ce qui permet de réduire
l’overhead généré par les messages de signalisation, et ce afin d’éviter de surcharger le réseau
; Contrairement à une signalisation out-band. INSIGNIA supporte deux types de services
(temps réel et best effort). Il offre des algorithmes de réservation, restauration et d’adaptation
rapides pour répondre aux changements de topologie du réseau et aux dégradations des liens .
INSIGNIA offre des garanties sur la base d’une granularité par flot aux applications adaptatives
capables de modifier leur comportement en fonction de la quantité de bande passante qui leur
est allouée. Ainsi, chaque application spécifie deux niveaux de qualités de service : Le niveau
de base (TR: Temps Réel) : Permet de spécifier la bande passante minimale nécessaire au trafic
c’est le niveau dégradé. Le niveau amélioré (BE : Best Effort) : Permet de spécifier le débit
optimal à atteindre lorsque les ressources sont disponibles. Description de l'algorithme de
réservation de ressources: La demande de réservation est effectuée lors de l’envoi du premier
paquet de données avec le champ INSIGNIA Option (20 bits). Le bit Reservation Mode
indiquant si ce paquet est en cours de réservation (REQ) ou s'il a déjà réservé des ressources
(RES). Dans le cas REQ, le paquet est envoyé au module INSIGNIA qui va se charger de la
suite du traitement. Le module INSIGNIA va alors définir si des ressources peuvent être
allouées à ce paquet ou non. Si les ressources peuvent être allouées, le champ Service Type est
mis à RT, sinon, il est descendu à BE. Dans les deux cas le paquet sera transmis au prochain
nœud et la demande de réservation sera rafraîchie. Arrivé à la destination, le paquet contient
donc soit la valeur RT soit la valeur BE La quantité de bande passante demandée par le paquet
se trouve dans le champ Bandwidth Request, qui indique un minimum et un maximum pour
cette valeur. En se basant sur cette information, le module INSIGNIA peut déterminer la
quantité de bande passante à attribuer. Enfin le bit Bandwidth Indicator est un drapeau utilisé
par le récepteur pour savoir si la demande de bande passante maximale a été satisfaite. Le
destinataire informe donc la source de l’état de la route en envoyant des rapports de QoS (QoS
Reporting), qui contiennent des statistiques sur la latence, le taux de perte et le débit, afin qua
le source puisse réguler son débit d’émission. Lorsque le débit d’un flux ne peut plus être assuré,
la destination est chargée d’avertir la source afin qu’elle prenne les mesures adéquates.
Lorsqu’un flux transite à débit réduit dans le réseau, la disponibilité de nouvelles ressources est
signalée à la destination qui, encore une fois, avertit la source explicitement. Ce qui permettra
de réagir rapidement aux changements de topologie. Il faut noter que dans certaines situations,
des nœuds peuvent être des goulots d'étranglement pour diverses raisons. Cela signifie que tous
les flux qu'ils vont transmettre vont être dégradés. Il est important de rappeler que INSIGNIA
est seulement un protocole de signalisation. On doit l'associer à un protocole de routage tel que
AODV ou DSR qui va détecter les changements de topologie et mettre à jour les tables de
routage. On a aussi besoin d'un module de contrôle de disponibilité des ressources ainsi que
d’un mécanisme de contrôle d'admission qui va allouer les ressources. Les simulations montrent
que ce mode de réservation est très rapide. INSIGNIA possède néanmoins quelques lacunesUn
problème de passage à l'échelle. En effet, INSIGNIA suit le modèle Intserv et le problème du
maintient de l'état des flux dans chaque nœud ne peut pas être évité. La gestion de la bande
passante n'est pas très optimale car la réservation effectuée avant un goulot d'étranglement est
perdue. Meme si ce gaspillage ne dure que pendant un temps limité, car la source va rapidement
être informée du problème. INSIGNIA ne propose que sur deux classes de service: RT ou BE,
une granularité plus fine pourrait permettre plus de flexibilité pour les applications.

b.Dynamic Qos / dRSVP

Dans les protocoles usuels, les applications demandent une quantité précise de bande passante.
Très souvent, le même niveau de service est conservé durant toute la transmission. Les auteurs
de Dynamic QoS remettent en cause cet aspect statique de la réservation de bande passante.
Lors de la demande de réservation, les applications ne spécifient pas une valeur précise mais
un intervalle de valeurs. La borne inférieure représente le débit nécessaire au fonctionnement
de l’application et la borne supérieure le débit maximal qui pourra être atteint. Lors de la
confirmation de réservation, le réseau indique à l’émetteur la quantité de bande passante qui lui
a été effectivement allouée. D’autre part, on considère souvent qu’un lien a une capacité fixe
mais sur le canal qu’est l’air, cette capacité est variable. Dans Dynamic QoS, la quantité de
bande passante réservée par les applications peut être modifiée en cours de transmission, soit
l’initiative du réseau dans le cas où les ressources deviennent rares ou se libèrent, soit l’initiative
de l’application émettrice elle-même afin de libérer des ressources dans le réseau. Si cette
approche est originale et peut permettre de diminuer la probabilité de rejet des demandes de
réservation, elle nécessite un accord entre les différents émetteurs s’il n’y a pas d’administration
centralisée. Elle pourrait être très efficace dans des réseaux avec AP.

III- . Modéles de qualité de service dans les réseaux ad-hoc

Actuellement les travaux qui ont été réalisés pour offrir une meilleure qualitéde service pour
les applications multimédia reposent sur certains aspects liés aux réseaux ad hoc qui sont, les
modèles de qualité de service pour les MANETs en plus de l’introduction de la différenciation
de service au niveau de la couche MAC. Ces travaux se sont inspirés de ce qui a été réalisé pour
les réseaux filaires pour intégrer les aspects tels que : – L’adaptation de la puissance d’émission
en maximisant cette puissance pour les trafics prioritaires ; Le partage de charge entre les
différents noeuds du réseau ; – L’économie de batterie en essayant de trouver le chemin le plus
court afin d’économiser l’énergie consommée. Définition d’un modèle de qualité de service Un
modèle de qualité de service décrit un ensemble de services bout-en-bout, qui permettent aux
clients de sélectionner un nombre de garanties qui gouvernent des propriétés telles que le temps,
l’ordonnancement et la fiabilité. Le modèle de qualité de service spécifie l’architecture qui va
nous permettre d’offrir un service meilleur que celui offert par le modèle best-effort
traditionnel. Cette architecture doit prendre en considération les défis imposés par les réseaux
ad hoc, comme le changement de la topologie et les contraintes de délai et de fiabilité.
Cependant, des modèles tels que Intserv/RSVP [18], proposés pour les réseaux filaires, ne
prennent pas en compte les contraintes de limitation de ressources imposées par les réseaux ad
hoc. 3.1 Les modèles standard existants a. IntServ Le premier modèle s'appelle " Services
Intégrés " ou IntServ. Il utilise un concept basé sur la réservation ou chaque application transmet
ses conditions à tous les nœuds de réseau traversés jusqu'au nœud de destination. Quand tous
les nœuds ont acceptés les conditions, l'application commence l'acheminement de ses données.
IntServ aborde la qualité de service en reprenant le concept du " meilleur effort " et en y
rajoutant le support du trafic en temps réel. Le modèle IntServ est donc un modèle incluant le
concept du " best effort ", un service en temps réel, et un partage de lien contrôlé. Le modèle
de service gère deux sortes de trafic en temps réel : garanti et prévisible. Les services intégrés
nécessitent des routeurs capables de réserver des ressources (telles qu'une quantité fixe de bande
passante) pour différents flux de trafic. Cependant, IntServ, en rendant possible la réservation
de ressources, permet des requêtes très précises en terme de qualité de service. Les clients
obtiennent donc soit exactement ce qu'ils ont demandé soit leur requête échoue. La réservation
de ressources est demandée par le récepteur, il émet une requête de QoS correspondant à ses
besoins. Celle-ci parvient à l'émetteur sous forme d'un message RSVP. Ce mode d'attribution
de ressources à l'avantage d'être effectué par le récepteur qui, ainsi, peut demander une QoS
adaptée à ses besoins et à la consommation désirée. Principe de Fonctionnement du protocole
IntServ - source O.Bamouh / H.Lalaoui Pour assurer un chemin unique au cours d'une
communication, il faut que les systèmes terminaux fonctionnent en mode connecté. Cependant,
RSVP n'assure pas un mode connecté avec les routeurs et une mise à jour dynamique de la
réservation est nécessaire. Les récepteurs sont donc obligés de d'envoyer périodiquement des
messages RSVP aux routeurs assurant le chemin. Les requêtes RSVP sont des messages de
différentes natures permettant à l'émetteur comme au récepteur d'avoir un chemin dédié de
transfert

Principe de Fonctionnement du protocole IntServ - source O.Bamouh / H.Lalaoui Pour assurer


un chemin unique au cours d'une communication, il faut que les systèmes terminaux
fonctionnent en mode connecté. Cependant, RSVP n'assure pas un mode connecté avec les
routeurs et une mise à jour dynamique de la réservation est nécessaire. Les récepteurs sont donc
obligés de d'envoyer périodiquement des messages RSVP aux routeurs assurant le chemin. Les
requêtes RSVP sont des messages de différentes natures permettant à l'émetteur comme au
récepteur d'avoir un chemin dédié de transfert.

Routeur à intégration de service,

Notons que RSVP fournit une qualité de service tenant compte des modifications de ressources.
En revanche, le problème majeur du modèle IntServ/RSVP est celui du facteur d’échelle car il
maintient des états par flux, ce qui pose certains problèmes lors du passage à l’échelle. En effet
plus le nombre de flux à gérer est important plus la charge de traitement devient insupportable.
Les Integrated Services (IntServ) vont permettre de gérer des flux entiers de données. Les
routeurs implémentant ce modèle sont capables de séparer les flux pour les traiter
individuellement. Il apparaît tout de suite que des mécanismes complexes vont être nécessaires
pour isoler et traiter chaque flux. Ce modèle propose deux classes de service en plus du Best
Effort: Le Guaranteed Service proposé aux applications ayant des contraintes sur les délais. Le
Controlled Load Service proposé aux applications requérant un service Best Effort amélioré,
plus fiable. IntServ se compose de plusieurs composants: la signalisation, le contrôle
d'admission, la classification des flux, et l'ordonnancement des paquets. La signalisation
permettant la réservation de ressources est assurée par le protocole RSVP (Resource
ReSerVation Protocol). La fonction du contrôle d'admission est de bloquer les flux dont les
ressources demandées ne sont pas disponibles. Ce contrôle est opéré par chaque routeur sur le
chemin. Chacun d'entre eux va accepter ou rejeter la demande de service suivant l'état actuel du
réseau. Les routeurs indiquent à l'application, via RSVP, si le besoin de QoS peut être satisfait
ou non. Ensuite la classification des flux est, elle aussi, effectuée par chaque routeur. Cette
phase complexe permet de séparer les flux et d'insérer les paquets entrant dans les files d'attente
appropriées. Enfin, l'ordonnanceur gère l'ordre de sortie des paquets des files d'attente afin
d'assurer la QoS demandée.

le modèle Intserv Ce modèle n'est pas applicable aux MANETs car: Les informations sur les
flux augmentent proportionnellement au nombre de flux gérés. Il n'y a pas d'agrégation. Ce
problème de passage à l'échelle n'est pas spécifiques au MANETs, on le retrouve aussi dans
l'internet. La maintenance de cette quantité d'information par des terminaux mobiles dont les
ressources sont limitées n'est pas envisageable. Même si aujourd'hui les MANETs restent de
petite taille et ne sont destinés à gérer qu'un nombre restreint de flux, cette solution n'est pas
viable à long terme, puisqu'il est probable que les MANETs vont être amenés à se développer.
Les paquets de signalisation RSVP utilisent une quantité non négligeable de bande passante sur
des liens déjà limités. Chaque nœud doit se charger de gérer le contrôle d'accès, la classification
et l'ordonnancement des flux. C'est une charge trop importante pour des terminaux aux
ressources limitées. b. DiffServ Le deuxième modèle, " Services Différenciés " ou DiffServ,
utilise une technique de marquage des paquets (chaque paquet est tagué d'un code dans son
entête IP pour indiquer à quelle classe de trafic il appartient. Les commutateurs traversés sur le
chemin manipulent donc les paquets différemment en fonction de la classe de service à laquelle
ils appartiennent Le comportement à chaque nœud du réseau est en effet choisi en se basant sur
la classe de chaque paquet. Diffserv emploie le champ ToS dans l'en-tête d'IP pour déterminer
à quelle classe un paquet spécifique appartient.
Principe de Fonctionnement du protocole DiffServ - source O.Bamouh / H.Lalaoui L'émetteur
de flux spécialisé, au travers du champ "Type Of Service", spécifie une classe de service qu'il
souhaite donner à ses paquets. Au cours de son voyage dans le réseau, ce paquet traverse des
modules (routeurs) qui, équipés d'algorithmes (Packet Classifier), lisent le champ TOS. Ensuite
un répartiteur de paquet (Packet Scheduler) met en œuvre le traitement différencié en lui
affectant une discipline de service adaptée (file d'attente spécialisée). Rappelons que les
routeurs sont soumis à de grands nombres de demandes qui les obligent à gérer des files
d'attente. La stratégie des services différenciés (Diffserv) est apparue pour faire face à la
complexité et au coût de l'approche " Services Intégrés ". Cette approche est différente d'IntServ
par son concept de classification des flux. Le Differenciated Service (DiffServ) est destiné à
combler les défauts d'IntServ. On cherche à supprimer le problème de passage à l'échelle en
définissant des classes permettant d'agréger plusieurs flux. Ainsi, tous les flux appartenant à
une même classe reçoivent le même service. Deux types de routeurs sont donc définis: Les
routeurs de bord (Edge Routers), chargés de la classification, du marquage et du maintient de
l'état des flux. Les routeurs de cœur (Core Routers), chargés uniquement de l'acheminement des
paquets selon le marquage. La complexité de ce dispositif se trouve donc dans les bords,
puisque l'acheminement par les routeurs de cœur est très simple et rapide. C'est un bon
compromis entre complexité et garantie de service dans l'internet.
Le modèle DiffServ

L’avantage de ce modèle est qu’il offre des classes de QoS sans modifications en terme de
gestion du trafic et il fournit des solutions de continuité par rapport au service au mieux (best
effort) traditionnel. En plus, il permet le passage à l’échelle pour les données. Par rapport à
IntServ, on perd en terme de flexibilité et de fermeté des garanties. Le problème du plan de
contrôle reste entier (comment réaliser un contrôle d’admission sans maintenir d’état par flux
?). Dans le cas du multicast, les choses se compliquent davantage, en effet aucune approche n’a
été proposée sur la façon de dimensionner le réseau et de conditionner un trafic de multicast.
Malheureusement, ce modèle ne convient pas aux MANETs car la question de la définition des
routeurs de bord et des routeurs de cœur reste très ambiguë dans ces réseaux. Intuitivement, la
source fait parti des routeurs de bords et les nœuds du chemin font parti des routeurs de cœur.
Mais dans les MANETs, chaque nœud doit pouvoir jouer les deux rôles à la fois, puisqu'il peut
être source d'une communication et relais pour une autre. Cela engendrerait donc une charge
trop importante sur tous les nœuds du réseau. 3.2 Les principaux modèles utilisés a. FQMM
(Flexible quality of service model for MANETs) Les concepteurs du modèle FQMM prennent
en compte le fait que les réseaux ad hoc pourraient, à terme, être connectés à des réseaux filaires
de type Internet. Il apparaît dès lors nécessaire d’offrir un mécanisme de qualité de service
suffisamment proche des protocoles filaires afin de s’interfacer avec ces derniers. Le modèle
repose sur une architecture réseau plate (non hiérarchique), constituée d’une cinquantaine de
noeuds mobiles. Il combine les propriétés des modèles filaires IntServ et DiffServ, en offrant
une méthode d’approvisionnement hybride : par flux, pour les trafics prioritaires. par classe,
pour les autres trafics

Afin d’obtenir les deux types de granularité (par flot ou par classe) des modèles filaires, FQMM
définit plusieurs classes de service dont la plus haute permet à chaque flux de spécifier les
contraintes qui lui sont propres. A l’image de DiffServ, FQMM définit trois types de noeuds :
Les noeuds d’entrée (émetteurs) Les nœuds intermédiaires Les noeuds de sortie (récepteurs).
Les noeuds d’entrée permettent de marquer et classifier les paquets, qui seront ensuite relayés
par les noeuds intermédiaires suivant leurs PHB (Per Hop Behavior), jusqu’à arriver au noeud
destinataire. Ce modèle repose essentiellement sur la couche IP, où les fonctionnalités sont
séparées en deux grands plans : le plan relayage de données et le plan contrôle et gestion.
Compte tenu du fait que dans un réseau ad hoc, chaque noeud assure la fonction de routeur,
chaque mobile joue différents rôles pour différents flux. Le conditionnement du trafic (lissage,
marquage, etc.) est à la charge des émetteurs. FQMM requiert l’utilisation d’un protocole de
routage capable d’offrir une certaine qualité de service, c'est-à-dire capable de rechercher des
routes satisfaisant certaines contraintes. Dans ce modèle, le protocole de routage est supposé
fournir des routes ayant suffisamment de ressources. Par son approche hybride, FQMM entend
résoudre certains problèmes liés aux modèles filaires. De plus, la résolution de la plupart des
problèmes liés au fonctionnement Ad Hoc (volume de signalisation, consommation d’énergie,
bande limitée et difficile à estimer) est laissée à la charge du protocole de routage sousjacent.
L’avantage d’une telle approche est la possibilité d’interfacer le réseau avec l’Internet, vu les
mécanismes de qualité de services offerts qui sont proches des protocoles filaires. Cependant,
plusieurs mécanismes ainsi que l’interaction avec la couche MAC restent à définir pour
s’adapter aux conditions variables du réseau ad hoc.
Le modèle FQMM - source O.Bamouh / H.Lalaoui

En revanche, ce modèle souffre de plusieurs problèmes : – L’absence de tout contrôle explicite


du nombre de services par flux offerts pose un problème de scalabilité, comme dans le cas du
modèle IntServ. – Dans DiffServ, les noeuds intermédiaires expédient les paquets selon leurs
PHB dans le champ DS. Il est donc difficile de coder le PHB dans le champ DS s’il contient
une granularité par flux (taille limitée du DS égale à un octet sans extension). – Il est très
difficile de faire un profil dynamiquement négocié du trafic. – La résolution de la plupart des
problèmes liés au fonctionnement ad hoc (tels que le volume de signalisation, la consommation
d’énergie et la bande passante limitée) est laissée à la charge du protocole de routage sous-
jacent b. SWAN (Service differentiation in wireless ad hoc networks ) Ce modèle fait partie de
ces protocoles mythiques cités dans presque tous les articles traitant de la qualité de service
dans les réseaux ad hoc, La philosophie du protocole est de ne pas garder d’état dans les noeuds
mais se base sur des algorithmes de contrôle distribués dans le but d’assurer une différenciation
de services dans les réseaux ad hoc. Ce modèle offre la priorité (au niveau paquet) aux trafics
temps réel en contrôlant la quantité de trafics best effort acceptée par noeud. Pour accepter un
nouveau trafic temps réel, le contrôle d’admission sonde la bande passante minimale disponible
sur la route (valide et obtenu par un protocole de routage). Une prise de décision est alors faite
à la source suivant la bande passante obtenue. Dans le but de maintenir la qualité de service des
trafics déjà acceptés, le débit des trafics best effort est régulé en utilisant comme paramètre, les
mesures de délais au niveau MAC. Un classificateur et un shaper qui permet de différencier les
deux types de trafic. Face à une congestion, les bits ECN (Explicit Congestion Notification) de
l’entête des paquets IP sont positionnés pour permettre à la source de re-initier le contrôle
d’admission. Si la route ne dispose pas d’assez de bande passante, le trafic est supprimé.
Plusieurs solutions sont proposées pour le choix des flux à ré-établir. L’idée est d’introduire un
mécanisme aléatoire dans le choix des flux à stopper afin de ne pas arrêter trop de flux en même
temps dans les endroits congestionnés. Si cette approche est assez simple, le fait d’être
indépendant d’un protocole de routage avec qualité de service peut conduire à un rejet de
certains flux, puisque les routes reconstruites seront très probablement les mêmes qu’avant la
congestion et que par conséquent il ne sera pas possible d’acheminer sur ces mêmes routes tous
les flux qui ont provoqué précédemment une congestion. Ceci dit, un flux prioritaire admis n’est
pas toujours sûr d’avoir des garanties pour l’entière durée de la communication, et peut être
violé à tout moment par d’autres demandes de trafics. Néanmoins un contrôle d’admission est
réalisé pour le trafic temps réel afin d’assurer certaines garanties. Ce contrôle d’admission se
base sur le calcul de la bande passante disponible sur le chemin qu’empruntera le flux (ce
chemin étant déterminé par un protocole de routage indépendant de SWAN). Or ce calcul
présente deux inconvénients la bande passante disponible au niveau de chaque noeud est
déduite du trafic temps réel perçu par chaque noeud et ne prend donc pas en compte la bande
passante consommée au niveau de la zone de détection de porteuse. Par ailleurs, le calcul de la
bande passante disponible sur le chemin ne prend pas en compte le fait que les paquets qui
traversent un lien consomment aussi de la bande passante sur certains autres liens du chemin.
Par conséquent, SWAN effectue une sur-estimation de la bande passante diponible. La
régulation du trafic Best Effort est effectuée grâce à un lissage de type AIMD : tant que le délai
n’a pas atteint une valeur seuil, le débit est augmenté de manière additive ; lorsque la valeur
seuil est atteinte ou dépassée, le débit est diminué de manière multiplicative. Cette valeur seuil
est importante. Selon les configurations considérées et la géographie des flux Best Effort, ces
derniers pourront avoir des impacts différents sur les débits des trafics temps réel. Par
conséquent, une bonne utilisation des ressources implique des valeurs seuils différentes sur les
noeuds selon les configurations
Le modèle SWAN

c. QPART (QoS Protocol for Ad hoc Real-time Traffic) Ce modèle se situe dans le même état
d’esprit que SWAN ceci par rapport à la différentiation de services entre différents types de
trafic et garanties pour certains trafics sans garder d’états dans les noeuds. QPART considère
trois types de trafic : le trafic sensible au délai, le trafic sensible à la bande passante et le trafic
Best Effort. La garantie des contraintes et celle de la différentiation sont réalisés par des
modifications des tailles des fenêtres de contention pour les différents types de trafic. En ce qui
concerne les trafics sensibles au délai, la taille de la fenêtre de contention sur chaque noeud
dépend du délai connu par le paquet sur le lien précédent et de celui qu’il aurait dû avoir.
QPART n’effectue ni routage avec contraintes ni contrôle d’admission. Il n’agit donc que sur
la résolution de conflits, lorsqu’une congestion apparaît, en arrêtant certains flux dont le choix
se fait en fonction de leur priorité (l’âge d’un flux) : plus le flux est vieux, plus il est prioritaire
(la mise à jour est réalisée périodiquement), jusqu’à atteindre une priorité maximale. Chaque
priorité correspond à un seuil d’admission qui lui-même correspond à un temps libre moyen
entre deux périodes d’occupation du médium. Lorsqu’un temps libre moyen inférieur à ce seuil
est détecté par une station, le flux est arrêté pendant un certain temps. Si au bout de ce temps,
le temps libre moyen perçu pas la station est toujours inférieur à ce seuil alors le flux est
définitivement rejeté, sinon il est redémarré. Les choix de ces paramètres et de ces seuils sont
bien entendu les points clés de ce type d’approche. L’inconvénient de la solution est que chaque
lien est sensé avoir un délai similaire, ce qui n’est pas une hypothèse réaliste. De plus, le
traitement sur le délai ne prend aucunement en compte l’impact qu’il peut avoir sur les délais
des autres flux existants dans le réseau. Pour les trafics sensibles à la bande passante, la
modification de la fenêtre de contention est fonction de la taille de la file d’attente dédiée à ce
flux. Cette file doit rester de taille constante pour garantir le débit du flux. Cela implique donc
que si un flux subit beaucoup de collisions, sa file d’attente va grossir et il va donc diminuer sa
fenêtre de contention pour réduire la taille de sa file, ce qui peut générer encore plus de
collisions. Une telle approche peut être consommatrice de ressources inutilement. Pour les flux
Best Effort, la taille de la fenêtre de contention est régulée en fonction d’un seuil de congestion.
Ce seuil correspond à un temps libre moyen entre deux périodes d’occupation du médium. Si
le temps libre moyen détecté est inférieur à ce seuil, alors la station considère que le médium
est congestionné et va donc augmenter sa fenêtre de contention ; si en revanche le temps libre
moyen détecté est supérieur à ce seuil, alors la station considère qu’il reste de la bande passante
de libre et qu’elle peut donc émettre plus de trafic Best Effort en diminuant sa fenêtre de
contention. Avec ce type d’approche, la même remarque que pour SWAN peut être faite : ce
seuil est très dépendant de la configuration et ne peut être choisi de manière fixe comme c’est
le cas dans QPART

Le modèle QPART d.

Modèle iMAQ Ce modèle fournit le support des transmissions des données multimédia dans un
MANET. Il inclut une couche ad hoc de routage et une couche de service logiciel (Middleware).
Dans chaque noeud, ces deux couches partagent les informations et communiquent afin de
fournir les garanties de QoS aux trafics multimédia. Le modèle est basé sur la prédiction de la
position des noeuds (predictive location-based) et orienté QoS. La couche Middleware
communique également avec la couche application et la couche réseau et essaye de prévoir le
partitionnement du réseau. Pour fournir une meilleure accessibilité
Conclusion

En somme, Plusieurs contraintes sont liées au mode Ad Hoc et au médium sans fil, dont
notamment la peu fiabilité du médium, bande passante limitée, routage plus complexe,
beaucoup de contraintes physiques ( interférences…) Néanmoins, il existe toujours un
compromis entre le volume d’informations échangées (volumes et profils de trafics au niveau
de chaque noeud, mobilité des noeuds, etc.) et précision des garanties. Plus les noeuds sont au
courant de l’état du réseau, plus ils seront capables d’évaluer la capacité résiduelle de ce dernier.
Nous avons en outre présenté les architectures proposées par les groupes de travail IntServ et
DiffServ et qui se sont montrés inadaptés aux réseaux Ad Hoc. Nous avons explicité par la suite
l’émergence de nouvelles techniques telle FQMM qui combine les propriétés des modèles
filaires IntServ et DiffServ, en offrant une méthode d’approvisionnement hybride: par flux
(pour les trafics prioritaires) et par classes (pour les autres flux), la technique SWAN qui se
base sur des algorithmes de contrôle distribués, la QPART qui rejoint le même état d’esprit que
la SWAN, ceci par rapport à la différentiation de services entre différents types de trafic et aussi
par rapport à la garantie offerte pour certains trafics sans se soucier de l’état des noeuds tout en
considérant trois types de trafic: le trafic sensible au délai, le trafic sensible à la bande passante
et le trafic Best Effort. Le dernier modèle traité iMAQ fait la transmission des données
multimédia dans un MANETen incluant une couche Ad Hoc de routage et une couche de service
logiciel. Un travail important serait de fournir une base d’évaluation standard des différentes
solutions définissant les scénarios, les outils et les paramètres de simulations possibles. Dans
un futur proche, un grand nombre de travaux devront être menés pour aboutir à une
connaissance suffisante des spécificités de ces réseaux. Alors, un travail fédérateur pourra peut
être effectuée afin de concevoir « la solution de qualité de service pour les réseaux Ad Hoc »

Vous aimerez peut-être aussi