Vous êtes sur la page 1sur 4

A N A L Y S E Architecture rseau

DU CLOUD COMPUTING LEDGE COMPUTING


Le passage dune architecture one-to-many, centre sur le cloud, vers ledge computing peut allger le trafic 1
sur linfrastructure rseau, rduire le temps de latence et amliorer la gestion nergtique.

Ledge computing amliore


les performances de lInternet
des objets
LInternet des objets (IoT) va transformer la faon dont nous interagissons
avec les objets connects et la faon dont ces objets interagissent entre eux.
Mais pour manipuler et stocker lnorme quantit de donnes gnres par
lIoT, il faut faire voluer l'architecture informatique du rseau. Comment? En
passant dune architecture centre sur le cloud une architecture de calcul
rpartie et renforce au niveau des quipements en bordure de rseau, situs
au plus prs des capteurs. Cest ce que lon appelle ledge computing.

P
our rpondre aux besoins de computing, mais le traitement ralis lrateurs spcialiss, vont devenir de
traitement et danalyse en en priphrie, dans les nuds termi- plus en plus populaires. Cet assem-
temps rel des donnes de naux eux-mmes ou au sein de pas- blage constitue en effet un moyen
lIoT, deux modifications fondamen- serelles intelligentes locales, pourrait puissant de rpondre aux exigences
tales doivent imprativement tre lavenir contribuer une meilleure de performances de tous les types de
apportes lInternet et ses res- gestion des besoins gnrs par lIoT. dispositifs et dquipements, des
sources de calcul. Dabord, larchi- Par ailleurs, bien que trs puissants, capteurs jusquaux serveurs de don-
tecture globale du rseau doit tre les processeurs multicurs actuels nes.
r-envisage; il faut en effet passer ne seront plus assez performants
R-envisager l'architecture
dune architecture centre sur le pour rpondre aux exigences de
du rseau lui-mme
cloud (de type one-to-many) une calcul de demain. En revanche, des
topologie o des ressources impor- solutions de traitement htrogne, Intressons-nous dabord la
tantes de calcul sont distribues en en particulier celles qui combinent manire dont lIoT est actuellement
bordure de rseau. Bien videm- un CPU un GPU (unit de traite- architectur. Pour le moment le
ment, il y aura toujours du cloud ment graphique) et dautres acc- dogme qui prvaut veut que tout doit

18 / LEMBARQU / N12 / 2016


Architecture rseau A N A L Y S E

LAVNEMENT DU TRAITEMENT HTROGNE

n Au niveau du nud IoT lui-


mme, un changement dans le LA PROGRESSION DE LINTGRATION AU SEIN DU MODLE APU
type de ressources affectes au En 2011, AMD a mis sur le march une APU associant un CPU un GPU dusage gnral
traitement de donnes savre utilis jusqualors pour assurer des calculs parallles. Cette premire tape fut suivie
galement ncessaire. Aujourdhui, dune phase dintgration physique qui a consist dplacer des entits externes connectes
le foss entre les CPU et les GPU la puce via le bus PCI pour les embarquer directement sur le SoC.
sest largement combl grce au
concept dHeterogeneous Com-
puting (ou de traitement htro-
gne) qui consiste rassembler
plusieurs types de processeurs
au sein dune seule unit de
traitement acclr, lAPU (Acce-
lerated Processing Unit). Ce qui
va dans le sens de lIoT, puisque
le traitement htrogne, bas
en particulier sur lutilisation du
GPU comme coprocesseur pour
excuter des tches parallles
complexes, est une caractristique
intrinsque de nombre dappli-
cations de lInternet des objets.
n Un exemple particulirement
significatif est donn par la vido-
surveillance o le flux vido est
dabord trait par un GPU afin de
procder des dtections (ven-
tuelles) de visage. Cette tche de nologie GPU conduit ici une plus processeur. Ainsi, au lieu de en somme lavnement du
reconnaissance faciale nest pas grande efficacit de traitement. changer despace mmoire, on ne write once, run many (pro-
triviale, mais une fois quun visage n Reste le problme du partage de dplace que des pointeurs. Avec le grammer une fois et excuter
est dtect, lensemble des don- lespace mmoire et de la gestion support fourni par la spcification sur plusieurs architectures) sur
nes concernes peut ensuite tre des deux sous-systmes mmoire. HSA Foundation 1.0, des langages de multiples plates-formes, des
envoy un CPU traditionnel pour Les dernires APU rsolvent cet classiques comme le C++ peuvent tlphones intelligents jusquaux
tre confront aux donnes stoc- aspect architectural en intgrant alors tre utiliss pour programmer centres de donnes en passant
kes dans une table de recherche. une mmoire cohrente pour les applications indiffremment par les passerelles priphriques
Une meilleure matrise de la tech- ladressage des deux types de sur le CPU et le GPU. On assiste et les systmes embarqus.

tre fait et gr dans le cloud et que ouverte ou ferme sapparente un vhicule autonome qui a des exi-
la communication client-cloud est le signal binaire. On peut donc se per- gences fortes en termes de latence et
modle unique et indpassable pour mettre de coder cette activit avec de fiabilit des donnes. Il est pro-
lIoT. Or il faut se rappeler quil y une frquence de 1Hz, voire moins. bable dans ce cas que lobjet voi-
aura quelque 26 milliards de nuds Comparons ce cas avec celui dun ture va envoyer ses donnes de
terminaux au sein de lIoT en
2020. Ce qui implique que TOPOLOGIE VOLUE POUR LIoT
toutes les donnes, quelles Une topologie IoT volue ne connecte pas chaque nud au cloud. Les connexions 2
viennent dun thermostat, sont plutt tablies ou annules selon les besoins en ressources et en communication.
dun capteur, dune mesure
de trafic routier, dune usine
automatise ou dune camra
de surveillance, devront
remonter dans le nuage. Ce
nest pas raisonnable. Car
tous ces dispositifs ont des
caractristiques radicalement
diffrentes. Par exemple, cer-
tains exigent un faible temps
de latence, dautres ont
besoin dune bande passante
leve, et dautres encore ne
communiquent que trs rare-
ment.
Soyons plus prcis. Dans le
cas dune application de
domotique intelligente, le fait
quune porte de garage soit

LEMBARQU / N12 / 2016 / 19


A N A L Y S E Architecture rseau

reconnaissance faciale ou un point


TOPOLOGIE AVEC DES PASSERELLES IoT
Une passerelle IoT offre des ressources locales de traitement lendroit o elles 3 de vente automatique intelligent
sont ncessaires. Elle est la fois plus rapide et facilement chelonnable pour plus
contrle gestuel. Ce traitement en
de connexions et plus de services selon les besoins. Les dcisions peuvent par exemple local peut inclure le transcodage
tre prises localement au niveau dune camra de vidosurveillance plutt quau niveau vido, le traitement et lamlioration
du cloud, ce qui ncessite, dans ce dernier cas, la transmission en streaming du contenu de limage ou le rendu graphique. En
vido pour son analyse. fait, plus le traitement impliqu est
lourd tout particulirement si le
temps de rponse est crucial, plus
le traitement par des CPU, des GPU
ou des DSP est ncessaire au plus
prs de la source.
Quelle volution
pour un rseau ddi IoT?
Dplacer lintelligence la priph-
rie est donc la cl de lvolution du
rseau, le rendant plus efficace pour
les applications, les nuds et les
capteurs de lIoT. Mais cest une ten-
dance encore jeune. La nouvelle
topologie du rseau IoT devra se fon-
der, dune part, sur des ressources
locales et, dautre part, sur des
connexions selon les besoins vers
dautres ressources et le cloud
(figure2). Avec, dans certains cas, un
regroupement de nuds qui indivi-
tlmtrie en quelques millisecondes lit, ce dont on a besoin avec lInter- duellement ne rclament pas de
voire plus rapidement. Lajout net des objets, cest de garantir capacits de calcul spcifiques.
des donnes mises par une multi- lvolutivit et linteroprabilit du Si cette volution est logique dans
tude de vhicules lensemble du dploiement des applications dune certaines applications comme les
trafic global sur Internet, que celui-ci manire trs souple. terminaux de points de vente (POS,
vienne de Skype, Netflix, YouTube Par ailleurs, ce que lon voit actuel- Point-Of-Sale) ou les consoles de
ou dautres sources, et lenvoi simul- lement sur un rseau, ce sont des flux jeux multimdias, dautres appareils
tan de toutes ces donnes vers le dynamiques o il question de IoT ne ncessitent pas en effet de
cloud posent alors un immense pro- paquets et de commutateurs aptes fortes capacits de traitement. A titre
blme, surtout si ces vhicules auto- les aiguiller au sein de linfrastruc- dexemple, les contrleurs ou les
nomes sont en attente de rponses ture. Mais avec lIoT, tout est une vannes de pipelines distants nen-
rapides. question de donnes. Prenons voient quoccasionnellement des
Conclusion: la topologie du rseau lexemple frappant de la vido. donnes; ces groupes de nuds
et la distribution des ressources de Aujourdhui, les deux tiers du trafic peuvent donc tre contrls par une
calcul devront tre penses diffrem- sur Internet sont lis la transmission seule passerelle IoT qui elle-mme
ment avec la monte en puissance dimages. Et dans les trois prochaines fournit la connectivit vers un centre
de lIoT. Ce mouvement est dj en annes, ces flux reprsenteront prs de donnes dans le cloud (figure3).
marche. Que ce soit dans une usine, de 80% du trafic. Paralllement, les Dautres nuds IoT tels que des
la maison ou au sein-mme de lin- flux vido sur Internet qui alimentent camras de surveillance pourraient
frastructure, on commence voir les tlviseurs ont doubl de volume de leur ct bnficier dune passe-
apparatre de nouvelles technologies entre 2012 et 2013 et cest une mul- relle puisquils ont besoin de com-
situes plus prs de la priphrie du tiplication par quatre qui est atten- muniquer des donnes uniquement
rseau et capables de prendre des due dici 2018. Le trafic li la lorsquun vnement survient, lors-
dcisions en local sans ncessiter vido la demande pour le grand quun mouvement est dtect, lors-
une transmission de donnes vers le public devrait galement doubler quun visage est reconnu
cloud (figure1). dici 2018. (Source: Cisco, http:// Lvolution vers ce modle de traite-
On aboutit donc une solution IoT www.cisco.com/c/en/us/solutions/ ment dit edge computing, fonde-
en bordure de rseau diffrente de collateral/service-provider/visual-net ment dune architecture volue de
celle implmente dans le cur de working-index-vni/white_paper_c11- rseau IoT, positionne le traitement
rseau et diffrente aussi de celle 520862.html). au plus prs de lendroit o il est per-
prsente dans le centre de donnes Face de telles volutions, il devient tinent. Il se traduit par de meilleures
principal. Avec, en corollaire, trois essentiel deffectuer le traitement performances et un meilleur service,
piles logicielles distinctes gres par vido en local, proximit du termi- une diminution du trafic et une
des quipes de dveloppement asso- nal distant, surtout pour un nud IoT rduction de latence.
cies, elles aussi diffrentes. En ra- comme une camra de scurit Scott Aylor (AMD)

20 / LEMBARQU / N12 / 2016


Donnez vie
vos projets
ARONAUTIQUEMILITAIRE
AGROALIMENTAIRE/AGRICOLE
AUTOMOBILE/TRANSPORTSMART CITIES
MDICALINDUSTRIE 4.0
RECHERCHE ACADMIQUE

BADGE GRATUIT
MME LIEU
MMES DATES
www.enova-event.com
CONFRENCE SCIENTIFIQUE
CISEA2016 ENOVA ANGERS BNFICIE DU SOUTIEN DES PARTENAIRES CLS DE LA RGION
sur les Systmes Intelligents et
leurs Applications lectroniques