Vous êtes sur la page 1sur 9

PFE ( Partie 1 PROVISOIRE ) 

PLAN :

- Introduction Générale

-Chapitre 1 :

- Introduction sur L’Edge computing

- Définition de L’Edge Computing

-Historique

-Architecture De L’Edge Computing

- Avantages de L’Edge Computing

-Applications De L’Edge Computing

- Types de Edge computing

- Conclusion

Introduction générale  :

-Les opérateurs à l'ère de la 5G ont une opportunité significative de monétiser les capacités de leur
réseaux. De plus, avec les relations existantes que les opérateurs entretiennent avec les entreprises,
leur vaste empreinte locale, leur capacité à soutenir les principes de souveraineté numérique et leur
compétence pour fournir des services de haute fiabilité, la pièce manquante est la capacité
d'empaqueter et d'exposer leurs réseaux de manière évolutive sur plusieurs opérateurs. La plate-
forme opérateur concept, tel qu'introduit dans , décrit l'architecture d'une plate-forme générique
pour combler cette lacune,identifier les principaux blocs fonctionnels et les interfaces .

- À bien des égards, l'informatique de périphérie (L’Edge computing) est la prochaine évolution de
l'informatique en nuage (Cloud Computing) , avec l'essor des réseaux 5G à travers le pays et dans le
monde. Aujourd'hui, plus d'entreprises que jamais auparavant peuvent exploiter une analyse
complète des données sans l'infrastructure informatique nécessaire aux générations précédentes. De
même, l'informatique de pointe (Edge Computing) a de nombreuses applications possibles,
notamment la sécurité et la surveillance médicale, les véhicules autonomes, la vidéoconférence et
l'amélioration de l'expérience client .

Chapitre 1 :

Introduction :
- L'informatique en nuage (Cloud Computing) a énormément changé notre façon de vivre, de
travailler et d'étudier depuis sa création en 2005 .Par exemple, les instances de logiciel en tant que
service (SaaS), telles que Google Apps, Twitter, Facebook et Flickr ont été largement utilisé dans
notre vie quotidienne. De plus, des infrastructures évolutives comme ainsi que des moteurs de
traitement développés pour prendre en charge le service cloud influencent également de manière
significative la manière de gérer les affaires, par exemple, Google File System , MapReduce , Apache
Spark, etc.

L'Internet des objets (IoT) a été introduit pour la première fois dans la communauté en 1999 pour la
gestion de la chaîne d'approvisionnement, puis le concept de «faire en sorte qu'un ordinateur
détecte l'information sans l'aide d'une intervention humaine» a été largement adapté à d'autres
domaines tels que la santé, la maison, l'environnement et les transports . Maintenant avec l'IoT, on
va arriver dans l'après-cloud , où il y aura une grande qualité de données générées par des choses qui
sont immergées dans notre vie quotidienne, et beaucoup de les applications seront également
déployées en périphérie pour consommer ces données. D'ici 2019, les données produites par les
personnes, les machines et les choses atteindront 500 zettaoctets, selon les estimations de Cisco
Global Cloud Index, cependant, le trafic IP mondial du centre de données n'atteignent que 10,4
zettaoctets à ce moment-là D'ici 2019, 45 % des Les données créées par l'IoT seront stockées,
traitées, analysées et exploitées à proximité ou à la périphérie du réseau .

- Il y aura être 50 milliards d'objets connectés à Internet d'ici 2020, comme prévu par Cisco Internet
Business Solutions Group . Quelques applications IoT peuvent nécessiter un temps de réponse très
court, certaines pourraient impliquer des données privées, et certains pourraient produire un grand
quantité de données qui pourrait être une lourde charge pour les réseaux. Le cloud computing n'est
pas assez efficace pour supporter ces applications. Avec la poussée des services cloud et l'extraction
de l'IoT, nous envisageons que la périphérie du réseau passe de consommateur de données à
producteur de données ainsi qu'à consommateur de données.Nous partons de l'analyse de la raison
pour laquelle nous avons besoin De L’edge computing .

Définition De Edge Computing :

- L'Edge computing est une forme d'informatique effectuée sur site ou à proximité d'une source de
données particulière, minimisant le besoin de traitement des données dans un centre de données
distant .

- L'Edge Computing est un paradigme informatique distribué qui rapproche le calcul et le stockage
des données des sources de données. Cela devrait améliorer les temps de réponse et économiser la
bande passante .

- l'informatique de périphérie est tout type de programme informatique qui offre une faible latence
plus près des requêtes.

- le cloud computing fonctionne sur des données volumineuses tandis que l'edge computing
fonctionne sur des "données instantanées", c'est-à-dire des données en temps réel générées par des
capteurs ou des utilisateurs . l'informatique de pointe se concentre sur les serveurs "à proximité du
réseau du dernier kilomètre".

Avantages de L’Edge Computing :


-Par rapport aux formes traditionnelles de calcul, l'edge computing offre aux entreprises et autres
organisations un moyen plus rapide et plus efficace de traiter les données à l'aide d'applications de
niveau entreprise. Dans le passé, les points périphériques généraient d'énormes quantités de
données qui restaient souvent inutilisées. Maintenant que l'architecture informatique peut être
décentralisée avec l'informatique mobile et l'Internet des objets (IoT), les entreprises peuvent
obtenir des informations en temps quasi réel avec moins de latence et des demandes de bande
passante de serveur cloud réduites, tout en ajoutant une couche de sécurité supplémentaire pour les
données sensibles.

- Les services d'application Edge réduisent les volumes de données qui doivent être déplacés, le trafic
qui en résulte et la distance que les données doivent parcourir. Cela offre une latence plus faible et
réduit les coûts de transmission. Le déchargement des calculs pour les applications en temps réel,
telles que les algorithmes de reconnaissance faciale, a montré des améliorations considérables des
temps de réponse, comme l'ont démontré les premières recherches .

- L'un des principaux avantages de l'edge computing est qu'il réduit considérablement les effets de la
latence sur les applications. Cet avantage permet d'avoir de nouvelles applications et de nouveaux
services sur le réseau qui bénéficient d'une durée de latence réduite, et d'améliorer l'expérience que
proposent les applications existantes (en particulier suite aux progrès liés à la 5G).

- Edge Computing = Privacy and security + Scalability +Reliability + Speed + Efficiency

Historique:
- Les racines de l’edge computing atteignent retour à la fin des années 1990, quand Akamai introduit
des réseaux de diffusion de contenu (CDN) pour accélérer les performances Web.
Un CDN utilise des nœuds à la périphérie proche de utilisateurs pour prérécupérer et mettre en
cache le contenu Web. Ces nœuds de périphérie peuvent également effectuer certains
personnalisation du contenu, telle que l’ajout publicité pertinente pour l’emplacement. Les CDN sont
particulièrement précieux pour le contenu vidéo, parce que les économies de bande passante de
la mise en cache peut être substantielle. L’Edge computing généralise et étend le concept CDN en
tirant parti infrastructure de cloud computing. Comme avec les CDN, la proximité des cloudlets
pour les utilisateurs finaux est crucial. Toutefois au lieu d’être limité à la mise en cache web
contenu, un cloudlet peut s’exécuter arbitrairement code comme dans le cloud computing. Ceci
le code est généralement encapsulé dans un machine virtuelle (VM) ou poids plus léger conteneur
pour l’isolement, la sécurité, la ressource , la gestion et le comptage.
En 1997, Brian Noble et son collègues a d’abord démontré son avantage la valeur potentielle de
l’informatique pour le mobile informatique. Ils ont montré comment la parole pourrait être mise en
œuvre avec des performances acceptables sur un appareil mobile à ressources limitées par
déchargement du calcul vers un environnement proche serveur.
- L’émergence du cloud computing au milieu des années 2000 a conduit le cloud à devenir
l’infrastructure la plus évidente à exploiter à partir d’un appareil mobile. Aujourd’hui, Siri d’Apple et
les services de reconnaissance vocale de Google déchargent tous deux le calcul sur le cloud.
Malheureusement, la consolidation implique une séparation moyenne importante entre un appareil
mobile et son centre de données cloud optimal.
- sAng Li et ses collègues ont rapporté que le temps moyen d’aller-retour entre 260 points de vue
mondiaux et leurs instances Amazon Elastic Compute Cloud (EC2) optimales est de 74 ms. À cela, il
faut ajouter la latence d’un premier saut sans fil. En termes de gigue, la variance inhérente à un
réseau multihop doit être incluse.
- De toute évidence, la dépendance à un centre de données cloud n’est pas conseillé pour les
applications qui exiger que les délais de bout en bout soient serrés contrôlé à moins de quelques
dizaines de Millisecondes. Comme nous le verrons plus loin, un contrôle strict de la latence est
nécessaire pour les applications émergentes telles que réalité augmentée (RA).
-Ces observations sur la latence de bout en bout et le cloud computing ont été formulés pour la
première fois dans un article de 2009 qu’ecrit avec Paramvir Bahl, Rámon Cáceres et Nigel Davies qui
a jeté les bases conceptuelles pour l’edge computing. Nous avons préconisé une architecture à deux
niveaux : la première level est le cloud non modifié d’aujourd’hui l’infrastructure; le deuxième niveau
se compose d’éléments dispersés appelés cloudlets avec état mis en cache à partir du premier
niveau. Utilisation de la mise en cache persistante au lieu de l’état dur simplifie le gestion des
cloudlets malgré leur dispersion physique à la périphérie d’Internet. Le concept de cloudlet peut,
bien sûr, être étendu à un cloudlet à plusieurs niveaux hiérarchie.
-En 2012, Flavio Bonomi et son collègues ont introduit le terme brouillard informatique pour désigner
cette dispersion l’infrastructure cloud. Cependant, leur la motivation pour la décentralisation est
Évolutivité de l’infrastructure IoT plutôt que les applications mobiles interactives performance. Les
chercheurs envisagent une hiérarchie à plusieurs niveaux de nœuds de brouillard .
cas d'utilisation de l'edge computing (APPLICATIONS ) :

- Une grande partie de la technologie que nous utilisons aujourd'hui pour le divertissement et
les affaires, des systèmes de diffusion de contenu et de la technologie intelligente aux jeux, à
la 5G ou à la maintenance prédictive, intègre une forme de technologie informatique de
pointe.
- Les plates-formes de streaming musical et vidéo, par exemple, mettent souvent en cache les
informations pour réduire la latence, offrant ainsi une plus grande flexibilité du réseau en ce
qui concerne les demandes de trafic des utilisateurs.

- Les fabricants bénéficient de l'informatique de pointe en surveillant de plus près leurs


opérations. L'edge computing permet aux entreprises de surveiller de près l'efficacité des
équipements et des lignes de production et, dans certains cas, de détecter les pannes avant
qu'elles ne surviennent, ce qui permet d'éviter des retards coûteux dus aux temps d'arrêt. De
même, vous pouvez également voir l'informatique de pointe utilisée dans les soins de santé
pour s'occuper des patients, donnant aux médecins un aperçu plus en temps réel de la santé
des gens sans avoir besoin d'envoyer leurs informations à une base de données tierce pour
traitement. Ailleurs, les sociétés pétrolières et gazières peuvent surveiller leurs actifs et
éviter des complications coûteuses.
- La construction de maisons intelligentes utilise également des solutions informatiques de
pointe. De plus en plus d'appareils doivent communiquer et traiter des données dans un
réseau localisé, en particulier des appareils comme les assistants vocaux. Sans l'aide d'une
puissance de traitement décentralisée, Amazon Alexa et Google Assistant prendraient
beaucoup plus de temps pour trouver les réponses demandées aux utilisateurs .

- Une autre utilisation de l'architecture est le cloud gaming, où certains aspects d'un jeu
peuvent s'exécuter dans le cloud, tandis que la vidéo rendue est transférée vers des clients
légers fonctionnant sur des appareils tels que des téléphones mobiles, des lunettes VR, etc.
Ce type de streaming est également connu. sous forme de flux de pixels.

-Prédire l'emplacement de la glace qui peut être traitée pour produire de l'hydrogène liquide et de
l'oxygène pour le carburant

-Effectuer des analyses sur les données des capteurs locaux pour les expériences de la Station
spatiale internationale (ISS)

-Détecter les objets en mouvement autour de l'ISS

-Prévoir les pannes sur les combinaisons spatiales et les équipements pour la maintenance
préventive

-Identifiez l'emplacement des matériaux nécessaires à l'impression 3D de fournitures telles que des
boulons ou des poutres

-Analyser les images médicales des astronautes pour appuyer les décisions en matière de soins de
santé

- Identifiez les catastrophes météorologiques imminentes à proximité des satellites sans attendre des
minutes cruciales pour que les images haute résolution soient transmises à la Terre .

Architecture :

- L’Edge Computing rapproche le traitement et le stockage des données des applications et des
périphériques clients en tirant parti des centres de données périphériques hiérarchisés, ainsi que du
stockage de données intégré directement sur les périphériques, le cas échéant.

Cette approche hiérarchisée isole les applications des pannes de centres de données centraux et
régionaux. Chaque niveau exploite une connectivité de plus en plus locale – qui est plus fiable – et
synchronise les données à l’intérieur et entre les niveaux lorsque la connectivité le permet. L’edge
computing est la façon dont vous alimentez des applications toujours rapides et toujours actives.

nous aimons visualiser les architectures de périphérie comme un ensemble de couches, ce qui rend
le concept plus facile à comprendre. Jetez un coup d’œil au diagramme ci-dessous:
Cloud data center : la couche supérieure représente les centres de données cloud, composés d’un
centre de données central et de centres de données régionaux interconnectés. Les centres de
données cloud jouent toujours un rôle crucial dans une architecture d’edge computing, car ils
constituent le référentiel final d’informations. Cependant, les centres de données cloud ne sont pas
utilisés pour les applications locales.

Edge layer : La couche périphérique contient des centres de données périphériques et des
passerelles Internet des objets (IoT). Ceux-ci fonctionnent sur un réseau local, qui peut être fibre,
sans fil, 5G ou des réseaux plus anciens tels que 4G et plus tôt.

Edge device : les appareils individuels, les téléphones intelligents, les tablettes et les ordinateurs
portables transportés par les utilisateurs, ainsi que les appareils IoT qui communiquent tous avec le
centre de données périphérique. Il existe également une communication entre les appareils via un
réseau privé tel que Bluetooth.

Edge thing : Le dernier type d’edge computing est le capteur. Les capteurs sont des instruments qui
collectent des données ou surveillent des objets. Certains capteurs dans le monde entier comme une
caméra de surveillance, une horloge, une ampoule, etc. Selon la bande passante, la latence ou les
exigences de communication, ils n’incluent généralement aucune puissance de calcul en eux-mêmes.
Et aussi, il communiquera plutôt avec la périphérie du système, la périphérie du réseau ou le cloud

Les types de Edge computing :

- Un moyen simple de comprendre les différents types de calcul en périphérie est basé sur sa
proximité avec l’appareil final et sa latence aller-retour au cœur du centre de données. La latence
étant le facteur principal, le calcul en périphérie pourrait être classé comme suit :

 Internet of Things Edge


 On Premise Edge
 Access Edge
 Network Edge

Internet of Things Edge :

Les attentes de latence à cette périphérie sont généralement inférieures à 1 milliseconde.


Cela couvre presque tous les appareils disposant d’une connectivité à un réseau privé ou public tel
qu’Internet.

L’appareil peut être un appareil intelligent capable de traiter des données telles que les téléphones
mobiles ou un simple capteur qui relaie des informations sur son environnement.

On Premise Edge
Les attentes de latence à cette périphérie sont généralement inférieures à 5 millisecondes.

Il faut un moyen d’agréger les données de nombreux appareils à la périphérie de l’IoT afin de stocker,
traiter, analyser et répondre aux demandes pertinentes en utilisant les données. Edge sur site fournit
des ressources de calcul sur site d’entreprise en aidant à localiser le traitement des données et en
réduisant le temps de traitement des données. Les périphériques de cette périphérie se connectent
généralement à la périphérie du réseau ou au centre de données pour d’autres demandes.

Les exigences de mise en réseau sont généralement satisfaites à l’aide de « Software Defined Wide
Area Network » (SD-WAN) qui permet aux entreprises d’utiliser une combinaison de services MPLS
ou LTE ou Internet à large bande.

La 5G a permis à Small Cells d’être établies sur site ainsi que d’opérer dans un spectre sous licence et
sans licence.

Access Edge

L’attente de latence à cette périphérie est généralement inférieure à 10 à 40 millisecondes.

Le réseau d’accès radio (RAN) autrefois traditionnel qui était disponible en tant que périphérique à
fonction fixe a maintenant été désagrégé pour fonctionner comme un ensemble de fonctions
virtuelles dans un logiciel utilisant des serveurs prêts à l’emploi. Ran est le point crucial qui connecte
les appareils sans fil au cœur du réseau de l’opérateur de télécommunications.

Des concepts tels que le RAN virtuel (vRAN) et les initiatives de l’industrie telles que Open-RAN et O-
RAN ont permis aux interfaces de gérer ces déploiements virtualisés de la même manière que la
gestion de tout autre périphérique périphérique. Le passage à l’instanciation native cloud de la
fonction RAN facilite la gestion du cycle de vie d’un large éventail de déploiements RAN à l’aide de
constructions d’intégration continue (CI) / déploiement continu (CD) tirant parti des modèles
DevOps.

L’ensemble des infrastructures nécessaires au déploiement et à la gestion des fonctions RAN


logicielles pourrait être largement appelé Edge d’accès.

Network Edge :
L’attente de latence à cette périphérie est généralement inférieure à 10 à 40 millisecondes.

Les données provenant de plusieurs périphéries IoT, de périphérie sur site et de périphérie d’accès,
répondant à la région spécifique, doivent être agrégées avant de se connecter au centre de données
centralisé qui peut s’étendre sur un vaste ensemble de régions.

Ce type de déploiements pourrait être largement appelé « Network Edge » ou « near edge » proche à
la périphérie par rapport au centre de données principal du fournisseur de services.

Vous aimerez peut-être aussi