Vous êtes sur la page 1sur 12

http://conferences2.sigcomm.

org/acm-icn/2020/assets/Tutorial-
1-ICN-2020-All-slides-
9308ec991077d4091a30a871fd843d75fdc5a61820ff67ebcd895ad7
50841218.pdf

Mise en cache sur un réseau de données nommé: une enquête


et recherches futures

Résumé

Le système basé sur IP entraîne un processus de livraison de contenu inefficace. Cette inefficacité a été tentée
d'être résolue avec le Réseau de distribution des contenus. Un serveur de réplique est situé à un emplacement
particulier, généralement sur le routeur de périphérie le plus proche de l'utilisateur. La demande de l'utilisateur
sera servie à partir de ce serveur de réplique. Cependant, la mise en cache sur le réseau de distribution de
contenu est inflexible. Ce système est difficile à soutenir la mobilité et les conditions de demande de contenu
dynamique des consommateurs. Nous devons changer le paradigme pour centrée sur le contenu. Dans Named
Data Network, les données peuvent être placées sur le contenu stocké sur les routeurs les plus proches du
consommateur. Mise en cache sur les données nommées. Le réseau doit être capable de stocker le contenu de
manière dynamique. Il devrait être sélectivement sélectionné le contenu pouvant être stocké ou supprimé du
stockage de contenu basé sur certaines considérations, par exemple la popularité du contenu dans la zone locale.
Ce document d'état de l’art explique le développement des techniques de mise en cache sur le Réseau de
données nommé qui sont classés en points principaux. Le brefune explication des avantages et des inconvénients
est présentée pour faciliter la comprendre. Enfin, a proposé le défi ouvert lié à la mise en cache mécanisme pour
améliorer les performances NDN.

1. INTRODUCTION

L'ère des télécommunications a commencé en 1876, où un réseau a été construit qui a permis à 2 parties de
transmettre leur voix et communiquer. Internet a commencé dans les années 1969, financé par Advanced
Research ProjectAgence [1]. En utilisant le protocole Internet (IP) comme adresse, la demande de l'utilisateur
sera transmise au serveur, via d’autres nœuds du réseau. Les réponses à la demande seront envoyées à
l'utilisateur via un chemin particulier qui a été formé par le processus de routage dans le réseau. Si un utilisateur
demande les mêmes données, puis le paquet sera à nouveau envoyé du serveur à l'utilisateur. Cela entraîne un
processus de livraison de paquets inefficace car le paquet est toujours envoyé depuis un serveur éloigné de
l'utilisateur. Pour résoudre ce problème, le concept de Le réseau de distribution de contenu [2] a été proposé. Un
serveur de réplique est créé contient toutes les données comme dans le serveur principal, placé à un emplacement
fixe, plus proche de l'utilisateur. Pour que la demande de certains contenus soit redirigé vers le serveur de
réplique et il n'est pas nécessaire d'être servi par un serveur d'origine qui est plus éloigné. Le serveur de réplique
est mis à jour périodiquement ou lorsqu'un contenu change sur son serveur d'origine. Cependant, ce système sera
difficile à prendre en charge la mobilité et la demande de contenu changeant dynamique de les consommateurs.
Lorsque le consommateur s'éloigne du serveur de réplique, cela conduit à la possibilité qu'un consommateur
puisse ne sont plus servis efficacement par le serveur de réplique. Réseau de distribution de contenu toujours
basé sur Le protocole Internet (IP) provoque le processus de demande de l'utilisateur est toujours adressé à un
serveur particulier. Par conséquent, un processus supplémentaire est toujours nécessaire pour mapper l'adresse IP
prévue avec la position du serveur qui est le plus proche de l'utilisateur. En fait, depuis le début, la demande de
l'utilisateur se concentre sur le contenu (basé sur le contenu), mais dans le système précédent, la demande est
adressée à un certain nœud de serveur avec une certaine adresse IP (basée sur l'hôte)

En 2009, Jacobson et al. proposent un paradigme de réseau basé sur le contenu [3]. Ce concept a été
soulevéquelques années plus tôt dans ses projets de recherche et il est nommé à l'origine Content-Centric
Networking (CCN) développé au centre de recherche Palo Alto de Xerox. Il se développe actuellement en
Named Data Network (NDN) lancé par le projet futur d'architecture Internet financé par la NSF [4]. Ce concept
remplace le «où» paradigme au concept de «quoi», où la demande du consommateur n'est plus adressée à un
nœud spécifique mais est destiné à un certain contenu [3], [5] - [7]. Ce paradigme provoque la réponse aux
demandes de contenu nonuniquement servi par un serveur particulier mais peut également être servi par
l'appareil le plus proche qui stocke les données. Pour prendre en charge ce concept, les nœuds de routeur NDN
sont équipés d'un stockage de contenu pour stocker données [3] - [6], [8].

Le concept de mise en cache sur le réseau de données nommé est différent de celui de la mise en cache dans le
système précédent. Chaque nœud NDN dispose d'un stockage de contenu pour contenir des données. Différente
du réseau précédent, la mobilité des nœuds être pris en charge car le magasin de contenu peut être adapté au
modèle de demande de l'utilisateur pour le contenu. Changements dans les positions de l'utilisateur, le routeur
doit personnaliser à nouveau le contenu du stockage de contenu en fonction de l'utilisateur demandes dans la
région. Cache dans NDN est plus dynamique. L'architecture NDN prend en charge un réseau flexible topologies,
où les nœuds sans fil peuvent entrer et sortir de la zone. Une fois, un nœud peut être producteur et parfois, il se
transforme en consommateur. Dans le nœud NDN peut être intégré avec diverses règles de cache, y compris pour
déterminer quel contenu sera sélectionné et supprimé de Content Store [5], [9], [10], la sélection des endroits où
un contenu sera mis en cache [10] - [13], et politique de cache qui implique le modèle de coopération entre les
nœuds pour déterminer la décision de mise en cache [14] - [17]. En lien avec la mobilité des nœuds, plusieurs
techniques ont été étudié pour maintenir les performances du système même si les nœuds entrent et sortent
couverture [18] - [21].

Ce document d'enquête explique le développement des techniques de mise en cache sur Named Data Network
qui est une base importante pour comprendre les dernières techniques de mise en cache NDN dans le
développement d'un avenir meilleur techniques pour améliorer les performances NDN en tant que solution de
communication directe efficace. Le brefune explication des avantages et des inconvénients est présentée pour
faciliter la compréhension. Enfin, proposé le défi ouvert lié au mécanisme de mise en cache pour améliorer les
performances NDN.

Le reste de cet article est organisé comme suit. Dans la section 2 décrit l'état de l'art de mise en cache sur le
réseau de données nommé. Les techniques de mise en cache sont regroupées en placement de cache, cache
sélection du contenu et conception de la politique de cache. Dans cette section a également expliqué les
avantages et les inconvénients de chaque groupe de techniques de mise en cache. La technique de soutien à la
mobilité est également expliquée. Dans la section 3 décrit le défi et les problèmes ouverts liés à la mise en cache
dans Named Data Network. Et enfin, la section 4 met transmettre la conclusion de ce document.

2. TRAVAUX CONNEXES

Certains documents d'enquête sur la mise en cache ont déjà été réalisés. Le document [22] met l'accent sur la
discussion sur les techniques de remplacement du cache pour les services Web dans le système IP. Le document
[23] met l'accent sur la discussion sur plusieurs mécanismes de mise en cache en réseau dans Information-
Centric Networking, 2014 et versions antérieures. Papier [5] traite de la mise en cache mobile centrée sur
l'information, y compris la mise en cache dans un réseau cellulaire, ad hoc et hybride. Cet article explique les
différents emplacements de cache pour chaque schéma et certains mécanismes de cache. Conversation au sujet
de mécanisme de remplacement de la mise en cache uniquement, présenté par l'article [22] and [24], pour le
nœud mobile. En raison de les connaissances de l'auteur, à ce jour, il n'y a pas eu d'enquête sur papier qui traite
des dernières techniques de mise en cache et cartographie de la technique en groupes en fonction de la technique
de base. Ce schéma permet de comprendre facilement les techniques de base des mécanismes de mise en cache.
Ce document d'enquête se concentre sur les techniques de mise en cache, y compris les études récentes. Pour
faire comprendre à expliquer, dans cet article, le mécanisme de mise en cache est divisé en 4 groupes généraux,
ils sont le placement du cache, le cache sélection de contenu, conception de politique de cache et mise en cache
pour les nœuds mobiles. L'explication commence par la mise en cache différences dans Named Data Network
avec son réseau précédent, l'urgence de la mise en cache de la discussion sur NamedData Network pour
améliorer ses performances, puis mapper les techniques de mise en cache basées sur les mécanismes. Le but est
de permettre au lecteur de connaître les bases du développement de ces mises en cache techniques. Les
avantages et les inconvénients de chaque groupe de techniques sont présentés sous forme succincte et
concentrez-vous pour le rendre facile à comprendre. Cet article se termine par une explication de la recherche
proposée sur mise en cache sur NDN qui est toujours ouvert, afin qu'il puisse continuer à être développé pour
examiner les meilleures techniques pour soutenir NDN

3. ÉTAT DE L'ART DE CACHING SUR UN RÉSEAU DE DONNÉES NOMMÉ

3.1. Composant du routeur de réseau de données nommé

Named Data Network change le paradigme «où» en «quoi». L'utilisateur envoie sa demande de contenu au
réseau, puis le réseau déterminerait qui est le nœud le plus efficace qui peut servir demande. Ainsi, l'utilisateur
n'a pas besoin de savoir où se trouve le serveur de contenu. Ce paradigme provoque la réponse pour un la
demande n'est pas toujours effectuée par le serveur, mais par tout nœud du réseau. L'architecture NDN provoque
processus de communication de données plus efficaces et les charges du réseau seront considérablement réduites.
Le NDN Node se compose de 3 composants, à savoir Content Storage (CS), Pending Interest Table(PIT) et sur la
base des informations de transfert (FIB) [3], [25]. Lorsque le consommateur B veut une donnée du producteur, le
consommateur enverra une demande pour certains contenus en utilisant le paquet d'intérêt. Le routeur NDN qui
reçoit la demande du consommateur vérifiera si le contenu est dans son CS. Si tel est le cas, le routeur envoyer
immédiatement les données demandées au consommateur. Si les données ne sont pas dans CS, le routeur vérifie
le Tableau des intérêts en attente pour voir si le contenu a été demandé et n'a pas reçu de réponse avec les
données correspondantes paquets. Si dans le PIT il y a de telles informations, alors les informations seront mises
à jour en ajoutant des informations ce consommateur B a également demandé les mêmes données. Les
informations sur ce PIT font un chemin inverse pour l'envoi données au consommateur. Si dans le PIT il n'y a
pas de contenu de demande de données identique à celui du consommateur B, alors les contrôles sont effectués
sur la base des informations de transfert (FIB). Le paquet d'intérêt sera transmis aux données nœud fournisseur
selon les informations dans FIB. Si FIB ne stocke pas les données de nœud du fournisseur de contenu, le paquet
d'intérêt sera rejeté par le routeur NDN. Ce processus décrit dans la figure 1.

Figure 1. Processus qui se produisent sur chaque routeur NDN lorsqu'il reçoit le paquet d'intérêt [25

3.2. Stockage de contenu

Le stockage de contenu (CS) est l'un des composants importants du nœud de routeur NDN. CS est essentiel pour
autoriser le stockage des données dans les nœuds de routeur NDN afin que si le consommateur demande un
contenu, il ne soit pas nécessairement servi par le certain serveur, mais peut être servi par un nœud de routeur qui
a le contenu dans son CS. CS est l'une des ressources limitées sur les routeurs NDN. Par conséquent, il doit être
utilisé aussi efficacement que possible afin d'améliorer les performances NDN

La taille du magasin de contenu affecte le délai et le nombre de sauts que les paquets doivent prendre pour aller
consommateur [26]. Cette condition affecte la charge globale du réseau en raison de la circulation des données
dans le réseau [4], [8]. CS effectue également un effet différent avec les diverses politiques de cache
implémentées dans le nœud [27]. Dans cet article, les stratégies de mise en cache sont classées comme
emplacement du cache, sélection du contenu du cache, cache conception de politiques et mise en cache pour le
nœud mobile. Chaque groupe décrit, y compris ses avantages et ses inconvénients dans les sections 3.3 à 3.6

3.3. Emplacement du cache

Le placement du cache se concentre sur la détermination des nœuds qui stockeront un paquet de données. Dans
le Réseau éditeur / abonné, il a été proposé une méthode pour choisir un nœud pour stocker les paquets en
fonction des popularités du contenu et capacité de stockage de contenu par nœud [28]. Dans les réseaux NDN,
les paquets sont initialement placés sur chaque nœud du réseau afin que le consommateur puisse accéder
directement au contenu du nœud le plus proche.

Paper [11] propose un mécanisme d'inondation de données par paquets, où les paquets de données sont stockés
dans tous les nœuds qui sont dans le meilleur chemin mais limités au nombre maximum de sauts pour la
propagation du paquet. En papier [12] le package est déployé pour être stocké dans des nœuds de réseau mais
toujours maintenu pour s'assurer qu'il n'y a pas paquets redondants, pour économiser les ressources, en utilisant
le filtre de floraison. L'absence de technique de filtre de floraison liée à faux problèmes positifs corrigés par A.
Hidayat et al [13]. Dans cette technique, le filtre de floraison se combine avec algorithme de recherche
séquentielle

Paper [29] propose un mécanisme qui combine la technique d'insertion de paquets et de paquets suppression en
ajoutant un paramètre Caching Contribution dans le paquet d'intérêt. Le nœud décidera s'il mettra en cache le
paquet de données ou non. Si le paquet de données ne peut pas être mis en cache sur le certain nœud, alors il sera
transmis à un autre nœud. Un mécanisme de suivi est construit pour stocker des informations sur le chemin vers
le nœud suivant qui peut stocker le contenu. Dans le papier [10], les nœuds qui reçoivent souvent une demande
de contenu du consommateur ont un valeur de la contribution. Un nœud stockera un contenu qui a une valeur de
contribution élevée si la capacité de stockage est disponible. Paper [9] propose le déplacement des données vers
le routeur de périphérie le plus proche du consommateur pour chaque demande de contenu spécifique. Le
placement du cache peut être repris en 3, c'est-à-dire basé sur la fonction, la diversité et inondation comme le
montre la figure 2. Comparaison des trois techniques, y compris le point de vue technique, les avantages et
inconvénients décrits dans le tableau 1

Tableau 1. Comparaison des techniques de placement de cache

Figure 2. Classification des techniques de placement de cache

3.4. Sélection du contenu du cache

Les techniques de sélection du contenu du cache se concentrent sur la détermination du contenu qui
sera mis en cache et quel contenu doit être supprimé du cache. Certaines des techniques de
sélection de contenu à mettre en cache sont Caching Everything Everywhere (CEE) [3], [23], où
chaque nœud stocke toutes les données du producteur et cela signifie aucune sélection de contenu
et Prob (p) [3], [5], [23] où les données sont mises en cache avec une probabilité p et non mis en
cache avec probabilité 1-p. En conséquence, les paquets de données qui sont mis en cache par un
routeur peuvent être différents d'autres routeurs. Le papier [30] propose le concept selon lequel
chaque routeur cache les données avec la probabilité déterminée par le nombre de sauts entre le
producteur et le routeur Sélection du contenu à mettre en cache en fonction de la prédiction que le
contenu sera demandé par le consommateur local proposé par le papier [31]. En lien avec la
sélection du contenu du cache, les performances du réseau centré sur le contenu sont également
affectées par les règles de remplacement CS et localisation des utilisateurs [32]. La sélection du
contenu du cache peut être reprise comme dans le tableau 2.
Tableau 2. Comparaison des techniques de sélection du contenu du cache (insertion et éviction)

Une autre technique liée à la sélection du contenu du cache est la mise en cache basée sur la
prédiction [33]. Le contenu sera décidé pour être mis en cache par le routeur en fonction du nombre
de requêtes. Dans ce schéma, il est ajouté une nouvelle table dans le routeur, nommée la table
d'intérêt des espèces en attente (PSIT). Ce tableau stocke la liste des contenus le plus demandé sur la
base des données du PIT. Supposons qu'un contenu soit régulièrement demandé par le
consommateur tous les lundis, mais il y a aussi du contenu non régulier, par exemple le contenu de la
Coupe du monde un événement. Après cela, l'algorithme Dynamic Cache Adjustment est utilisé pour
décider d'un package qui sera mis en cache ou non basé sur sa valeur de gaspillage. Un contenu sera
visualisé en taille. Si le CS est encore suffisant, le package est stockée. Si le CS est plein, le paquet
dans le CS sera sélectionné au hasard, puis comparé avec le nouveau paquet de données. S'ils sont
tous les deux identiques, la valeur du paramètre hit augmentera. Le nouveau test est effectué par
comparer le paramètre de hit avec la quantité de données qui ont été triées. Si la valeur de hit est
plus élevée, le paquet reçoit une allocation dans le tampon, et sinon, le contenu n'est pas alloué dans
CS. La sélection d'un contenu peut également être calculé en fonction de la popularité locale et du
gain de réduction du nombre de sauts qui peut être donné par le paquet [29]

Une autre technique de sélection de contenu est le Max-Gain In-network Caching (MAGIC) [34]. La
proposition La méthode vise à réduire la consommation de bande passante et à prendre en compte
la popularité du contenu ainsi que la réduction des sauts. Lors de la réception du paquet d'intérêt,
chaque routeur calculera le gain local et le comparera à la valeur stocké dans le champ Max Gain. Si
le cache local du gain du routeur est supérieur à la valeur Max Gain, alors le le routeur mettra à jour
la valeur Max Gain dans le paquet d'intérêt. Cette valeur Max Gain sera copiée sur des champs dans
le paquet de données. Le long du chemin de livraison des paquets, si la valeur de gain local est la
même que le Max Gain valeur dans le paquet de données, il sera mis en cache dans le paquet de
données

Si un paquet de données entre dans le nœud du routeur et que le routeur ne l'avait pas dans son
stockage de contenu, alors le Le nœud vérifiera sa condition de stockage de contenu. S'il est plein,
alors il sera sélectionné quel paquet sera supprimé du stockage de contenu pour fournir de l'espace
pour stocker le nouveau paquet. Techniques couramment utilisées dans le système NDN pour
sélectionner les paquets qui seront supprimés dans CS est le moins récemment utilisé (LRU) et le
moins Fréquemment utilisé (LFU) [3], [29], [22]. Deghgan et al dans l'article [2] ont proposé une autre
technique pour donner un minuterie à un paquet. Le minuteur est utilisé pour déterminer combien
de temps un paquet peut rester dans le stockage de contenu avant qu'il est finalement supprimé.
Paper [35] a proposé l'algorithme de fréquence d'utilisation récente (RFU), qui a déterminé le
popularité du contenu dans une période limitée. La valeur de popularité la plus basse entraînera un
contenu supprimé du Content Store

Selon l'article [24], les performances de la mise en cache peuvent être améliorées en utilisant une
mise en cache efficace méthodes de remplacement. Dans les réseaux mobiles, c'est un défi, car
l'environnement est différent du conditions du réseau fixe. Les paramètres utilisés par la règle de
remplacement incluent la récence, la popularité, le message taille, coût de réalisation des objets et
délai d'accès [24]. Les techniques de sélection du contenu du cache peuvent être reprises comme
dans la figure 3 et la comparaison des techniques de sélection de contenu de cache comme dans le
tableau 2.

3.5. Conception de la stratégie de cache La politique de cache se concentre sur les techniques de
stockage du contenu dans les nœuds. L'une des stratégies de cache liées techniques est la mise en
cache pilotée par l'utilitaire [8]. Cette technique est une technique de mise en cache pilotée par un
utilitaire dans laquelle un utilitaire la valeur est liée à un contenu. Les utilitaires sont fonction d'une
possibilité de succès de contenu. L'objectif est de maximiser le quantité totale de contenu utilitaire
dans le stockage de contenu. Paper [38] a modélisé le cache de son système en 2 couches. La
première couche est la mise en cache individuelle dans chaque nœud et couche 2 est l'accumulation
de tout le cache sur le réseau. L'étude analyse combien le contenu de stockage doit être fourni dans
le système pour répondre aux performances de 4 applications, à savoir le trafic Web, partage de
fichiers et trafic vidéo qui se distinguent en contenu généré par l'utilisateur (UGC) et vidéo sur
demande (VoD). Assantachai et al [14] ont proposé un schéma de mise en cache hybride. Si un
nouveau contenu est demandé par le consommateur et n’existe pas encore sur le nœud du routeur,
le nouveau contenu sera enregistré. Le remplacement de contenu Le schéma utilisé est une
combinaison du concept d'approche coopérative et d'approche distributive. La mise en cache
coopérative est un schéma dans lequel chaque nœud prend une décision de remplacement en
fonction des connaissances reçus d'autres nœuds résidant dans la même région. La mise en cache
distributive est utilisée pour prendre des décisions en utilisant indépendamment les connaissances
internes pour atteindre des performances locales maximales. Dans le papier [14], le réseau est divisé
en 2 parties, c'est-à-dire la région normale (région sur le bord) et la région du squelette (la région qui
relie les régions normales). Dans la région normale, s'il y a un intérêt pour les hits de cache, le
contenu est déplacé vers le devant la séquence, et lorsque le cache manque, les données à la fin de
la séquence sont supprimées. Le la région principale suit le modèle de région normal, seuls les
nœuds principaux fonctionnent avec les autres nœuds dumême région pour décider de mettre en
cache. La conception de politique de mise en cache coopérative est également utilisée dans [39] avec
des zones divisées en grappes

L'article [15], [40] a décrit que le mécanisme de mise en cache d'un contenu a un impact crucial sur le
efficacité de la diffusion du contenu et utilisation de CS. Paper [9] propose le mécanisme pour diviser
les fichiers en petits paquets appelés chunk. La quantité de morceaux diffusée dépend de la
popularité du contenu. Le nombre de blocs est déterminé par la fenêtre de marquage des blocs
(CMW) qui s'agrandit de manière exponentielle chaque nombre de morceaux livrés avec succès Dans
[41] le réseau Content-Centric est implémenté en utilisant deux types d'applications. Pour chaque
application, il est créé une liste distincte et chacun identifié avec un identifiant unique. Le CS est
séparé et chaque L'application ne peut être stockée que dans son propre magasin de contenu. Le
mécanisme de partition du contenu de stockage est testé avec deux méthodes: le partitionnement
statique du cache et le partitionnement dynamique du cache. Dans le partitionnement statique, le
cache peut être utilisé uniquement comme spécifié. Pendant le partitionnement de cache
dynamique, le cache inutilisé par une application peut être partagé avec d'autres applications. Cache
avec technique de fractionnement également proposé dans [42]. Le stockage de contenu est divisé
en deux parties, une partie pour un contenu populaire et l'autre pour un contenu moins populaire.
Paper [43] divise le contenu stockage dans trois régions. Les données sont des catégories en tant que
données personnelles, données d'amis et données inconnues. Papier [16]plus spécifique sur la
gestion de la mise en cache en mémoire où le multiprocesseur est utilisé avec certaines
interconnexions mécanismes pour réduire la consommation d'énergie. Des techniques de mise en
cache associant le placement, le remplacement et l'emplacement du cache de données ont été
proposées par Xiaoyan Hu et coll. [29]. Pour définir le paquet à mettre en cache, il est défini une
valeur de mise en cache pour chaque paquet où peut être mis en cache au nœud v. Cette valeur de
mise en cache implique la multiplication de la valeur de popularité locale et du nombre de sauts gain
de réduction de l'élément, puis divisé par la contention d'espace de cache qui est la même valeur
dans tous les routeurs. Si un intérêt va au nœud v, et l'élément n'a pas encore été mis en cache sur le
nœud v auparavant, le nœud v calculera le valeur potentielle approximative de la contribution de
mise en cache de l'élément. Les données seront mises en cache au nœud v si le la valeur maximale de
la contribution de mise en cache est positive. Si le stockage de contenu est plein, il sélectionnera un
package avec la moindre valeur de mise en cache de contribution à supprimer. Lié à la détermination
de l'emplacement de mise en cache, le cache Le composant de localisation maintiendra la piste pour
guider le contenu. Cette piste n'est créée que si le contenu n'est pas mis en cache sur le nœud local.
La conception de la politique de cache peut être reprise comme dans la figure 4. La comparaison du
cachetechniques de conception de politiques comme dans le tableau 3.

fig

3.6 Mise en cache pour le nœud mobile En règle générale, les techniques de mise en cache pour les
nœuds mobiles ont une idée de base pour souscrire un utilisateur à un contenu producteur [28],
[47], prélecture du contenu vers un autre routeur qui gérera le consommateur [19], [20], collaborera
avec mode de transmission de données pour VANET [44], et techniques de support de nœud mobile
qui prennent en compte une énergie [48].Dans l'environnement mobile, le problème est que les
nœuds NDN se déplacent toujours, y compris les routeurs, les producteurs et consommateurs [21].
Le mouvement du producteur pose un problème plus important que le mouvement du nœud
consommateur ou nœud de routeur. La résolution de problèmes liés aux mouvements de
producteurs est présentée par l'article [28].Le système de publication / abonnement est le
mécanisme par lequel l'abonné peut recevoir des messages de l'éditeur. Cette relation est régie par
le gestionnaire afin que l'utilisateur qui s'abonne à certains contenus obtiennent toujours le contenu
souhaité lorsque l'éditeur génère le contenu [47]. Dans le préexistantpub / subsystem, le producteur
ne stocke pas les messages publiés auparavant. Dans ce cas, si nouveau les abonnés rejoignent le
système, ils n'ont pas pu obtenir le contenu qui a été publié avant d'entrer dans le système. Pour
résoudre le problème, [28] ont proposé un mécanisme de stockage et un algorithme de réplication
avec des classe de contenu. Dans ce nouveau système, le stockage peut convertir les classes de
contenu qu'il stocke. La réplication proposée L'algorithme consiste à sélectionner M points de
stockage parmi N points disponibles sur le réseau en fonction de la localité et popularité, degré de
réplication cible de chaque sujet et capacité de stockageUne technique pour s'adapter à la mobilité
des consommateurs dans les réseaux sans fil est Proactive MultilevelCache Selection (PMCS),
proposé par l'article [18]. Dans ce schéma, si le consommateur change de couverture ou transfert, le
consommateur enverra une notification sur le routeur vers lequel se rendre. Le routeur actuellement
utilisé sélectionner un sous-ensemble de routeurs voisins pour recevoir le contenu qui a été
demandé par le consommateur mais n'a pas encore été envoyé à lui. Lorsqu'un transfert se produit,
le consommateur cesse de demander l'envoi de données. Pendant Çaprocessus de transfert
également, le routeur de destination mettra en cache les paquets de données de l'ancien routeur,
qui n'a pas été reçu par le consommateur dans une certaine limite. Une fois la connexion au nouveau
routeur établie, alors la transmission de données sera servie par le nouveau routeur. Une autre
technique est proposée par[19] pour prédire la mobilité des nœuds et fournir le meilleur nœud de
prélecture. L'article [20] explique le mécanisme pour soutenir la mobilité des producteurs, comme
pousser pour envoyer les données, faire certaines copies de données, déterminent l'emplacement du
contenu et annoncer à nouveau si elles sont déplacées vers une autre zone. Le papier [44] propose la
commutation de mode de communication de VANET, véhicule à véhicule (V2V) et véhicule à véhicule
infrastructure (V2I), en fonction de la popularité du contenu téléchargé. Le nœud mobile a la
puissance limitée, le processus de mise en cache doit donc prendre en compte la consommation
d'énergie dans le nœud, en raison du NDN vert, comme expliqué dans[49]. Le papier [48] proposait
des techniques d'efficacité énergétique pour le MANET. Le réseau est divisé en groupes, géré par un
nœud maître. L'article [50] a proposé une technique avec une sélection optimale de la tête de cluster
dans Réseau de capteurs sans fil pour améliorer l'efficacité

4. DÉFI ET QUESTIONS OUVERTES

4.1. Mise en cache basée sur la QoS

Dans toutes les techniques de mise en cache, que ce soit le placement du cache, la sélection du
contenu du cache ou la conception de la stratégie de cache qui ont été développés pour la plupart
n'ont pas pris en compte le traitement différent pour les différents services. En études qui ont été
faites, les données ne sont généralement différenciées qu'en fonction de la popularité du contenu,
du contenu récent, dules bénéfices estimés du stockage de contenu, etc. Peu d'études prennent en
compte le traitement différenciation en fonction des exigences du service ou des exigences des
utilisateurs. En fait, différents utilisateurs peuvent s'abonner à différents services privilégiés. Jusqu'à
présent, peu de recherches ont été effectuées sur la mise en cache basée sur la qualité de service sur
NDN. L'article [45] est l'un des articles qui discutent de cette distinction à l'aide de classes. Le concept
suit le concept de service différencié (DiffServ) qui était précédemment utilisé dans l'IP réseau. Des
développements supplémentaires sont nécessaires pour les mécanismes de mise en cache qui
peuvent répondre à différentes exigences pour services et utilisateurs. Ces techniques comprennent
comment choisir le contenu et où le mettre en cache dans le réseau. La décision peut être prise
indépendamment ou en coopération avec d'autres nœuds du réseau

4.2. Mise en cache pour le nœud mobile

La mobilité des nœuds doit être prise en charge pour offrir la flexibilité du système. Généralement, la
mobilité La caractéristique est divisée en mobilité des producteurs et mobilité des consommateurs.
La mobilité du routeur est similaire à la mobilité des consommateurs. La mobilité des
consommateurs est naturellement soutenue par NDN, mais pas avec la mobilité des producteurs.
Ainsi, le domaine de la technique de soutien à la mobilité des producteurs est celui des opportunités
de recherche. Plusieurs techniques sont présentées liés au cache dans le nœud mobile pour prendre
en charge la mobilité des producteurs. Par exemple, dans le papier [18] le contenu de prélecture est
proposé. Ce schéma a été fait lorsque le nœud mobile se déplace vers le nouveau routeur de
couverture. Une autre méthode proposée consiste à pré-extraire un groupe de contenu, pas
seulement 1 contenu, qui est généralement demandé par le consommateur [31]. La prélecture
augmente le temps nécessaire pour déplacer le contenu vers un nouveau routeur. Un examen plus
approfondi des autres techniques liées à la prise en charge de la mobilité des nœuds pour le NDN est
nécessaire pour assurer une communication de données ininterrompue, même si l'utilisateur change
de couverture en tenant compte du délai, charge du cache et complexité de l'algorithme qui doit être
exécuté.4.3. Mise en cache économe en énergie Les routeurs NDN du réseau sans fil mobile auront
des restrictions d'alimentation. Techniques de mise en cache considérer la disponibilité de
l'alimentation sur le nœud doivent également être explorées plus avant. Ce processus peut inclure
sélection de nœuds pour placer le contenu en fonction de la position, de la distance, de la
disponibilité d'énergie au nœud, de la ressource disponibilité et autres éléments importants qui
devraient tenir compte de l'efficacité des processus. Couvrant une technique qui peut réduire le
nombre de remplacements qui se produisent. Si un contenu est trop fréquemment supprimé du
cache, il pas être efficace.4.4. Type de données sur Content Store Actuellement, le contenu mis en
cache sur le routeur NDN peut être un fichier ou plus petit, appelé morceau [9] [44]. Les systèmes
basés sur des blocs rendront le processus de transmission plus efficace, car si un bloc est perdu lors
de la transmission ou il est supprimé dans CS, il suffit de le remplacer par un nouveau bloc sans avoir
pour remplacer le fichier entier. Cependant, la division du fichier en bloc fait que les requêtes de
l'utilisateur sont générés par blocs. Cela signifie que dans le système basé sur les blocs, le paquet
d'intérêt pour un fichier complet plus que le système basé sur des fichiers. Exploration plus
approfondie des procédures et des mécanismes de mise en cache à ce sujet forme de données
devrait être explorée.

CONCLUSION

Dans cet article, nous avons expliqué les avantages de l'architecture de réseau NDN par rapport
àréseau IP traditionnel et réseau de distribution de contenu, et mise en cache excessive sur NDN par
rapport à sonsystème prédécesseur. Le développement de diverses techniques de mise en cache a
été cartographié.a expliqué les avantages et les inconvénients de chaque groupe. Enfin, il a été
suggéré que la rechercheopportunités liées à la mise en cache sur NDN qui peuvent être étudiées à
l'avenir, c.-à-d. mécanismes de mise en cache quiimpliquent des différences dans les exigences de
QoS pour les données et les utilisateurs, la mise en cache qui prend en charge les nœuds de mobilité,
etune mise en cache qui considère l'énergie.RECONNAISSANCECe travail a été soutenu par
l'Université Telkom et le ministère de la Recherche et de la TechnologieEducation République
d'Indonésie.LES RÉFÉRENCES[1] TM Chen, «From Circuit Switched to IP-based Networks», dans
Encyclopedia of Multimedia Technology etNetworking , 2e éd., M. Pagan, éd. Idea Group Publishing,
2009.[2] BG Pallis et A. Vakali, «Insight and Perspectives for Content Delivery Networks», vol. 49,
non. 1, pp. 101-106,2006.[3] V. Jacobson, DK Smetters, NH Briggs, JD Thornton, MF Plass et RL
Braynard, «Networking NamedContent », dans la 5e Conférence internationale ACM sur les
expériences et technologies de réseautage émergentes , 2009,pp. 1–12.[4] LV Yovita et NR Syambas,
«Content Storage Effect on the Named Data Network

Traffic Load», dans TheConférence internationale sur les systèmes, services et applications de
télécommunication 2017 , 2017.[5] H. Jin, D. Xu, C. Zhao et D. Liang, «Infrastructure de réseau de
mise en cache mobile centrée sur l'information et mise en cacheoptimisation: une enquête »,
EURASIP J. Wirel. Commun. Netw. , vol. 33, p. 1 à 32, 2017.[6] Anjali, «Components of Named Data
Networking», Int. J. Innov. Eng. Technol. , vol. 7, non. 3, pp. 543–552, 2016.[7] Y. Jing, «Evaluating
Caching Mechanisms in Future Internet Architectures», Cambridge, États-Unis, MIT-CSAIL-TR-2016-
009, 2016.[8] M. Dehghan, L. Massoulie, D. Towsley, D. Menasche et YC Tay, «A Utility Optimization
Approach toNetwork Cache Design », dans IEEE INFOCOM 2016 , 2016.[9] K. Cho, M. Lee, K. Park, TT
Kwon et Y. Choi, «WAVE: Popularité-based and Collaborative In-networkCaching for Content-
Oriented Networks », en 2012 IEEE Conference on Computer Communications Workshops ,2012, pp.
316–321.[10] D. De Voluceau, LCC, et F. Sailhan, «Energy-aware Web Caching for Mobile Terminals»,
dans The 22 eConférence internationale sur les ateliers sur les systèmes informatiques distribués ,
2002, pp. 820–825.[11] CMIN Park et RA Rehman, «Atténuation des inondations de paquets dans un
capteur multimédia sans fil basé sur CCNRéseaux pour les villes intelligentes Atténuation des
inondations de paquets dans les réseaux de capteurs multimédias sans fil basés sur CCN pourVilles
intelligentes », IEEE Access , vol. 5, non. Juin, p. 11054-11062, 2017.[12] JH Mun et H. Lim, «Partage
de cache à l'aide de filtres Bloom dans un réseau de données nommé», J. Netw. Comput. Appl. ,vol.
90, pp. 74–82, 2017.[13] A. Hidayat, F. Bukhari et H. Sukoco, «Mise en œuvre du filtre Bloom dans le
cache avec un faible niveau de faux positifs»,Telkomnika (Telecommunication Comput. Electron.
Control. , Vol. 15, n ° 4, pp. 1911-1916, 2017.[14] K. Assantachai, K. Kaneko et F. Teraoka, «A Hybrid
Cache Management Scheme for Information CentricNetworking », dans Institute of Electronics,
Information and Communication Engineers , 2015, pp. 4–9.[15] S. Shailendra, S. Sengottuvelan, HK
Rath, B. Panigrahi et A. Simha, «Performance Evaluation of CachingPolitiques en NDN - une
architecture ICN », dans IEEE Region 10 Conference (TENCON) , 2016, pp. 1117–1121.[16] MH
Awadalla et A. Sadek, «Une organisation de cache efficace pour les réseaux multiprocesseurs sur
puce», Int. J. Electr.Comput. Eng. , vol. 5, non. 3, pp. 503-517, 2015.[17] P. Charan, T. Usmani, R.
Paulus et SH Saeed, «A Cooperative Cache Management Scheme for IEEE802. 15. 4basé sur des
réseaux de capteurs sans fil », Int. J. Electr. Comput. Eng. , vol. 8, non. 3, pp. 1701-1710, 2018.[18] L.
Rui, S. Yang et H. Huang, «Un schéma de sélection de cache à plusieurs niveaux proactif pour
améliorer la mobilité des consommateurssupport dans Named Data Networking ”, Int. J. Distrib.
Sens. Networks , vol. 13, non. 10, 2017.[19] N. Abani et M. Gerla, «Proactive Caching with Mobility
Prediction under Uncertainty in Information-centricRéseaux », dans 4e Conférence ACM sur les
réseaux centrés sur l'information (ICN 2017) , 2017, pp. 88–97.[20] MB Lehmann, MP Barcellos et A.
Mauthe, «Fournir un soutien à la mobilité des producteurs dans NDN grâce à ProactiveRéplication
des données », dans Network Operations and Management Symposium (NOMS 2016) , 2016, no.
Noms, p. 383–391.[21] A. Azgin, R. Ravindran et G. Wang, «Etude sur la mobilité pour les réseaux de
données nommés dans l'accès sans filNetworks », dans Next-Generation Networking Symposium ,
2014, pp. 3252–3257.[22] S. Podlipnig et LB Osz, «Une enquête sur les stratégies de remplacement
du cache Web», ACM Comput. Surv. , vol. 35, non. 4,pp. 374–398, 2003.

Page 11

Int J Elec & Comp EngISSN: 2088-8708❒Mise en cache sur un réseau de données nommé: une
enquête et… (Leanna Vidya Yovita)4465[23] M. Zhang, H. Luo et H. Zhang, «A Survey of Caching
Mechanisms in Information Centric Networking», IEEECommun. Surv. TUTORIELS , vol. 17, non. 3, pp.
1473–1499, 2015.[24] E. Hattab et S. Kawasmah, «A Survey of Replacement Policies for Mobile Web
Caching», dans InternationalConférence sur les développements de l'ingénierie des systèmes
électroniques , 2015.[25] D. Saxena et IIT Roorkee, «Named Data Networking: A Survey», Comput.
Sci. Rev. , vol. 19, pp. 15–55, 2016.[26] H. Situmorang, NR Syambas et T. Juhana, «L'effet de la mise à
l'échelle de la taille de la topologie et du contenu stocké surthe Named Data Networking », lors de la
Conférence internationale sur les systèmes, services etApplications 2016 , 2016, pp. 16–21.[27] G.
Zhang, B. Tang, P. Wang, Y. Wu et X. Zhang, «Évaluation des performances des stratégies de cache
dans le contenuRéseau Centric », Inf. Technol. J. , vol. 12, non. 23, pp. 7083–7089, 2013.[28] V.
Sourlas, P. Flegkas et GS Paschos, «Storage Planning and Replication Assignment in Content-
CentricPubliez / Abonnez-vous à des réseaux », Int. J. Comput. Telecommun. Netw. , vol. 55, non. 18,
pp. 4021–4032, 2010.[29] X. Hu, J. Gong, G. Cheng et C. Pant, «Enhancing In-network Caching by
Coupling Cache Placement,Replacement and Location », dans IEEE ICC 2015 - Next Generation
Networking Symposium , 2015, pp. 5672–5678.[30] Y. Wang, M. Xu et Z. Feng, «Hop-based
Probabilistic Caching for Information -Centric Networks», dans Globecom2013- Symposium sur les
réseaux de nouvelle génération , 2013, pp. 2102–2107.[31] N. Chauhan et LK Awasthi, «Prefetching
based Cooperative Caching in Mobile Adhoc Networks», dansConférence internationale sur les
tendances émergentes en génie informatique et électronique , 2012, pp. 60–64.[32] G. Rossini et D.
Rossi, «A dive into the caching performance of Content Centric Networking», en 2012 IEEE
17thAtelier international sur la modélisation et la conception assistées par ordinateur des liens et des
réseaux de communication , 2012.[33] H. Chao, WJ Jian, H. Cho, C. Tsai et J. Pan, «Adaptation de
cache basée sur la prédiction pour les données nomméesRéseaux », J. Comput. , vol. 27, non. 1, pp.
45–55, 2015.[34] J. Ren et coll. , «MAGIC: une stratégie de mise en cache en réseau distribuée MAx-
Gain dans les réseaux centrés sur l'information»,en 2014 IEEE INFOCOM Workshop on Name-
Oriented Mobility , 2014, pp. 470–475.[35] S. Kang, S. Lee et Y. Ko, «Une gestion de cache dynamique
basée sur la popularité récente pour le contenuNetworking », dans Quatrième Conférence
internationale sur les réseaux omniprésents et futurs (ICUFN) , 2012, pp. 219–224.[36] W. Zhang, R.
Fan, F. Liu et P. Lai, «Energy-Aware Caching», dans la 21e Conférence internationale de l'IEEE sur le
parallèleand Distributed Systems , 2015, pp. 473–480.[37] I. Psaras, WK Chai et G. Pavlou,
«Probabilistic In-Network Caching for Information-Centric Networks», dansdeuxième édition de
l'atelier du CII sur les réseaux centrés sur l'information , 2012, pp. 55–60.[38] C. Fricker, P. Robert, J.
Roberts et N. Sbihi, «Impact of traffic mix on caching performance in a content-centricnetwork »,
dans Workshop on Emerging Design Choices in Name-Oriented Networking , 2012, pp. 310–315.[39]
N. Chand, RC Joshi et M. Misra, «Cooperative Caching Strategy in Mobile Ad Hoc Networks Based
onClusters », Wirel. Pers. Commun. , vol. 43, non. 1, pp. 41–63, 2007.[40] M. Amadeo et A. Molinaro,
«CHANET: A Content-Centric Architecture for IEEE», en 2011 InternationalConférence sur le réseau
du futur , 2011, pp. 122–127.[41] G. Carofiglio, V. Gehlen, D. Perino et B. Labs, «Experimental
Evaluation of Memory Management in Content-Centric Networking », dans IEEE International
Conference on Communications (ICC), 2011, pp. 1–6.[42] NE Majd, S. Misra et R. Tourani, «Split-
Cache: A Holistic Caching Framework for Improved NetworkPerformance in Wireless Ad Hoc
Networks », dans Global Communications Conference (GLOBECOM) , 2014, pp.137–142.[43] Y. Wang,
«Hierarchical Cooperative Caching in Mobile Opportunistic Social Networks», dans Globecom 2014 -
AnnonceSymposium Hoc and Sensor Networking , 2014, no. 3, pp. 411–416.[44] W. Quan, Y. Liu, X.
Jiang et J. Guan, «Mise en cache et récupération intelligentes de contenu sensible à la popularité sur
l'autorouteréseaux de véhicules », EURASIP J. Wirel. Commun. Netw. , 2016.[45] Y. Kim, Y. Kim, J. Bi
et I. Yeom, «Transfert et mise en cache différenciés dans le réseau de données nommées», J.
Netw.Comput. Appl. , vol. 60, p. 155-169, 2016.[46] W. Feng et Y. Zhang, «A General Cache Partition
Model for Multiple QoS Classes», in International Conferencesur l'intelligence computationnelle pour
la modélisation, le contrôle et l'automatisation, et Conférence internationale sur lesAgents,
technologies Web et commerce Internet , 2005, pp. 0–5.[47] A. Virgillito, «Publier / Souscrire des
systèmes de communication: des modèles aux applications», Universita degli Studi diRoma «La
Sapienza», 2003.[48] A. Rao, P. Kumar et N. Chauhan, «Mise en cache de groupe dynamique
économe en énergie dans les réseaux mobiles ad hoc pourImproving Data Accessibility », dans
International Conference on Recent Trends in Information Technology , 2012,pp. 372–376.[49] C.
Fang, FR Yu, S. Membre, T. Huang, J. Liu et Y. Liu, «A Survey of Green Information-Centric
Networking:Problèmes et défis de la recherche », IEEE Commun. Surv. Tutoriels , vol. 17, non. 3, pp.
1455-1472, 2015.[50] AME Tamizharasi, JJSME, AK Priya et R. Maarlin, «Approche heuristique
sensible à l'énergie pour le chef de clusterSélection dans les réseaux de capteurs sans fil », Bull.
Electr. Eng. Informatique , vol. 6, non. 1, pp. 70–75, 2017.
Page 12

❒ISSN: 2088-8708Int J Elec & Comp Eng, Vol. 8, n ° 6, décembre 2018: 4456 - 44664466BIOGRAPHIES
DES AUTEURSLeanna Vidya Yovita, titulaire d'un doctorat. étudiant à l'école de génie électrique et
informatique,Institut de technologie de Bandung. Elle a obtenu son baccalauréat et sa maîtrise de
TelkomUniversité. Travaille actuellement comme maître de conférences à l'Université Telkom, S1
TelecommunicationProgramme d'ingénierie, enseignement des réseaux informatiques, des
algorithmes et de l'ingénierie des réseaux.l'équipe a produit un livre de textes, intitulé «Jaringan
Komputer» pour les étudiants de TelkomUniversité. Les intérêts de recherche comprennent les
réseaux informatiques, le réseau centré sur le contenu etIngénierie de réseau.Nana Rachmana
Syambas. Le professeur Nana Rachmana Syambas a obtenu son baccalauréatDiplômé en génie
électrique, ITB en 1983. Il a obtenu son Master par Recherchediplôme du Royal Melbourne Institute
of Technology, Australie en 1990 et diplôme adoctoralde la School of Electrical Engineering and
Informatics, ITB en 2011. Il a été chargé de cours àÉcole de génie électrique et informatique, ITB
depuis 1984. Ses intérêts de recherche comprennentRéseaux de télécommunications, services
télématiques, réseau centré sur le contenu (CCN), logicielsRéseau défini (SDN), ingénierie de
protocole et ingénierie de télé-trafic. Il est l'auteur oua co-écrit plus de 80 articles publiés.Afficher les
statistiques de publication

5. CONCLUSION

Dans cet article, nous avons expliqué les avantages de l'architecture de réseau NDN par rapport
àréseau IP traditionnel et réseau de distribution de contenu, et mise en cache excessive sur NDN par
rapport à sonsystème prédécesseur. Le développement de diverses techniques de mise en cache a
été cartographié.a expliqué les avantages et les inconvénients de chaque groupe. Enfin, il a été
suggéré que la rechercheopportunités liées à la mise en cache sur NDN qui peuvent être étudiées à
l'avenir, c.-à-d. mécanismes de mise en cache quiimpliquent des différences dans les exigences de
QoS pour les données et les utilisateurs, la mise en cache qui prend en charge les nœuds de mobilité,
etune mise en cache qui considère l'énergie

http://conferences2.sigcomm.org/acm-icn/2020/tutorial-online-learning.html

Vous aimerez peut-être aussi