Académique Documents
Professionnel Documents
Culture Documents
CC de Radiocom
CC de Radiocom
---------------- ----------------
MINISTERE DE L’ENSEIGNEMENT MINISTRY OF HIGHER EDUCATION
SUPERIEUR ----------------
---------------- HIGHER INSTITUTE OF
INSTITUT SUPERIEUR DES INFORMATION TECHNOLOGIES
TECHNOLOGIES DE L’INFORMATION AND COMMUNICATION OF
ET DE LA COMMUNICATION DE MEYOMESSALA
MEYOMESSALA
Sous la supervision de :
M. NZEGANG Frantz
2
Par MBOLO MESSOMO Kévin Lionel et MBALLA ONOMO Jacqueline, étudiants en licence professionnelle télécoms et
réseaux à l’ISTIC de Meyomessala
LE BIG DATA
Synthèse ............................................................................................................................................ 16
Les points forts de l’architecture Lambda sont : ................................................................................. 16
Ses inconvénients sont : ....................................................................................................................... 16
ARCHITECTURE KAPPA ...................................................................................................................... 16
Figure : Architecture KAPPA .................................................................................................................. 17
Synthèse ............................................................................................................................................ 17
Les points forts de l’architecture Kappa sont : ................................................................................ 17
Pas de séparation entre les besoins........................................................................................................ 18
ARCHITECTURE SMACK...................................................................................................................... 18
Les points forts de l’architecture SMACK sont : ............................................................................. 19
Ses inconvénients sont :....................................................................................................................... 19
SECTION 5 : CONSTATS ET OPPORTUNITES DU BIG DATA ................................................................ 19
À l’inverse, voici les gains potentiels pour les entreprises qui utilisent le Big Data. ..................... 20
Mise en œuvre .................................................................................................................................. 21
Traitements ....................................................................................................................................... 22
Batchs ................................................................................................................................................ 22
Exemple d’implémentation : MapReduce. ......................................................................................... 22
Micro-batchs ..................................................................................................................................... 22
Figure : Architecture BATCH INCREMENTALE ............................................................................... 23
Temps réel ......................................................................................................................................... 23
Figure : Architecture temps reel ............................................................................................................ 24
Catégories.......................................................................................................................................... 24
Figure : Illustration des catégories des solutions................................................................................... 25
3
Par MBOLO MESSOMO Kévin Lionel et MBALLA ONOMO Jacqueline, étudiants en licence professionnelle télécoms et
réseaux à l’ISTIC de Meyomessala
LE BIG DATA
INTRODUCTION
Chaque jour, nous générons 2,5 trillions d’octets de données. A tel point que 90% des
données dans le monde ont été créées au cours des deux dernières années seulement. Ces
données proviennent de partout : de capteurs utilisés pour collecter les informations
climatiques, de messages sur les sites de médias sociaux, d'images numériques et de vidéos
publiées en ligne, d'enregistrements transactionnels d'achats en ligne et de signaux GPS de
téléphones mobiles, pour ne citer que quelques sources. Ces données sont appelées « Big
Data ou « volumes massifs de données ».
SECTION 1 : PRESENTATION
La notion de big data est un concept s'étant popularisé en 2012 pour traduire le fait que les
entreprises sont confrontées à des volumes de données (data) à traiter de plus en plus
considérables et présentant un fort enjeu commercial et marketing.
HISTOIRE
Le big data a une histoire récente et pour partie cachée, en tant qu'outil des technologies de
l'information et comme espace virtuel prenant une importance volumique croissante dans le
cyberespace.
L'expression « Big data » serait apparue en octobre 1997 selon les archives de la
bibliothèque numérique de l’ACM (Association for Computing Machinery), dans des articles
scientifiques sur les défis technologiques à relever pour visualiser les « grands ensembles de
données ».
Selon V. Tréguier (2014) et selon la « très courte histoire du big data »publiés par Gil Press
en 2013 pour la période 1944-2012, sa naissance est liée aux progrès des systèmes de
stockage, de fouille et d'analyse de l'information numérisée, qui ont permis une sorte de « big
bang » de l'information stockée puis une croissance inflationniste de l'univers de la donnée
numérisée. Mais ses prémisses sont à trouver dans le croisement de la cybernétique et de
courants de pensée nés durant la Seconde Guerre mondiale, selon lesquels l’homme et le
monde peuvent être représentés comme « des ensembles informationnels, dont la seule
différence avec la machine est leur niveau de complexité. La vie deviendrait alors une suite de
0 et de 1, programmable et prédictible » ajoute V. Tréguier.
4
Par MBOLO MESSOMO Kévin Lionel et MBALLA ONOMO Jacqueline, étudiants en licence professionnelle télécoms et
réseaux à l’ISTIC de Meyomessala
LE BIG DATA
CARACTERISTIQUES ET FONCTIONS
La formule des 3V
Le big data présente 03 principales caractéristiques à savoir :
Un grand Volume de données : du Terabyte (1012 bytes) au Yottabyte (1024 bytes), la
capacité de stockage estimée de la NSA, qui représente mille fois l’ensemble des données
générées en 2011.
Une grande Vélocité : la fréquence à laquelle les données sont générées, capturées et
partagées. Cette contrainte temporelle peut nécessiter un traitement en temps réel, on parle
alors de Data Stream Mining.
Une grande Variété : les données sont structurées ou non structurées et proviennent de
différents types de fichier (photos, vidéos, commentaires écrits, courriels…). La gestion de
données non structurées est un des grands défis du Big Data.
Aussi, on peut ajouter un 4ème V qui est celui de la Véracité : afin d’en extraire
l’information utile, il est souvent nécessaire de traiter les données qui peuvent être bruitées et
imprécises.
Alors qu’Oracle ou Intel adoptent des définitions qui insistent sur la variété des données
gérées, Microsoft met l’accent sur la spécificité des processus de traitement en intelligence
artificiel ou par apprentissage automatique. Le projet MIKE définit la nouvelle discipline non
pas comme une fonction du volume des jeux de données, mais de leur complexité5.
5
Par MBOLO MESSOMO Kévin Lionel et MBALLA ONOMO Jacqueline, étudiants en licence professionnelle télécoms et
réseaux à l’ISTIC de Meyomessala
LE BIG DATA
Une stratégie technologique qui permet d’obtenir des informations plus riches et
approfondies sur les clients, les partenaires et le marché – et au bout du compte bénéficier
d’un avantage concurrentiel.
Travailler avec des ensembles de données dont la taille et la diversité dépassent les capacités
de capture, de stockage, de gestion et d’analyse des logiciels de base de données classiques.
Le traitement en temps réel d’un flux continu de données afin de prendre plus rapidement
des décisions urgentes.
Des ressources décentralisées. Les processus d’analyse se dirigent là où sont les données
pour plus de rapidité et d’efficacité.
Un nouveau paradigme dans lequel l’informatique collabore avec les acteurs commerciaux et
les « Data Scientists » afin d’identifier et mettre en œuvre des analyses qui permettront
d’accroître l’efficacité opérationnelle et de résoudre de nouvelles problématiques
commerciales.
Déplacer la prise de décision vers la base de l’entreprise et permettre aux personnels de
prendre de meilleures décisions, plus rapidement et en temps réel.
6
Par MBOLO MESSOMO Kévin Lionel et MBALLA ONOMO Jacqueline, étudiants en licence professionnelle télécoms et
réseaux à l’ISTIC de Meyomessala
LE BIG DATA
Cependant, les systèmes traditionnels peuvent ne pas convenir pour les nouvelles sources et
les nouveaux environnements du Big Data.
L’ENVIRONNEMENT INFORMATIQUE POUR
L’ANALYSE DE BIG DATA
Aujourd’hui, les entreprises du monde entier sont confrontées à une croissance sans
précédent des données. Rendez-vous compte : il était prévu que la quantité globale de
données s’étende à 2,7 zetta octets (Zo) à la fin de l’année 2012 ; et qu’elle double tous les
deux ans, pour atteindre 8 Zo de données en 2015. Il est difficile de concevoir une telle quantité
d’information. Par exemple, la bibliothèque du Congrès américain détient 462 téraoctets (To) de
données numériques, ce qui signifie que 8 Zo est équivalent à près de 18 millions de
Bibliothèques du Congrès. L’expression Big Data prend tout son sens.
Pour comprendre ce qu’est le Big Data et faire la part des choses entre les fantasmes du marketing
(nombreux), les réalités concrètes (plus rares), et les promesses raisonnables (en nombre suffisant pour
considérer très sérieusement le phénomène), il faut revenir aux fondamentaux, et en cela aux origines
du Big Data.
De ce fait, le Big Data est né d’une rupture technologique essentiellement engagée par les deux
acteurs majeurs de l’Internet que sont Google et Yahoo, tous deux confrontés à plusieurs problèmes
complexes :
7
Par MBOLO MESSOMO Kévin Lionel et MBALLA ONOMO Jacqueline, étudiants en licence professionnelle télécoms et
réseaux à l’ISTIC de Meyomessala
LE BIG DATA
Ce nouveau modèle a fait l’objet de travaux de recherche qui se sont engagés dès le début
des années 2000, pour aboutir au milieu de la décennie sur différentes solutions
technologiques.
Depuis, les solutions ont mûri, des standards ont émergé, et leur mise en œuvre est devenue
opérationnelle chez les géants du web confrontés aux mêmes problèmes de valorisation de
l’information massive que ceux rencontrés par les précurseurs : Google et Yahoo bien sûr,
mais aussi Netflix, Amazon, Microsoft, Facebook, Twitter…
Ces standards s’appuient sur une logique de traitement déporté qui permet de :
8
Par MBOLO MESSOMO Kévin Lionel et MBALLA ONOMO Jacqueline, étudiants en licence professionnelle télécoms et
réseaux à l’ISTIC de Meyomessala
LE BIG DATA
Aucune technologie ne permet de résoudre tous les types de problèmes posés. Hadoop a
posé les bases du Big Data (surtout en terme de traitement). La plateforme est capable de
traiter des volumes importants de données, mais avec une latence importante. C’est pourquoi
sont apparus des systèmes (quasi) temps réels tels que Spark, Storm, Flink, Druid, ou
encore Tez.
Ceci tout en augmentant les possibilités d’interactions grâce à des traitements temps
réels. Non seulement ces nouveaux frameworks améliorent les performances grâce à une
meilleure utilisation de la mémoire, mais ils offrent aussi (et surtout) la possibilité de définir
des fenêtres de traitements (micro batch, windowing) ainsi que des traitements itératifs.
Coté stockage, ces dernières années ont vu l’émergence des solutions NoSQL en
remplacement des solutions traditionnelles de type SGBD. Même si certaines solutions
dominent le marché (MongoDB, Cassandra, Neo4j, etc.), le besoin est trop diversifié pour
qu’une seule solution puisse répondre à l’ensemble des besoins.
Au final, le but est de permettre une exploration interactive des données et d’ouvrir la
plateforme à une population plus large que celle des programmeurs. Certaines architectures et
solutions permettent de résoudre des problèmes complexes mais cela a évidemment un coût
qui peut être rédhibitoire pour des problématiques plus simples.
9
Par MBOLO MESSOMO Kévin Lionel et MBALLA ONOMO Jacqueline, étudiants en licence professionnelle télécoms et
réseaux à l’ISTIC de Meyomessala
LE BIG DATA
En résumé, il faut choisir une architecture évolutive que l’on adaptera en fonction des
nouveaux besoins plutôt qu’une architecture complexe dès le départ.
HADOOP
Définition
Hadoop est un framework qui va permettre le traitement de données massives sur un
cluster, allant d’une à plusieurs centaines de machines. Hadoop est écrit en Java et a été créé
par Doug Cutting et Michael Cafarella en 2005 (après avoir créé le moteur de recherche
Lucene, Doug travaillait alors pour Yahoo sur son projet de crawler web Nutch).
Hadoop va gérer la distribution des données au cœur des machines du cluster, leurs
éventuelles défaillances, mais aussi l’agrégation du traitement final.
L’architecture est de type « Share nothing » : aucune donnée n’est traitée par deux nœuds
différents, même si les données sont réparties sur plusieurs nœuds (principe d’un nœud
primaire et de nœuds secondaires).
Hadoop Common : ensemble d’utilitaires utilisés par les autres briques Hadoop.
Hadoop Distributed File System (HDFS) : un système de fichiers distribué pour le
stockage persistant des données.
Hadoop YARN : un framework de gestion des ressources et de planification des
traitements.
Hadoop MapReduce v2 : Un framework de traitements distribués basé sur YARN.
HDFS est un système de fichiers utilisé pour stocker des données structurées ou pas sur un
ensemble de serveurs. C’est un système distribué, extensible et portable développé par le
créateur d’Hadoop et inspiré du système développé par Google (Google FS).
Écrit en Java, il a été conçu pour stocker de très gros volumes de données sur un grand
nombre de machines équipées de disques durs standard. HDFS s’appuie sur le système de
fichier natif de l’OS pour présenter un système de stockage unifié reposant sur un ensemble
de disques et de systèmes de fichiers hétérogènes.
MapReduce est un framework de traitements parallélisés, créé par Google pour son
moteur de recherche Web. Ce framework permet de décomposer des requêtes importantes en
un ensemble de requêtes plus petites qui vont produire chacune un sous-ensemble du résultat
10
Par MBOLO MESSOMO Kévin Lionel et MBALLA ONOMO Jacqueline, étudiants en licence professionnelle télécoms et
réseaux à l’ISTIC de Meyomessala
LE BIG DATA
final : c’est la fonction Map. L’ensemble des résultats est traité (par agrégation et/ou filtrage):
c’est la fonction Reduce. MapReduce est idéal pour les traitements batchs, mais il n’est pas
itératif par défaut.
11
Par MBOLO MESSOMO Kévin Lionel et MBALLA ONOMO Jacqueline, étudiants en licence professionnelle télécoms et
réseaux à l’ISTIC de Meyomessala
LE BIG DATA
Performance (par rapport à des bases NoSQL, à des grilles de données, etc.).
Fait principalement pour traiter de très gros volume de données.
Hadoop est en train de se positionner comme étant la meilleure approche émergente pour
l’analyse de Big Data. Développé dans le prolongement du projet open-source de recherche
Web Apache Nutch, Hadoop est une plate-forme logicielle qui fournit un modèle de
programmation simple afin de permettre le traitement distribué de grandes quantités de
données sur des clusters d’ordinateurs.
Il comprend un système de fichiers distribué, une plate-forme de traitement parallèle
appelée Apache Hadoop MapReduce, et plusieurs composants prenant en charge l’importation
des données, la coordination des flux de travail, la gestion des tâches, et le contrôle du cluster.
Hadoop est un moyen plus économique que les approches traditionnelles pour traiter de
grands ensembles de données non structurées.
12
Par MBOLO MESSOMO Kévin Lionel et MBALLA ONOMO Jacqueline, étudiants en licence professionnelle télécoms et
réseaux à l’ISTIC de Meyomessala
LE BIG DATA
AVANTAGES D’ HADOOP
13
Par MBOLO MESSOMO Kévin Lionel et MBALLA ONOMO Jacqueline, étudiants en licence professionnelle télécoms et
réseaux à l’ISTIC de Meyomessala
LE BIG DATA
Les entreprises utilisent deux approches de base pour la mise en place de Hadoop.
Déploiements Hadoop seul
Les déploiements Hadoop sont disponibles sous forme de logiciel open-source
téléchargeable gratuitement depuis Apache ou en tant que distributions via des éditeurs qui
accompagnent la plate-forme Hadoop de certains éléments et logiciels de gestion pour
assister l’administration du système.
Les déploiements Hadoop seul sont parfaitement adaptés à la construction d’une plate-
forme de gestion des données pour l’analyse et l’exploitation de données non structurées. Les
outils open-source permettent également d’interroger des données structurées à l’aide des
applications MapReduce, HBase, ou Hive.
Hadoop intégré aux bases de données traditionnelles
Les entreprises disposant déjà d’entrepôts de données et de systèmes d’analyse
traditionnels peuvent étendre leur plate-forme existante pour inclure une mise en place
intégrée d’Hadoop. Le raccordement des ressources de gestion des données existantes au
logiciel Hadoop offre la possibilité d’exploiter les données structurées et non structurées pour
en tirer des informations.
Par exemple, l’analyse des transcriptions complexes de centre d’appels peut être associée à
des données structurées sur le comportement d’achat, tels que des références, points de vente
ou zones géographiques spécifiques, et ainsi de suite. Dans ce cas, des connecteurs
propriétaires sont utilisés pour déplacer les données entre Hadoop et les environnements
traditionnels.
ARCHITECTURE HADOOP
Confère section 3
ARCHITECTURE LAMBDA
Définition
L’architecture Lambda a été imaginée par Nathan Marz et James Warren, afin de résoudre
des problématiques complexes mélangeant temps réel et batchs. L’architecture Lambda
permet de stocker et de traiter de larges volumes de données (batch) tout en intégrant dans les
14
Par MBOLO MESSOMO Kévin Lionel et MBALLA ONOMO Jacqueline, étudiants en licence professionnelle télécoms et
réseaux à l’ISTIC de Meyomessala
LE BIG DATA
résultats des batchs les données les plus récentes. Cette approche permet de conserver les
principes du Big Data, tels que la scalabilité, la tolérance aux pannes, etc.
15
Par MBOLO MESSOMO Kévin Lionel et MBALLA ONOMO Jacqueline, étudiants en licence professionnelle télécoms et
réseaux à l’ISTIC de Meyomessala
LE BIG DATA
Synthèse
Les points forts de l’architecture Lambda sont :
La logique métier est implémentée deux fois (dans la filière temps réel et dans la filière batch).
Il faut deux sources différentes des mêmes données (fichiers, web services).
Il existe des solutions plus simples lorsque le besoin est moins complexe. L’évolutivité des solutions
Big Data permettra dans la plupart des cas de migrer vers une architecture Lambda lorsque le besoin
l’exigera.
L’architecture Lambda est utilisée par des entreprises comme Metamarkets ou Yahoo.
ARCHITECTURE KAPPA
L’idée de l’architecture Kappa a été formulée par Jay Kreps (LinkedIn) dans
cet article. L’architecture Kappa est née en réaction à l’architecture Lambda et à sa complexité. Elle
16
Par MBOLO MESSOMO Kévin Lionel et MBALLA ONOMO Jacqueline, étudiants en licence professionnelle télécoms et
réseaux à l’ISTIC de Meyomessala
LE BIG DATA
est née d’un constat simple : la plupart des solutions de traitement sont capables de traiter à la fois
des batchs et des flux.
L’architecture Kappa permet donc de simplifier l’architecture Lambda en fusionnant les couches
temps réel et batch. Elle apporte une autre évolution par rapport à l’architecture Lambda : le
système de stockage des données est plus restreint et doit être un système de fichiers de type log et
non modifiable (tel que Kafka).
Kafka ou un autre système permet de conserver les messages pendant un certain temps afin de
pouvoir les retraiter. De fait, et encore plus que l’architecture Lambda, l’architecture Kappa ne
permet pas le stockage permanent des données. Elle est plus dédiée à leur traitement.
Quoique plus restreinte, l’architecture Kappa laisse une certaine liberté dans le choix des composants
mis en œuvre :
Synthèse
Les points forts de l’architecture Kappa sont :
17
Par MBOLO MESSOMO Kévin Lionel et MBALLA ONOMO Jacqueline, étudiants en licence professionnelle télécoms et
réseaux à l’ISTIC de Meyomessala
LE BIG DATA
ARCHITECTURE SMACK
Akka : Implémentation du paradigme acteurs pour la JVM (ingestion des données dans
Kafka).
Cassandra : Solution NoSQL (Stockage des données brutes, mais aussi pour l’analyse des
données).
Kafka : Stockage des événements (les événements de mise à jour sont stockés dans Kafka
afin d’assurer leur persistance).
Kafka est parfois remplacé par Kinesis sur le cloud (Amazon AWS). Certaines de ces
solutions sont officiellement supportées par Mesos (Spark, Kafka). Par contre l’intégration de
Cassandra nécessite de s’appuyer sur des projets tiers comme ceux de Mesosphere
(http://mesosphere.github.io/cassandra-mesos/)
18
Par MBOLO MESSOMO Kévin Lionel et MBALLA ONOMO Jacqueline, étudiants en licence professionnelle télécoms et
réseaux à l’ISTIC de Meyomessala
LE BIG DATA
Synthèse
Les points forts de l’architecture SMACK sont :
Un minimum de solutions capable de traiter un très grand nombre de problématiques.
Basée sur des solutions matures du Big Data.
Scalabilité des solutions.
Solution de gestion unique (Mesos).
Compatible batchs, temps réel, Lambda, etc.
Ses inconvénients sont :
Intégration de nouveaux besoins et donc de nouveaux frameworks.
Architecture complexe.
L’architecture SMACK est utilisé par des entreprises comme TupleJump ou ING.
19
Par MBOLO MESSOMO Kévin Lionel et MBALLA ONOMO Jacqueline, étudiants en licence professionnelle télécoms et
réseaux à l’ISTIC de Meyomessala
LE BIG DATA
À l’inverse, voici les gains potentiels pour les entreprises qui utilisent le Big Data.
Les plus matures en matière d’exploitation des données (clients, métiers, externes, etc.) se
distinguent par les critères suivants :
- Anticipation des enjeux stratégiques liés à une meilleure utilisation des données internes et
externes.
- Diversité des données collectées et des canaux de collecte.
- Constitution d’équipes de data scientists et autres experts data.
- Adoption de nouvelles technologies d’exploitation de la data.
- Meilleure prise en compte des enjeux de protection de la vie privée et des données à
caractère personnel dans l’exploitation des données clients.
L’étude suivante montre les gains constatés par les entreprises ayant mis en œuvre le Big
Data
20
Par MBOLO MESSOMO Kévin Lionel et MBALLA ONOMO Jacqueline, étudiants en licence professionnelle télécoms et
réseaux à l’ISTIC de Meyomessala
LE BIG DATA
Source : http://barc-research.com/research/big-data-use-cases-2015/
Mise en œuvre
Le Big Data a vocation à traiter des problématiques métiers complexes. Il déplace le centre
d’intérêt des entreprises vers les données et la valeur qu’elles peuvent apporter à l’entreprise.
L’exploitation de la donnée est tout d’abord une dette :
- Coût de l’acquisition de données.
- Coût matériel et logiciel.
- Coût humain (recrutement, montée en compétences).
Ce n’est qu’une fois ce cap franchi que le retour sur investissement devient possible. C’est
pourquoi il faut commencer par de petits projets, (et donc limiter les investissements) pour
ensuite réfléchir à des problématiques de généralisation (offre de service) à tout un système
21
Par MBOLO MESSOMO Kévin Lionel et MBALLA ONOMO Jacqueline, étudiants en licence professionnelle télécoms et
réseaux à l’ISTIC de Meyomessala
LE BIG DATA
d’information. Plus globalement, il faut passer d’une entreprise pilotée par les projets à une
entreprise pilotée par les données.
Traitements
Il y a trois grandes familles de traitement dans le Big Data :
- Batch,
- Micro-batch,
- Temps réel (streaming).
Batchs
Les traitements vont analyser l’ensemble des données disponibles à un instant T.
Données en entrée : fichiers, résultat d’une requête (HDFS, Sqoop, etc.).
Résultats : les résultats ne seront disponibles qu’à la fin des traitements.
Latence : souvent de l’ordre de la minute, voire dans certains cas de l’heure.
Exemple d’implémentation : MapReduce.
Micro-batchs
Les traitements vont analyser l’ensemble des données disponibles toutes les n-secondes.
22
Par MBOLO MESSOMO Kévin Lionel et MBALLA ONOMO Jacqueline, étudiants en licence professionnelle télécoms et
réseaux à l’ISTIC de Meyomessala
LE BIG DATA
Temps réel
Les traitements vont analyser les données au fur et à mesure de leur disponibilité.
Données en entrée : stream Web, messages provenant d’un bus, flux de logs, etc.
Résultats : les résultats sont disponibles au fur et à mesure.
Latence : parfois inférieure à la seconde.
Exemple d’implémentation : Flink, Tez, Storm.
23
Par MBOLO MESSOMO Kévin Lionel et MBALLA ONOMO Jacqueline, étudiants en licence professionnelle télécoms et
réseaux à l’ISTIC de Meyomessala
LE BIG DATA
Catégories
Catégories des solutions Big Data :
Ingestion/Extraction de données,
Traitement de données,
Analyse/Apprentissage,
Data visualisation,
Requête/Interrogation,
Workflow,
Stockage,
Ordonnancement,
Sécurité,
Gouvernance,
Messages.
24
Par MBOLO MESSOMO Kévin Lionel et MBALLA ONOMO Jacqueline, étudiants en licence professionnelle télécoms et
réseaux à l’ISTIC de Meyomessala
LE BIG DATA
CONCLUSION
Les architectures Big Data se multiplient. Même si elles se veulent génériques et évolutives,
toutes ne seront pas adaptées aux besoins des utilisateurs.
25
Par MBOLO MESSOMO Kévin Lionel et MBALLA ONOMO Jacqueline, étudiants en licence professionnelle télécoms et
réseaux à l’ISTIC de Meyomessala
LE BIG DATA
26
Par MBOLO MESSOMO Kévin Lionel et MBALLA ONOMO Jacqueline, étudiants en licence professionnelle télécoms et
réseaux à l’ISTIC de Meyomessala