Vous êtes sur la page 1sur 55

BLANCHART Aubry

Professeur référant: Mr Jacques Pons

Spécialisation : Achat Supply Chain

Titre : Quel est l’impact du phénomène Big Data dans la


fonction supply chain ?

Année Scolaire 2015

Session septembre

1
SOMMAIRE

Synthèse ................................................................................................................................. 3
Introduction ............................................................................................................................ 6

I - Approche et enjeux du Big Data ..................................................................................... 8

a) Définition........................................................................................................................ 8

b) Enjeux .................................................................................................................... 9

c) Les différentes approches pour construire une plateforme Big Data ........... 17

II - L'entreprise et le Big Data ........................................................................................... 23

a) Amazon ........................................................................................................................ 23

b) Apple ................................................................................................................... 27

c) Walmart ..................................................................................................... 29

III - La sécurité des données et le Big Data ....................................................................... 33

a) Sécurité des données ..................................................................................................... 34

b) Google .................................................................................................................. 36

c) Le Cloud .................................................................................................... 38

d) Big Data, créateur de nouveaux risques : Le Patriot Act et la NSA . 43

Conclusion .......................................................................................................................... 47
Sommaire des annexes ....................................................................................................... 48
Annexes .............................................................................................................................. 49
Bibliographie et Webographie .......................................................................................... 54

2
SYNTHESE

La chaîne logistique, ou supply chain, est le management de la logistique et de la coordination


de différents flux qui vont permettre à l’entreprise de remplir sa finalité. Aujourd'hui, ce
concept est devenu une compétence essentielle pour bien des entreprises car, même si ce n'est
pas leur activité première, elle a une influence directe et colossale sur sa performance
commerciale, économique, financière, environnementale et donc sur la création de valeur
durable qu'elle est capable de générer et d'accumuler année après année. D'après Porter, une
chaine d'approvisionnement doit être optimisée et doit s'accorder avec l'ensemble du
processus logistique pour apporter de meilleur coût, délai et service.

Le Demand chain est un élément clé du processus supply chain. C'est un management axé sur
la relation qu'entretien le fournisseur et le client afin de comprendre les problématiques de
coûts et de définir les sources potentielles de différenciation. En l'assimilant aux nouvelles
technologies et aux systèmes d'informations, on peut définir la demand chain comme une
chaine qui décompose toutes les activités stratégiques de l'entreprise afin d'en gérer les flux
physiques et informationnelles.

Aujourd'hui, le phénomène qui révolutionne les entreprises est appelé Big Data. Les 3V's de
Gartner définissent la complexité dont les data font l'objet. Ces Big Data sont assimilés au
volume, à la vitesse et la variété des données, auquel on ajoute la valeur qu'une entreprise peut
retirer de sa capacité à mieux maîtriser que ses concurrents ainsi que la véracité dans le tri de
données pertinentes. Les outils traditionnels de collecte d'informations ne suffisent plus dans
un environnement ou l'information et la concurrence font rage. C'est pourquoi l'utilisation de
cette technologie apporte des avantages dans la collecte, le tri et l'analyse de ces millions de
données.

La donnée est donc le nouvel or noir technologique du XXI e. Les enjeux du Big Data,
accouplés au processus supply chain, sont énormes. Dans un contexte où les entreprises
cherchent à diminuer leurs coûts au maximum tout en offrant des services irréprochables, le
Big Data permet de relier chaque niveau d'une organisation en analysant des flux continus de
mégadonnées afin d'anticiper les évènements et de prendre des décisions stratégiques.

3
La mise en place d'une plateforme Big Data représente une mine d'opportunités pour celui qui
souhaite capter et exploiter des données. Les Business Intelligence permettent d'offrir à ses
utilisateurs la capacité de déchiffrer les données et d'identifier les nouvelles tendances du
marché. Les méthodes de BI, de Massive Parallel Processing et de MapReduce proposent
d'utiliser les données passant par les systèmes d'informations, comme les data warehouse ou
les CRM, afin de compléter son processus de chaine décisionnelle, c'est à dire la collecte, le
stockage, la distribution et l'exploitation. Cependant, la construction d'une plateforme n'est
pas toujours évidente, puisqu'elle doit répondre à des besoins spécifiques de traitement de
données.

Le big data est depuis quelques années ancré dans le cœur de certaines entreprises comme
Amazon, pionnier du e-commerce et des méthodes de big data. Sa stratégie tournant autour du
consommateur et ses méthodes innovantes; comme la livraison prédictive, le one click et le
filtrage collaboratif; s'appuient sur une supply chain efficace, faisant de lui le roi des ventes
sur internet.

Une autre géant des nouvelles technologies, Apple, se focalise sur l'arrivée du big data dans sa
chaine d'approvisionnement pour améliorer ses produits et permettre une livraison optimale le
Jour-J. Ses principales technologies collectant le data sont avant tout son site web, ses outils
comme Siri, ainsi que ses nouveaux produit eux-mêmes tel que l'Apple Watch.

Le dernier exemple d'un colosse du big data est la société Walmart, première grande chaîne de
distribution au monde. Appuyé de son puissant centre regroupant des plateformes cross
docking, Walmart allie sa force physique à son réseau d'informations pour satisfaire le client,
dernier élément dans sa supply chain. En étant transparent avec ses fournisseurs, Walmart
possède de nombreuses informations lui servant à anticiper et maximiser son réseau. En
utilisant sa propre flotte de camions et en intégrant des logiciels big data tel que WMX, la
supply chain de Walmart est devenue une référence pour les entreprises du secteur.

Cependant, l'avenir du big data nous amènes à penser qu'il existe des risques, notamment liés
à la sécurité de l'information, dans l'introduction de cette technologie dans nos vies. En effet,
les avis divergent et le problème éthique de la donnée fait son apparition en même temps que
ces technologies. Le respect de la propriété intellectuelle, les données bancaires ou même le
réseau big data, demande une analyse profonde du sujet avant de suivre le virage de
l'information. Google et son Cloud est d'ailleurs le principal acteur de ce danger que

4
représente le big data. Ses projets ambitieux mais utopiques et sa vision transhumaniste du
monde, rendent perplexes l'information que nous souhaitons envoyer, même si le cloud a
révolutionné le partage de données tout en posant des questions essentielles sur la sécurité. Le
problème de confidentialité s'étend jusqu'aux agences gouvernementales qui sont liées aux
plus grandes entreprises par le biais de l'informatique. La NSA et le Patriot Act amassent des
centaines de milliards de données sur chacun d'entre nous (e-mails, fichiers échangés, extraits
de conversation en ligne), sans que nous sachions l'exactitude de leurs projets.

D’où la problématique suivante qui se pose : en quoi big data et les nouvelles technologies
font évoluer la Supply Chain ?

Les entreprises utilisent les nouvelles technologies dans le but d’optimiser et de réduire leurs
coûts au niveau de la Supply Chain, mais aussi dans un souci de prévoir et anticiper la
demande. Chez Amazon, ces technologies se traduisent par des centres de distribution high-
tech ou encore prochainement la livraison par drone.

5
Introduction

La supply chain1 est une interaction complète entre les outils, techniques, méthodes et
ressources d'une entreprise, allant du système de transport jusqu'à la distribution, auquel on
attribue les fonctions d'achats de matériaux, la transformation de ces matières en produits
intermédiaires et finis, et la distribution de ces produits finis vers le client. La supply chain est
mise à l'épreuve dans de nombreux services au sein d'une entreprise, mais sa complexité peut
varier d'une entreprise à une autre. La supply chain a pour objectif d'optimiser les flux en
faisant participer toutes les entités à améliorer leur processus et atteindre un processus de bout
en bout complet et optimal.

D'après Michaël Porter2 :

Dans cette chaîne de valeur, il y a deux catégories: les activités principales (en orange) et les
activités de soutien (en gris). Les activités principales sont liées à la production et à la
distribution, les activités de soutien en permettent la bonne exécution. L’entreprise peut
optimiser ses différents services afin de créer une chaîne de valeur en coordonnant ces
catégories et par la suite, obtenir un avantage concurrentiel.

1
http://www.faq-logistique.com/Definition-Chaine-Approvisionnement.htm
2
http://www.actinnovation.com/innobox/outils-innovation/analyse-chaine-de-valeur

6
Ce concept est devenu clé pour les dirigeants, qui ne cessent de vouloir apporter le meilleur
service, dans le meilleur délai mais surtout au meilleur coût. Pour maintenir la rentabilité, les
entreprises doivent trouver de nouvelles façons de répondre à la demande. Pour faciliter le
pilotage des flux et maitriser la chaine dans son intégralité, la supply chain doit coopérer dans
l'intégration de la Demand chain3 (Versloot) dans son processus.

Avec le concept de Demand chain, tout le réseau est concentré sur les besoins du client. Par
conséquence, les coûts sont réduits, les idées de création de nouveaux produits se développent
plus rapidement et la relation client est gérée au millimètre. Toutes les parties prenantes ont
besoin de visibilité en ce qui concerne les besoins du consommateur et ce qu'il achète
réellement. Une chaine d'approvisionnement n'est pas linéaire, il est donc essentiel d'avoir un
aperçu de la consommation en temps réel et d'analyser les comportements d'achats.

Aujourd'hui, nous sommes confrontés à la concurrence informationnelle à laquelle nous


devons stocker toujours plus de quantité d'informations, pour les reproduire, les diffuser et les
transmettre en une expérience ou un savoir. Selon des experts, nous avons crée en deux ans
plus d'informations qu'au cours de l'histoire. Cette révolution digitale nous porte à croire que
l'information est vitale pour le bon fonctionnement de toute entreprise. Ce flux d'informations
communément appelé Big Data est devenu ces dernières années l'essence même des
entreprises qui en tire une réelle valeur ajoutée.

Nous devrons tous, tôt ou tard, travailler en étroite collaboration avec les nouvelles
technologies de demain. Il est donc pertinent de savoir en quoi les technologies et le Big Data
peuvent nous être utiles dans le domaine de la supply chain. A partir de ce sujet, nous avons
une occasion d’approfondir l’analyse de cette étude.

Problématique : Quel est l’impact du phénomène Big Data dans la fonction supply
chain ?

Tout d’abord, la première partie présentera la fonction de la Supply Chain liée aux enjeux Big
Data. Puis, nous verrons comment cette technologie est présente dans nos entreprises et
comment elle s'imbrique à la fonction supply chain. Enfin, nous étudierons les risques liés à
ces importants flux de données.

3
http://www.e-consolutions.com/blog/2013/supply-vs-demand-chain-management-blog-1/

7
I - Enjeux et approche du Big Data

a) Définition du Big Data

"Le Big data4, littéralement les grosses données, est une expression anglophone utilisée pour
désigner des ensembles de données qui deviennent tellement volumineux qu'ils en deviennent
difficiles à travailler avec des outils classiques de gestion de base de données ou de gestion de
l'information. L'on parle aussi de datamasse en français par similitude avec la biomasse."

Dans ces nouveaux ordres de grandeur, la capture, le stockage, la recherche, le partage,


l'analyse et la visualisation des données doivent être redéfinis. Les perspectives du traitement
des Big data sont énormes, notamment pour l'analyse d'opinions politiques ou de tendances
industrielles, la génomique, l'épidémiologie ou la lutte contre la criminalité ou la sécurité.

Le phénomène Big data est considéré comme l'un des grands défis informatiques de la
décennie 2010-2020. Il engendre une dynamique importante tant par l'administration, que par
les spécialistes sur le terrain des technologies ou des usages.

Les Big Data permettent d’imaginer aujourd’hui des applications qui étaient impossibles à
concrétiser auparavant, du fait des fameux « 3V » de Gartner : des volumes trop importants
pour être analysés dans leur ensemble, obligeant à exploiter des échantillons pas toujours
représentatifs ; une variété empêchant toute modélisation rapide ; et des vitesses
d’actualisation n’offrant pas le temps d’analyser les données au moment voulu.

Aux 3V de Gartner, SAS en ajoute un quatrième, la valeur que l’entreprise peut tirer de ces
données. Quelles que soient la vitesse, la volumétrie et la variété de ces données, les
entreprises doivent être en mesure de tirer parti de la valeur des informations stockées en
masse grâce à une approche analytique des Big Data. C’est ce que l’on appelle les « Big Data
Analytics ».

 V, comme Volume : le Big Data, c’est donc un volume gigantesque de données.


 V, comme Vitesse : le Big Data, c’est un traitement rapide des données, en temps réel.
 V, comme Variété : le Big Data, ce sont des données variées, prenant différentes
formes. Ainsi, une image, une vidéo, un tweet, un like sont des datas. Une simple trace

4
http://www.redsen-consulting.com/2013/06/big-data/

8
laissée sur un site internet suite à votre visite, les fameux cookies, ou par un de vos
objets connectés sont des datas.
 V, comme Véracité : le Big Data pose le problème de la véracité des données. Sont-
elles pertinentes, sont-elles réelles ?
 V, comme Valeurs : le Big Data pose aussi la problématique de savoir quelles valeurs
ajoutées apportent ces données. Le tri des données est alors indispensable. Il est
primordial de bien sélectionner les données à analyser, en fonction de son activité et
surtout de ses objectifs.

b) Enjeux du Big Data

La logistique est confrontée à plusieurs enjeux en plus des recherches de réduction des coûts
et délais comme le développement durable, l’essor du e-commerce, la traçabilité des produits,
le recyclage, etc.

Les succès de géants de l'Internet tels qu’Amazon, Google, Facebook et eBay fournissent des
preuves d'un quatrième facteur de production aujourd'hui dans notre monde hyper-connecté.
Outre les ressources, le travail et le capital, il n'y a pas de doute que l'information est devenue
un élément essentiel de différenciation compétitive.
Peu importe la question, qu’elle porte sur les volumes de ventes prévus, les préférences de
produit du client ou des horaires de travail optimisés, c’est maintenant la donnée qui a le
pouvoir d'aider les entreprises à réussir.
Comme une quête pour le pétrole, le Big Data est l’outil utilisé dans le forage d'un gisement
pour révéler des informations précieuses.

Pourquoi la recherche de l'information utile est-elle si complexe? Ceci s’explique par l'énorme
croissance des données disponibles au sein des entreprises et sur l'Internet.

Retour en 2008, le nombre de données numériques (bits) a dépassé le nombre d'étoiles dans
l’univers, notamment grâce à l’explosion des médias sociaux, à l’omniprésence des
accès réseau, et au nombre croissant de périphériques intelligents connectés. «L’univers
numérique» d'aujourd'hui se développe considérablement puisque son taux de volume de
données double tous les deux ans.

9
En plus de cette croissance exponentielle de volume, deux autres caractéristiques ont
considérablement changé.

Premièrement, les données affluent. Le déploiement massif des appareils connectés tels que
les voitures, les smartphones, les lecteurs RFID, les webcams, et les capteurs ajoutent un
grand nombre de sources autonomes aux données. Des dispositifs tels que ceux-ci génèrent
des flux de données en continu, sans intervention humaine, ce qui augmente la vitesse
d'agrégation de données et de leur traitement.

Deuxièmement, les données sont extrêmement variées. La grande majorité des données
nouvellement créées découle de photos, d'images de vidéo surveillance, de blogs, de forums
de discussion ou encore de catalogues de e-commerce. Toutes ces sources de données non
structurées contribuent à plus grande variété de types de données.

Lorsque le fournisseur mondial en télécommunications Telefonica a commencé à explorer des


business models axés sur l'information, il était déjà capable de traiter des centaines de
millions de données chaque jour à partir de son réseau dans le but d'acheminer et de facturer
des appels téléphoniques.

10
Ainsi, la manipulation d'énorme volume de données à grande vitesse n'était pas le principal
problème. La question clé qu'avait à répondre Telefonica était : "Quelle valeur ajoutée
le volume de données existant apporte t-il et comment peut-on l'exploiter ? "
Alors que les consommateurs sont familiers dans la diffusion d'informations axées sur les
décisions de la vie quotidienne tels que les achats, la planification d'itinéraire, ou de trouver
un endroit pour manger, les entreprises sont en retard.

Pour exploiter leurs ressources d'informations, les entreprises doivent changer leur attitude sur
la façon d'utiliser les données. Dans le passé, l'analyse de données a été utilisée pour
confirmer les décisions qui avaient déjà été prises. Aujourd'hui, ce qui est nécessaire est un
changement culturel. Les entreprises doivent réfléchir à un style de prospection de l'analyse
des données qui génère de nouvelles connaissances et de meilleures réponses. Ce changement
de mentalité implique également de nouvelles techniques d'expérimentation ainsi qu'une
coopération et une transparence accrue dans toute l'entreprise. Avec cette transition, une autre
condition préalable pour devenir une entreprise axée sur l'information est d'établir un
ensemble spécifique de compétences en data science. Cela comprend à la fois la maîtrise d'un
large éventail de procédures analytiques et d'avoir une compréhension globale des
affaires.

Les entreprises doivent adopter de nouvelles approches technologiques pour explorer


l'information en termes de détail et de vitesse. Les méthodes innovantes de traitement de
données comme les bases de données en mémoire et les nouveaux modèles informatiques
promettent de résoudre la problématique posée par l'analyse de données à grande échelle tout
en étant économiquement viable.

Chaque entreprise possède déjà beaucoup d'informations. Mais la plupart de leurs données
doivent être affinées; seulement peuvent-elles être transformées en valeur pour l'entreprise.
Avec le Big Data, les entreprises peuvent atteindre une solidité au niveau des compétences et
des technologies, nécessaires pour devenir une raffinerie de données et créer de la valeur
ajoutée à partir de leurs actifs informationnels.

De nombreux secteurs sont touchés par l'application des Big data. On peut citer le secteur des
assurances qui utilisent les mégadonnées pour diverses raisons:

 Une meilleure tarification liée à l'évaluation des risques;

11
 Captation de nouveaux clients et fidélisation par la méthode profiling 5, un
regroupement de clients selon une caractéristique commune;
 Une création d'outils de détection de fraudes;
 une amélioration de la gestion des sinistres;
 Une réponse aux exigences de solvabilité.

Le secteur de la logistique est idéalement placé pour bénéficier des avancées technologiques
et méthodologiques du Big Data. La maîtrise de données a toujours été la clé de la discipline.
En effet, dans sa racine grecque, la logistique signifie «pratique arithmétique».

Aujourd'hui, les prestataires logistiques contribuent à gérer un afflux massif de produits tout
en créant en même temps de vastes ensembles de données. Pour des millions d'envois chaque
jour, l'origine et la destination, la taille, le poids, le contenu, et l'emplacement sont tous suivis
à travers les réseaux mondiaux de distribution. Mais la traçabilité de ces données est-elle
totalement exploitée? Probablement pas.

Considérons une intégration des flux de données de la chaîne d'approvisionnement provenant


de plusieurs fournisseurs logistiques; cela pourrait éliminer la fragmentation actuelle des
marchés, permettant de nouvelles collaborations ainsi que de nouveaux services.
De nombreux fournisseurs se rendent compte que le Big Data est une révolution dans le
secteur de la logistique.

Dans une étude récente sur les tendances de supply chain, soixante pour cent des répondants
ont déclaré qu'ils prévoient d'investir dans l'analyse Big Data lors des prochaines années.

5
http://www.revue-banque.fr/banque-detail-assurance/article/big-data-modifie-visage-assurance (Le Big Data
modifie le visage de l'assurance, 2015)

12
Capitaliser sur la valeur de l'information est un nouvel objectif stratégique pour la plupart des
entreprises et des organisations. En dehors des géants de l'Internet qui ont des business model
orientés sur l'information, les entreprises des autres secteurs sont généralement dans les
premières étapes de l'exploration. Elles cherchent donc comment tirer profit de leurs données
et comment les utiliser de la bonne façon.

Selon une étude récente, seulement 14% des entreprises européennes traitent déjà de l'analyse
Big Data dans le cadre de leur planification stratégique.

13
Et pourtant, près de la moitié de ces entreprises prévoient une croissance annuelle de données
dans leur organisation de plus de 25%.

Lorsque les entreprises adoptent des solutions Big Data dans le cadre de leur stratégie
d'entreprise, la première question qu'elles se posent est généralement de savoir quel type de
valeur le Big Data va t-il amener. D'un point de vue de la valeur, l'analyse Big Data se pilote
vers trois dimensions.

Expérience
•Accroitre le niveau de
transparence
client •Développer des sources de
revenus à partir de produits
•Optimiser la consommation des existants
•Augmenter la fidélité des clients
ressources •Création de nouvelles sources
•Effectuer une segmentation client
•Améliorer la qualité des avec les données
et un ciblage précis
processus et de la performance
•Optimiser l’interaction
client/service

Efficacité Nouveau
opérationnelle Business model

La première et la plus évidente est l'efficacité opérationnelle. Dans ce cas, les données sont
utilisées pour prendre de meilleures décisions, afin d'optimiser la consommation de ressources
et d'améliorer la qualité des processus et de la performance. C'est ce que le traitement
automatisé de données a toujours fourni, mais avec un ensemble de fonctionnalités améliorés.

La seconde dimension est l'expérience client ou le rôle des Big Data est d'augmenter la
fidélité des clients, d'effectuer une segmentation précise de la clientèle et d'optimiser le
service à la clientèle.

Incluant les vastes ressources de données de l'Internet, la technologie du Big Data propulse
celle du CRM vers une prochaine étape de l'évolution.

La troisième dimension est financière. En effet, le Big Data permet également aux nouveaux
business models de compléter leurs revenus résultant des produits existants, et de créer des

14
recettes supplémentaires à partir de nouveaux produits nommés données. Il joue un rôle
décisif sur les plans d'économies grâce à une analyse pointue des stocks, des commandes en
cours, des impayés ou des arrêts maladie des collaborateurs. Il permettrait au secteur
américain de la santé de gagner 300 milliards de dollars par an, dont 200 milliards
d'économies, selon une étude le cabinet McKinsey (Mckinsey, 2011).

Les entreprises adoptent deux types de posture face à une crise : elles vont d’abord y répondre
à court terme en mettant en œuvre des solutions qui leur permettent de régler rapidement les
problèmes auxquels elles sont confrontées, puis elles vont faire évoluer leurs organisations,
leurs pratiques et leurs systèmes grâce à un processus d’apprentissage qui leur permettra par
la suite de s’adapter plus facilement à d’autres situations critiques.

La capacité à anticiper les évènements constitue un levier essentiel d'efficacité dans la Supply
Chain. L'augmentation de la collaboration avec les clients, les fournisseurs, les transporteurs
ou prestataires permet d'améliorer significativement leur visibilité pour un pilotage plus
anticipatif et une logistique moins couteuse au global.

15
Un autre enjeu apparait dans la révolution Big Data, le benchmarking6.C'est une technique de
marketing ou de gestion de la qualité qui consiste à étudier et analyser les techniques de
gestion, les modes d'organisation des autres entreprises afin de s'en inspirer et d'en tirer le
meilleur. C'est un processus continu de recherche, d'analyse comparative, d'adaptation et
d'implantation des meilleures pratiques pour améliorer la performance des processus dans une
organisation.

Un benchmark est un indicateur chiffré de performances dans un domaine donné (qualité,


productivité, rapidité et délais, etc.) tiré de l'observation des résultats de l'entreprise qui a
réussi le mieux dans ce domaine. Cet indicateur peut servir à définir les objectifs de
l'entreprise qui cherche à rivaliser avec elle.

Une étude interne s’applique bien afin de comparer l’efficacité des processus entre diverses
plateformes logistiques d’une même entreprise. Cette approche est pratique courante entre les
plateformes d’une entreprise positionnées sur différents continents. Des études
concurrentielles et stratégiques tendent, quant à elles, à comparer les pratiques ou les objectifs
stratégiques de l’entreprise face à ses concurrents. Il s’agit d’une approche moins facile à
implanter, mais qui dévoile beaucoup d’informations à ses participants.

En revanche, les études génériques et fonctionnelles sont axées vers la comparaison entre des
entreprises non concurrentielles et ayant en commun leur industrie ou leurs processus
critiques. Enfin, pour les entreprises cherchant à faire évoluer certaines activités critiques en
contexte de compétitivité accrue, une étude organisationnelle à plus large portée permet
d’établir les lignes directrices à suivre par l’ensemble des départements impliqués. Le succès
de cette approche réside particulièrement dans le gain global de la performance d’une
entreprise et la symbiose des différents départements. Tous ces modèles se ressemblent, mais
ils nécessiteront une approche différente lors de la mise en place de leurs paramètres.

Dans un contexte d'étalonnage concurrentiel, la solution cloud permet d'offrir des contenus
étendus dans la supply chain. Elle permet également de rendre possible le benchmarking en
temps réel. Les techniques traditionnelles d'étalonnage sont maintenant difficiles à exploiter
en raison de leurs données statiques contrairement au cloud qui contribue au déploiement des
technologies plus facilement.

6
http://www.definitions-marketing.com/Definition-Benchmark (Bertrand, 2015)

16
c) Les différentes approches pour construire une plateforme Big Data.

En 2012, nous générions 5 exabytes en 2 jours seulement. En 2014, il nous fallait moins de
10 minutes pour produire 5 exabytes. Ces importants flux de données doivent être gérés par
des systèmes d'informations afin de les stocker et les trier. Avec la gestion de la production, il
devient évident de gérer les flux physiques et les flux d’informations de l’entreprise. Les
systèmes d’informations de gestion de production permettent donc de maîtriser ces flux.
Nous produisons chaque jour toujours plus d'informations. Il est donc primordial de savoir les
capter, les pérenniser et les exploiter.
Afin de déchiffrer ces données, les entreprises optent pour la mise en place de Business
Intelligence (Business Intelligence : pour mieux piloter)7.
Appelée "intelligence d'affaires" ou "informatique décisionnelle", englobe les solutions
informatiques apportant une aide à la décision avec, en bout de chaîne, rapports et tableaux de
bord à la fois analytiques et prospectifs. Le but est de consolider les informations disponibles
au sein des bases de données de l'entreprise.

Les avantages des programmes de business intelligence sont nombreux:

 accélération et amélioration des prises de décision;


 optimisation des processus internes augmentant l'efficacité opérationnelle,
 de nouveaux revenus
 obtention d'avantages concurrentiels
 identification des tendances du marché

Les données BI peuvent comprendre des informations historiques, ainsi que de nouvelles
données à partir de source recueillies d'un Data Warehouse8 (Fernandez) ou entrepôt de
données, permettant un soutient des processus stratégiques et tactiques de prise de décision.
Initialement, les outils de BI ont été principalement utilisés par les analystes de données et
professionnels de l'informatique qui ont analysé et produit des rapports contenant des requêtes
de résultats pour les utilisateurs professionnels. Cependant de plus en plus de dirigeants
d'entreprises et de salariés utilisent des logiciels BI eux-mêmes, en partie grâce au
développement de l'auto-service en BI et des outils de recherche de données.

7
http://www.journaldunet.com/solutions/intranet-extranet/business-intelligence/
8
http://www.piloter.org/business-intelligence/datawarehouse.htm

17
La Business intelligence combine un large éventail d'applications d'analyse de données, y
compris des analyses ad hoc et de requête, le reporting d'entreprise, le traitement analytique
en ligne (OLAP), la BI mobile, la BI en temps réel, la BI opérationnelle, le cloud et les
logiciel de service BI, BI Open Source et Intelligence collaborative BI.

La technologie BI comprend également un logiciel de visualisation de données pour la


conception de diagrammes, ainsi que des outils pour la construction de tableaux de bord BI et
tableaux de bord de performance qui affichent des données visualisées sur mesures avec des
indicateurs clés de performance (KPI).

Voici un tableau comprenant la plupart de ces SI :

D'autres systèmes d'informations ont prouvés leur efficacité dans la course du Big Data. On
peut citer :

 Le MRP9 (ou CBN, Calcul des Besoins Nets), une méthode de gestion et planification
de production en flux poussé qui est basé sur les prévisions des ventes et les
nomenclatures des produits. Le principe de cette méthode est de déterminer de
manière automatisée le besoin net de chaque produit fini en tenant compte des ordres
prévisionnels et des ordres lancés ou fermes. Le calcul du besoin net se fait de la
manière suivante : besoin brut – stock.

9
http://www.faq-logistique.com/MRP.htm

18
 La Gestion de Production Assistée par Ordinateurs (GPAO) 10, un logiciel de suivi qui
permet à l'utilisateur de gérer l'ensemble des activités, liées à la production. Les
solutions de GPAO proposent entre autre la gestion des stocks et des achats, les
commandes, l'expédition de produits et la facturation.

Source Infotel11

Des changements technologiques tels que l'évolution des processeurs, des mémoires flash, ou
l’augmentation des volumes de stockage permettent d'avoir de réels gains de performance.
Pour gérer les Big Data, de nouvelles technologies Open Source, capables d'optimiser ces
nouvelles ressources matérielles ont vu le jour. Une «Big Data Analytics platform» n'est pas
juste une plate-forme de traitement de données puisqu'elle est également une plate-forme
d'analyse d'immenses volumes de données. Elle offre la possibilité de gérer un grand volume
de données dissociées, à une grande vitesse et à la bonne période pour permettre l'analyse en
temps réel.

La plate-forme Big Data idéale fourni certaines capacités :

 une analyse profonde, où la puissance de calcul est répartie sur de nombreux


processeurs indépendants qui fournissent des réponses rapides à des questions très
complexes;

10
http://www.journaldunet.com/encyclopedie/definition/1119/51/20/gestion_de_production_assistee_par_or
dinateur.shtml
11
www.infotel.com

19
 une haute flexibilité, en étant scalable (capacité dimensionnel d'un système
informatique à s'adapter, s'étendre et se mettre à jour par rapport à la demande 12) afin
d'absorber un accroissement important du volume de données hétérogènes (de l'ordre
du terabyte ou du petabyte);
 une extensibilité massive, de façon à donner des recommandations ou à gérer un
apprentissage automatique;
 une faible latence dans les délais de communications informatique;
 un haut niveau de disponibilité pour manager le fail-over, la capacité à basculer
automatiquement vers un réseau de secours alternatif.

Il est important de comprendre que pour la construction d'une plateforme «Big Data
Analytics», une technologie fournisseur unique peut s’avérer insuffisante. La plateforme doit
présenter certaines capacités pour être à même de répondre à un ensemble de besoins
spécifiques. On distingue deux approches différentes dans la manière de concevoir une
plateforme «Big Data Analytics».

La première approche consiste à utiliser le Massive Parallel Processing 13 (MPP ou traitement


massivement parallèle) avec les bases de données. C'est un système dans lequel de nombreux
processeurs travaillent simultanément dans des mémoires différentes pour exécuter un même
programme. Cette solution permet d'absorber les pics de distribution, de charges, de temps de
réponse et d'adresser les questions relatives à la gestion du mécanisme de fail-over.
En outre, elle peut aussi présenter certaines capacités spécifiques lui permettant de s’adapter à
un domaine particulier et peut fournir ainsi une solution sur mesure.

La deuxième approche consiste à utiliser MapReduce14. C'est un modèle de programmation


massivement parallèle adapté au traitement de très grandes quantités de données. Les
programmes adoptant ce modèle sont automatiquement parallélisés et exécutés sur des
clusters (grappes) d'ordinateurs. Ce framework, initialement utilisé par Google pour effectuer
des recherches sur le web, est maintenant disponible au travers du projet Apache Open Source
appelé Hadoop. L'un des avantages principaux de MapReduce est qu'il permet la répartition

12
http://www.linternaute.com/dictionnaire/fr/definition/scalabilite/
13
http://www.dicofr.com/cgi-bin/n.pl/dicofr/definition/20010101003433
14
http://www.piloter.org/business-intelligence/map-reduce.htm

20
de la charge sur un grand nombre de serveurs grâce à une abstraction totale des mécanismes
de parallélisation sous-jacents.
Parmi les autres avantages, on peut citer la facilité de programmation, ainsi que la robustesse
nécessaire pour traiter de très gros volumes de données.

(MapReduce
illustrated)15

Les entreprises ont donc la possibilité de choisir entre les solutions Open Source et les
solutions propriétaires commercialisées par des éditeurs. Toutefois, une troisième possibilité
peut être envisagée, consistant à créer une solution hybride, qui associe différentes
technologies et capacités pour gérer ce phénomène des Big Data16.

15
http://digicomet.blogspot.fr/2012/06/mapreduce-illustrated.html
16
http://www.themetisfiles.com/wp-content/uploads/2013/04/Big-Data-Ecosystem.png

21
Toute organisation, quelle que soit sa taille, est désormais axée sur la réduction des dépenses
informatiques. Malgré cela, l'analyse des données à des fins commerciales reste un critère
différenciateur important pour les Entreprises dans la conquête de nouvelles affaires. Si les
solutions propriétaires permettent de gérer des volumes importants de données et de réaliser
des analyses complexes, cela peut entraîner des coûts de licence exorbitants.

A cet égard, les entreprises peuvent privilégier une mise en œuvre autour des technologies
Open Source qui sont disponibles. La réduction des coûts, l'extensibilité et les facilités
d'intégration sont quelques-uns des avantages que les organisations vont pouvoir retirer des
solutions Open Source. De plus, la communauté est très active et ne cesse de faire des efforts
pour améliorer les caractéristiques, et ajouter de nouvelles fonctionnalités à ces solutions.

Parmi ces solutions Open Source, on peut citer Jasper soft et Pantaho reporting pour les outils
d'analyse et de reporting, Talend pour les outils d'ETL (Extract Transform Load), Apache
Hadoop et Cassandra pour l'implémentation de la technologie MapReduce.

22
II - L'entreprise et le Big Data

a) Amazon

A l'origine, Amazon17 (Jeff Bezos (né en 1964), Amazon.com : l’inventeur et le leader de l’e-
commerce) ne proposait que 20 produits dans son catalogue en ligne. La société y propose
notamment du contenu multimédia tel que des musiques, des vidéos, des ordinateurs et
logiciels. Cependant, c'est le livre qui arriva en tête de liste, par son large éventail de choix
possibles.

La réussite de cette organisation repose sur des procédés simples, mais intelligents qui ont fait
d'Amazon l'entreprise numéro 1 mondial de l'e-commerce.
On peut citer entre autre la possibilité d'introduire des commentaires et avis sur les produits la
conduisant au premier rang du classement des meilleurs services clients en 2001.
Un autre procédé fut le projet "One Click", permettant de faire des achats sans le moindre
effort en seulement un clic, tout en relevant l'identité des acheteurs et de leurs moyens de
paiements en les intégrant dans un data Warehouse. Ce projet révolutionna ensuite toutes les
ventes des autres sites e-commerces.

Voici les principaux chiffres à savoir concernant Amazon:

 Un tiers des achats sur Internet aux Etats-Unis;


 Le livre représente plus de 50% des ventes aux USA, et Amazon pourrait être le 1er
libraire de France;
 Une croissance globale trois fois plus importante que celle de son marché;
 Une capitalisation deux fois supérieure à celle de son premier concurrent eBay;
 Plus de deux fois plus de clients que Groupon;
 Quinze fois plus de salariés que Facebook soit environ 100 000 salariés partout dans le
monde;
 Un chiffre d’affaires supérieur à celui de Google soit de 75 milliards de dollars;
 142 milliards de capitalisation;

17
http://www.capital.fr/enquetes/histoire-eco/les-50-plus-grands-patrons-de-l-histoire/jeff-
bezos-ne-en-1964-amazon.com-l-inventeur-et-le-leader-de-l-e-commerce

23
 107 millions de références en France;
 Une marque aujourd’hui plus connue et plus valorisée que Wallmart.

Au tout début, quand Amazon était surtout un détaillant de livres, la société a été la première
à utiliser intensivement des algorithmes afin de pouvoir fournir des recommandations pour les
clients: «Les clients qui ont acheté cet article, ont également acheté celui-ci ...".

Aujourd'hui, il utilise le filtrage collaboratif avec de nombreuses données tels que ce que les
utilisateurs ont acheté avant, ce qu'ils ont dans leur carte d'achats ou liste de souhaits virtuelle,
les articles qu'ils ont évaluées et examinées, ainsi que ce que les autres utilisateurs similaires
ont acheté, tout ça dans le but de personnaliser l'expérience de navigation clients.
Ce que Amazon vient de faire est de combiner la force des analyses de données avec sa
capacité à breveter des compétences pour obtenir un brevet appelé : la livraison anticipée.

Le Big data intervient donc lors de cette étape puisque c'est un processus d'expédition d'article
vers des clients, en prévision de ce que le client va commander comme produit. Cela signifie
qu'Amazon estime que les analyse de données deviendront si précisent, qu'elles pourront
prédire qui va commander, quoi et quand. La raison pour cela est qu’Amazon veut être
capable de livrer des produits plus rapidement. Voilà aussi pourquoi Amazon a commencé à
expérimenter des drones de livraison qui pourraient livrer nos colis dans l'avenir.

D'autres détaillants plus traditionnels ont longtemps utilisé l'analyse prédictive pour savoir si
les bons articles étaient en stock, ou même pour se baser sur les habitudes d'achat passées
ainsi que d'analyser les médias sociaux et les prévisions météorologiques. Ce qui est nouveau
ici est que Amazon prend ça personnellement, en prédisant les éléments que vous pourriez

24
achetez.

En décidant ce qu'il faut livrer, Amazon va analyser lui même les commandes précédentes, les
recherches de produits, listes de souhaits, les rendements et même combien de temps met un
internaute pour survoler un élément du site.
Dans ce processus, Amazon reçoit un ordre, puis étiquette des paquets avec les adresses de ses
entrepôts et les charges avec UPS, USPS ou d'autres transporteurs, pour ainsi les livrer
directement au domicile du client.

Dans le but de réduire les délais de livraison, Amazon à étendu son réseau d'entrepôts pour
commencer les livraisons le jour même et la nuit. L'année dernière, l'entreprise a déclaré
qu'elle travaillait sur des véhicules volants, sans pilote, qui pourrait livrer de petits paquets
vers les maisons, directement à partir de ses entrepôts.
Dans ce brevet, Amazon n'a pas estimé combien de temps la technique permettra de réduire
les délais de livraison. Pourtant, ce brevet illustre une tendance croissante, ou les entreprises
des secteurs de la technologie et de la consommation doivent anticiper les besoins des
consommateurs. Aujourd'hui, certains produits comme les téléviseurs intelligents ou même les
réfrigérateurs, peuvent savoir lorsqu'il est temps d'acheter plus de lait.

25
Selon le brevet, Amazon peut remplir des adresses et des codes postaux avant de compléter
l'étiquette. Pour les grands immeubles et appartements, un paquet sans informations peut être
expédié à une adresse physique en fonction de la prévision du nombre de locataires.

Amazon a déclaré que la méthode d'expédition prédictive pourrait particulièrement bien


fonctionner pour les livres populaires ou d'autres produits que les clients veulent le jour
même. En outre, Amazon pourrait suggérer des éléments déjà en transit vers les clients, tout
en utilisant son site Web afin d'assurer une livraison parfaite.

Bien sûr, les algorithmes d'Amazon peuvent parfois se tromper, incitant des retours coûteux.
Pour minimiser les coûts, Amazon a dit qu'il pourrait envisager de donner clients des rabais,
ou de convertir la prestation indésirable par un cadeau.
Un problème avec la livraison anticipée est qu’Amazon doit bien faire les choses. Si leurs
algorithmes de données volumineux se trompent, alors il pourrait potentiellement faire perdre
à l'entreprise beaucoup d'argent parce que les coûts de logistique pour l'expédition du produit
et de retour sont conséquents.

Un autre problème avec la livraison anticipée est de savoir comment une entreprise va être
autorisé à tirer profit de l'analyse de nos comportements personnels. Par exemple, une femme
a acheté un maillot de bain de grossesse sur Amazon comme un cadeau pour une de ses amis
qui attend un enfant. Le problème qui a suivi est que pour les 9 mois suivants, elle devait se
pencher sur les recommandations ou annonces liées à la grossesse. Imaginons qu'elle doive
alors retourner toutes ses couches, ses couvertures pour bébés ou ses lingettes pour bébé qu'un
algorithme anticipation et d'expédition prédictive pourrait envoyer à l'avenir.

Un autre enjeu lié au Big data est celui de l'impression 3D 18. En effet, Amazon vient créer un brevet
sur le concept de livraison-fabrication, qui reposerait sur une flotte de camions de livraison
contenant des imprimantes 3D. Le gain de temps est alors conséquent, puisqu'à peine commandé, le
produit pourra être "imprimé" dans les camions.

18
http://www.imprimeren3d.net/amazon-veut-equiper-ses-camions-de-livraison-dimprimante-3d-12379/
(Amazon veut équiper ses camions de livraison d’imprimante 3D)

26
Représentation schématisé du concept

Amazon fait parti des précurseurs dans les domaines du e-commerce et du Big data. Jeff
Bezos a réussi à créer une coordination totale entre la supply chain de son entreprise et la
maitrise des flux de données collectées. Sa capacité à innover et à maitriser la chaine de
valeur du e-commerce en a fait un modèle dans le domaine de la vente en ligne.

b) Apple

Il n'y a aucune surprise à ce qu'Apple traite avec le big data. Comme avec les nombreux
produits qu'il développe, il possède une cinquantaine de milliards de données liés aux
téléchargements sur l'AppStore. En effet, Apple nage dans une quantité massive de données
lui servant à améliorer et corriger ses produits. Tout en étend plus discret que Google, Apple
utilise des technologies big data comme Hadoop ou Large Scale Data Warehousing.

Dans sa supply chain, Apple utilise donc ses données pour améliorer la conception de ses
produits comme les IPhones et IPAd. Elles sont ainsi traitées pour anticiper les futures
demandes. Par exemple, lorsqu'un produit phare est sur le point de sortir au public, le big data
permet de traiter plus efficacement le flux de demandes et anticipe alors le processus supply
chain. Ceci permet à Apple d'écouler plus de 5 millions d'unités en un weekend.

27
Afin de stocker toutes ces données, Apple utilise des équipements, dit teradata,
principalement lancés avec le Cloud et mis en place après leur retard technologique face à
Google.

L'autre atout big data pour Apple est son application Siri, qui lui constitue un entrepôt de
données sur 2 ans pour chaque utilisateur, ce qui pose évidement le problème de la
divulgation des informations privées.

L'Apple Watch, la montre intelligente, est quand à elle génératrice de données portables,
permettant de savoir le nombre de pas effectué dans la journée, le nombre de calorie perdu ou
encore si nous dormons bien. Dans un futur proche, il sera possible d'analyser assez de
données pour déterminer des habitudes alimentaires ou des indicateurs de risques.

En combinant les capteurs environnementaux des produits, comme les accéléromètres, Apple
peut combiner ces données personnelles avec les données de localisation et de temps pour en
faire des statistiques approfondies sur les consommateurs. Des tests sont ainsi réalisés pour
savoir comment les gens utilisent leurs applications, dans une optique de fortifier l'expérience.

28
Voici quelques chiffres montrant l'ampleur du nombre de données collectées par Apple et de
son utilisation dans la supply chain:

 1 milliard. C’est le nombre des terminaux mobiles iOS (iPhone et iPad) activés fin
novembre 2014;
 74 milliards de dollars. C’est le chiffre d’affaires réalisé par Apple en… un seul
trimestre;
 74 millions. C'est le nombre d'iPhone vendus au dernier trimestre 2014;
 18 milliards de dollars. C’est le bénéfice net réalisé par Apple au 4ème trimestre 2014;
 39,9% de marge brute;
 170 milliards de dollars. C’est le montant de la trésorerie dont dispose Apple.

c) Le cas Wal-Mart

Walmart19 est le plus grosse entreprise du monde mais également le plus gros distributeur des
États-Unis. Créé en 1962 par Sam Walton, Walmart c'est aujourd'hui (chiffres 2011-2012), un
chiffre d'affaires de 354 milliards d'euros (l'équivalent du PIB de la Belgique), c'est le premier
employeur privé du monde avec 2,2 millions de salariés, il possède 10 130 magasins dans 27
pays et pour environ 200 millions de clients par semaine.

L'histoire de la façon dont Walmart a profité des données partagées et la façon dont il a
amélioré la logistique grâce à une meilleure prévision et une gestion des stocks est bien
comprise; cependant, il n'a pas été répliqué au même niveau par tout autre détaillant à ce jour.
Cela peut être attribué au génie de Sam Waltonn, son fondateur, qui étendit l'information
jusqu'au réseau fournisseur.

En 1987, Walmart avait son propre système satellite lui fournissant des informations variées
entre tous les départements de l'entreprise.

EN 1989, Walmart a vu les avantages de sa chaine d'approvisionnement lorsque ses coûts de


distributions ont représenté 1.7% de ses ventes.
Ce tout nouveau monde de partage de données et la collaboration à non seulement amélioré la
prévision et de la commercialisation, mais a aussi créé de nouveaux points de concurrence
entre de plus en plus de fournisseurs au sein de la chaîne d'approvisionnement de Walmart.

19
http://www.glossaire-international.com/pages/tous-les-termes/walmart.html (Walmart, 2015)

29
Dans les années 1990, Walmart a formalisé son système de Retail Link, qui a fournit des
données de vente (par poste, magasin et par jour) à l'ensemble de ses fournisseurs. Cette
information oblige Walmart a réduire le coût de merchandising, tout en sauvant le temps et
l'argent des fournisseurs dans la planification de leur production et de la distribution. L'autre
avantage surprenant de Wal-Mart et ses clients est que ses fournisseurs participent les uns
avec autres, lui permettant de faire des économies.

Le processus SCM de Walmart ne repose pas entièrement sur la technologie. En effet, la


société dispose d'un réseau tentaculaire de 160 centres de distributions couvrant 80 millions
de m² s'articulant sur des plateformes cross docking20(Action de faire passer des
marchandises des quais d’arrivée aux quais de départs, sans passage par le stock). En
instituant ce procédé dans ses entrepôts, Walmart déplace ses stocks directement depuis les
arrivées ou départs des camions. Les produits sont pris en charges dès l'arrivée et sont
emballés dans un camion à destination d'un magasin avec peu de capacité de stockage. Le
résultat est une réduction des coûts d'entreposage, une diminution des coûts liés au transport
puisque les produits passent moins de temps en transit.

Pour optimiser d'avantage sa supply chain, Walmart utilise sa propre flotte de camions et
chauffeurs, maintenant au plus haut ses standards d'exigences. En 3 ans et avec plus de 500
000 kilomètres parcourus, la société n'a évoqué aucun accident notable.

Les méthodes de gestion de la supply chain chez Walmart diffèrent de méthodes classiques
telles que les achats, les opérations, la distribution et l'intégration. Ici, la chaine
d'approvisionnement est axée sur la planification de la demande, la prévision et les stocks.
Les prévisions sont estimées par rapport à la demande qu'un consommateur fait sur un produit
et en fonction de son historique d'achat.

Par exemple, le fournisseur X pourrait demander à Walmart de consacrer plus d'espace de ses
produits sur les étalages, en raison de son volume élevé de ventes et de sa marge élevée.
Après avoir effectué des calculs et en s'étend mis d'accord avec le fournisseur X, le
fournisseur Y peut en conclure que la réduction de l'espace d'étalage de sa marque pourrait ne
pas sembler si négative, mais que les acheteurs de son produit achète généralement des
produits supplémentaires apportant des marges élevées pour Walmart. Alors que les
fournisseurs X et Y se manœuvrent entre eux, ils offrent une plus grande perspicacité avec

20
http://www.faq-logistique.com/Definition-Cross-Docking.htm (Cross docking, 2014)

30
chaque analyse, donnant à Walmart une vaste compréhension de ce qui se passe dans
l'entreprise. Chacun apporte une alternative de la prévision, s'évalue individuellement, calcule
son taux de remplissage, analyse les décisions, estime les investissements des stocks et les
coûts prévus des analyses.
Avec tant de concurrence, d'idées nouvelles et améliorées, de nouvelles analyses ont été
systématiquement conçues et apprivoisées. Avec l'accès à autant de données, il est devenu
essentiel d'en faire un nettoyage prudent afin de ne pas être confronté à des limites.

La prévision de la demande est utilisée pour créer des prévisions et analyses précises, une
étape cruciale vers la gestion efficace des stocks. En effet, ces prévisions sont comparées au
niveau des inventaires pour s'assurer que les stocks répondent bien à la demande.

Déplacer les produits depuis les entrepôts ou les usines vers les magasins et le consommateur
final est la fonction clé de la chaine d'approvisionnement de Walmart. L'intégration de la
chaine logistique relie les flux de travail et d'information affin de maximiser l'efficacité de la
supply chain.

Walmart lui-même ne possédait pas les ressources nécessaires pour développer des analyses
ciblées sur un produit donné, car il s'étendait sur des centaines de milliers de produits, soit un
flux colossal de données. Ces fournisseurs quand à eux, possèdent leur ressources en raison
de la petite taille de gamme de produits qu'ils vendent et portent un intérêt significatif à voir
leurs performances s'optimiser. En outre, les fournisseurs étaient les experts de leurs
31
catégories et des consommateurs finaux tandis que Walmart était un expert sur ses magasins
et de commerce de détail en général.

Voici les deux principaux outils big data de Walmart:

Le premier se nomme WMX (Walmart's Return Policy, 2015) (Wlamart Exchange). Ce


programme permet aux fournisseurs de Walmart d'utiliser sa plateforme digitale pour
appliquer le big data et l'utiliser pour booster les achats. Il permet également un ciblage des
consommateurs avec des analyses online et offline des habitudes d'achats.

Le deuxième outil, SPARC program21 (Supplier Portal Allowing Retail Coverage), fournit un
aperçu en temps réel une analyse performante du produits lorsqu'il est en magasin. En
fournissant les mêmes informations à ses fournisseurs qu'à ses directeurs de magasin,
Walmart exige une transparence informationnelle, dans un souci de garder un contact
privilégié avec le fournisseur mais aussi de maintenir un niveau de stock adéquat.

Ainsi, lorsque Walmart a commencé à partager ses données, il a fait plus qu'évaluer les
prévisions des fournisseurs; il est devenu un aimant attirant les innovateurs à un endroit où de
nouvelles idées seraient continuellement développées et améliorées pour en faire bénéficier
tout le monde. Il est bien connu que lorsqu'un produit va sortir, les prévisions, les commandes
et les expéditions ont un impact plus lourd que les données d'un simple point de vente.

Le processus de Walmart implique donc la coopération des fournisseurs, qui produisent une
chaine d'approvisionnement beaucoup plus efficace avec l'aide des nouvelles technologies.

21
http://walmartsupplierportal.com/ (The future of retail is now at your fingertips., 2015)

32
III - La sécurité et le Big Data

Beaucoup utilisent déjà le Big Data dans le domaine du marketing ou de la recherche et


développement sans pour autant avoir les fondamentaux en matière de sécurité, ce qui en fait
un défi de taille. Le risque de violation de données est tout aussi immense que ses
répercussions juridiques.

Un nombre croissant d'entreprises utilisent cette technologie pour stocker et analyser les
données telles que les flux et les contenus des médias sociaux pour obtenir de meilleurs
aperçus sur leurs clients et les entreprises.

Les mécanismes classiques de sécurité de donnée sont adaptés à petite échelle et développent
des données statiques souvent semi-isolées. C'est pourquoi, d'importants changements
interviennent dans l'environnement informatique:

 Plusieurs infrastructures, à la fois de stockage et d'informatique sont nécessaires dans


le déploiement du Big data;
 De nouveaux éléments tels que les bases de données NoSQL ont de grandes attentes
sur le marché mais les questions de sécurité non pas toutes été vérifiés;
 Existence des technologies de cryptage ne s'adaptant pas aux grands ensembles de
données;
 Mise en place de technique de surveillance en temps réel fonctionnant sur les petits
volumes de données;
 Nombre croissant d'appareils connectés produisant de la donnée;

La classification de l'information devient alors de plus en plus critique et minutieuse lorsqu'on


y ajoute le paramètre de confidentialité des données d'autrui.

Très peu d'entreprises sont susceptibles de créer un environnement Big Data en interne, même
avec un concept de Cloud dont la responsabilité des entreprises (d'un point de vu commercial
et légal) est d'en protéger les données. Des techniques telles que le déchiffrement d'algorithme
sont nécessaires pour protéger les données sensibles.

33
Ce schéma nous indiques les dix priorités du Big data dans l'aspect sécurité des données,
partant de la sécurité de l'infrastructure jusqu'à la sécurité des données en temps réel.

Grâce au Big data, il est possible de lutter contre la fraude en l'associant à des outils de
surveillance. Apres des comportements douteux suivis des comportements suspects

Le déploiement du Big Data pour la détection de fraudes et d'incidents de sécurité est


attrayant pour de nombreuses organisations.

a) La sécurité dans la supply chain

La nature même des chaines d'approvisionnements exige aux entreprises d'échanger des
informations sensibles à des partenaires multiples. Leur capacité à protéger la donnée peut
être variable. Même si le partage d'informations avec les fournisseurs est essentiel, il existe
malgré tout un problème de cybersécurité au cœur de la supply chain.
Beaucoup d'organisations ne sont pas pleinement conscientes de la portée et de la gravité de la
question même si elles comprennent et gèrent le risque en interne tout en ayant des difficultés
à les identifier à travers leurs centaines de fournisseurs.
Certaines des plus grosses et complexes supply chain ont tellement de partenaires externes
qu'elles sont incapables d'évaluer le risques. Voici certains risques à prendre en compte :

 La propriété intellectuelle devient une zone très vulnérable lorsque l'on évoque les
sujets des Big data et de la sécurité;

34
 Les données sensibles peuvent prendre de nombreuses formes mais la plus évidente
reste celle des informations du consommateur et de son numéro de carte de crédit qui
peut être facilement converti en espèces sur le marché noir;
 Une autre source de fuites potentielles provient des conseillers juridiques appelés pour
aider les entreprises. Un cyber-criminel pourrait détruire une offre ou un contrat en les
rendant publique et en alertant un concurrent lorsqu'une entreprise prévoie d'évoluer
et s'étendre sur le marché;
 La liste confidentielle des clients peut être une lucrative source illicite de revenus;
 Les détails logistiques dont l'emplacement de cargaison peuvent être fournis dans les
Big data;
 Les fuites financières, notamment dans le secteur bancaire, qui peuvent avoir un
sérieux impact sur le cours des actions;
 Un réseau ou matériel informatique qui est livré avec des logiciels malveillants;
 Enfin le risque de divulgation d'informations concernant les entreprises en partenaires
avec les organismes public.

Afin d'évaluer le risque, la norme de processus et d'audit comme ISO 270001 intervient lors
de politiques de gestion de l'information, de communication, de ressources humaines.
Cependant, cette norme est simplement une exigence de base. Les entreprises doivent définir
individuellement les contrôles pour protéger l'information la plus sensible telle que les
relations fournisseurs.

Dans l'optique d'aider les organisation à gérer les risques de leur supply chain, l'organisme
Information Security Forum à crée la Supply Chain Process Risk Information Assurance
(SCIRAP), une approche pour les grandes organisations à gérer le risque à travers leur
milliers de fournisseurs. Ce procédé se concentre sur les informations transmises dans la
supply chain et se focalise sur les contrats à grands risques. Il fournit également une façon
modulable de gérer les contrats en proportionnant les risques.
Toutefois, il n'existe pas de solution miracle pour assurer une sécurisation des données de la
chaine d'approvisionnement.

35
b) Google

Google est une société fondée en 1998 par Lawrence E. Page et Serguei Brin dans la Silicon
Valley en Californie, principalement connue pour son moteur de recherche quasiment
monopolistique sur le web. Sa principale mission est "d'organiser l'information à une échelle
mondiale et de la rendre universellement accessible et utile". On y retrouve une multitude de
produits comme Google Chrome, Android, Google Nexus ou Gmail ainsi de nombreux sites
web.

Voici les chiffres clés22 concernant Google:

 Environ 91% des français utilisent Google;


 Google connait environ 30 trillions de documents sur le web, soit 30 000 milliards. A
comparer aux centaines de milliards de documents indexés;
 Google crawle environ 20 milliards de pages par jour;
 Plus de 100 milliards de requêtes sont faites chaque mois sur Google, soit près de 3,3
milliards chaque jour (près de 40 000 chaque seconde). A comparer aux chiffres de
juillet 2009 : environ 2,5 milliards de requêtes par jour sur l'ensemble des sites de
Google soit environ 30.000 requêtes par seconde;
 En 2013, une panne de Google pendant 5 minutes fit chuter d'environ 40% le trafic
Internet mondial.

La valorisation de cette marque a atteint 158,84 milliards de dollars cette année grâce a des
innovations toujours plus révolutionnaires. Son système de gestion nommé BigQuery présente
les avantages de brasser des flux considérables sur tout le contenu web. Il fonctionne sur la
base du cloud IaaS ou il permet d'analyser et de lancer des requêtes sur l'ensemble des
données.

22
http://www.webrankinfo.com/dossiers/google/chiffres-cles (www.webrankinfo.com)

36
En s'impliquant dans de nombreux projets, Google est devenue en 15 ans la société la plus
puissante du monde et prend le contrôle des industries clés du XXIe siècle, synonyme de
progrès révolutionnaires pour certains mais controversé mais d'autres. Malgré cette euphorie
technologique qu'apporte Google, il est important de savoir que tous les projets entrepris
présentent des risques au niveau de la confidentialité et de la sécurité des données.

On peut évoquer le concept de la Google Car, le système de pilotage automatique assisté


notamment par la cartographie LiDAR23. "Cette technologie émergente du domaine de la
télédétection est capable de produire rapidement une impressionnante densité de points 3D
géoréférencés. L’exactitude des points est équivalente aux levés traditionnels mais avec un
temps d’acquisition et de traitement nettement plus rapide que les méthodes aériennes
conventionnelles."
Avec cette technologie, la voiture peut récolter d'immense flux d'informations sur un
périmètre de 1000m2. La confidentialité des données est alors mise en jeu puisque le Google
Car doit nécessairement analyser les données qui l'entourent. De plus, le risque humain peut
intervenir puisque certains des prototypes ont déjà été mis en cause dans des accidents
corporels lors d'essais sur route.

23
http://www.mosaic3d.com/quest-ce-que-le-lidar/ (Qu’est-ce que le LiDAR, 2013)

37
Une autre facette des risques prend une forme transhumaniste (Baquiast, 2007). C'est un
"développement exponentiel des sciences et des techniques qu'il veut proposer aux humains
pour s’affranchir des limitations physiques et mentales acquises durant ces derniers
millénaires, afin de profiter pleinement des nouvelles ressources qu’apportera la Singularité".
La convergence des NBIC (Les nanotechnologies, la biologie, l'informatique et les sciences
cognitives c'est à dire l'intelligence artificielle et les sciences du cerveau) permet en effet des
avancées époustouflantes épaulées au big data. Le souhait de Google est donc de faire avancer
le monde dans une vision transhumaniste pure, liée au progrès technologique. Ces dernières
années, plusieurs partenariats financiers ont été fait avec des entreprises biotechnologiques
afin d'apporter un soutient dans les domaines du séquençage ADN, de la prolongation de vie
tel que CALICO (Google, 2015) ou la création de phalanstères (Mercklé, 2006). Cette
dernière reste pour le moins utopique et futuriste, mais dans un avenir proche, tout reste
réalisable.

La puissance de cette marque réside dans sa capacité à transformer ses clients en produits
avec des millions de données sur chacun d'entre nous. Le problème est donc que Google peut
lire dans nos pensées et réfléchir à notre place grâce aux données engendrées. De ce fait, il
arrive à tuer tous les secteurs auquel il s'attaque en se consolidant. Sa position dominante sur
le marché des moteurs de recherches lui a permit par exemple, de se faire remonter en tête de
liste sur son service de comparateur de prix.

La notoriété de Google en fait de lui un leader incontournable du web. Toutefois, ce


mastodonte omniscient dans le domaine technologique peut porter atteinte aux entreprises
lorsqu'il met en avant ses propres outils et services.

La question à se poser est donc de savoir qui pourra remplacer Google, omnipotent et
universel ?

c) Le Cloud

"Le cloud24 computing est un modèle qui permet un accès omniprésent, pratique et à la
demande à un réseau partagé et à un ensemble de ressources informatiques configurables
(comme par exemple : des réseaux, des serveurs, du stockage, des applications et des services)
qui peuvent être provisionnées et libérées avec un minimum d’administration".
En résumé, son principe est d'avoir des ressources informatiques mais sans les posséder.

24
http://www.culture-informatique.net/cest-quoi-le-cloud/

38
Le Cloud se divise en trois formes via :
 PaaS25 pour Platform as a Service est une catégorie de services de Cloud computing
qui fournit la plateforme et l'environnement informatique nécessaire aux développeurs
pour mettre en place leurs différents services et applications sur Internet. Les services
PaaS sont hébergés dans le Cloud et les utilisateurs y accèdent simplement, par leur
navigateur web.
 IaaS26 pour Infrastructure as a Service, ou la ressource fournie est du matériel
informatique virtualisé ou, en d'autres mots, une infrastructure informatique. La
définition du service comprend des offres telles que l'espace serveur, des connections
réseau, de la bande passante, des adresses IP et des load balancers.

 SaaS27 pour Software as a Service, et se réfère à tout service Cloud permettant aux
clients d'avoir accès à des applications logicielles sur Internet. Ces applications sont
hébergées dans le Cloud et peuvent être utilisées pour un large éventail de tâches, tant
par les personnes privées que par les organisations.

Le cloud est sans doute une des inventions majeures de ces dernières années. Cependant, la
sécurité des données qui y sont stockées est-elle réellement assurée ?

D'après une étude réalisé par le cabinet PAS, sur 220 entreprises françaises en 2014, 55% ont
recours au Cloud via SaaS ( les autres évoluent sur Paas et laaS). En effet, le SaaS est le
Cloud le plus avantageux des trois. Les raisons sont simples:

 Aucun coutd'équipement supplémentaire et aucun frais d'installation


 Paiement à l'utilisation du logiciel
 Mises à jour automatiques et gratuites
 Intercompatibilité entre les équipements
 Accessibilité depuis partout

Cependant, le Cloud intègre trois aspects à prendre en compte avant toute installation dans
une organisation.

Le premier aspect est financier. En effet, la mise en place d'une structure informatique
requiert un investissement important de type CAPEX (capital expenditures ou

25
http://www.interoute.fr/what-paas
26
http://www.interoute.fr/what-iaas
27
http://www.interoute.fr/what-saas

39
immobilisation) comprenant donc les installations de serveurs physiques, de logiciels, d'une
prestation d'accompagnement et de maintenance. Néanmoins, cet investissement permet de
transformer les dépenses du Cloud en OPEX (operational expenses ou cout d'exploitation)
pour ainsi avoir des coûts prévisibles et maitrisables.

Cette facturation à l'usage amène trois avantages pour l'organisation :

 Réduction des couts de financement


 Réduction des couts d'exploitation
 Réduction des risques financiers et technologique

Le second aspect est technologique. en effet, après un déploiement d'une solution Cloud,
l'infrastructure est beaucoup plus flexible. En quelques clics, il est possible d'accéder à une
application ou un stockage. Elle peut s'adapter à n'importe quel changement tel que la mise en
place d'une campagne marketing, le test d'un nouveau produit ou service, voir même de la
gestion et relation client pour les commerciaux.

Le troisième aspect et le plus controversé est juridique. La mise en place de services de cloud
computing comporte des risques au regard de la sécurité et de sécurisation des données. En
effet, l’accès aux données et aux applications est réalisé entre le client et la multiplicité des
serveurs distants. Ce risque se trouve donc amplifié par la mutualisation des serveurs et par la
délocalisation de ceux-ci. L'accès aux services induira donc des connexions sécurisées et une
authentification des utilisateurs. Se posera alors le problème de la gestion des identifiants et
des responsabilités y relatives (accès non autorisé, perte ou vol d'identifiants, niveau
d'habilitation, démission ou licenciement, etc.).

Dans le même raisonnement, il y a un risque important de perte de données qu’il conviendra


de prendre en considération, d’estimer et de prévoir dans le cadre de procédures de
sauvegarde adaptées (stockage dans des espaces privés, en local, en environnement public).

La mise en place de services de cloud computing comprend également des risques au niveau
de la confidentialité des données. Avec le nombre de serveurs et de la délocalisation de ceux-
ci, il existe un risque réel de fuite voire d'atteinte à l'intégrité des données.

40
Sur un plan purement pratique, il existe de même des risques au regard de la continuité du
service. En effet, si les investissements en machines et en logiciels spécifiques peuvent
permettre à une entreprise d’assurer un minimum l’avenir de son infrastructure informatique,
le cloud computing peut comporter des risques au niveau de la pérennité du fournisseur de
cloud computing, ce qu’il conviendra également d’anticiper et de contractualiser. La liberté
induite par le cloud computing ne doit pas en effet aboutir à une dépendance totale de
l'entreprise vis-à-vis du fournisseur de ce service.

En outre, la réalisation des services de cloud computing étant assurée par un prestataire
externe, celle-ci comporte, comme pour tout projet externalisé, des risques au regard de la
qualité de service obtenue, et de la propriété et de l'intégrité des données et/ou applications
confiées, risques qu’il conviendra donc de prévoir contractuellement.

De plus, la mise en place de services de cloud computing peut parfois s’avérer onéreuse. Il
existe en effet des risques financiers liés aux outils de contrôle mis en place pour l’évaluation
de la consommation des services (et de la facturation correspondante). Il conviendra ainsi
d’être particulièrement vigilant au regard des outils de mesure d'utilisation des services
(unité de mesure du stockage, de la bande passante, des ressources informatiques utilisées, du

41
nombre d'utilisateurs actifs, etc.) ce afin que la mise en place de service de cloud computing
demeure contrôlable et avantageuse pour l’entreprise concernée.

Enfin, la mise en place de services de cloud computing fait naître pour l’entreprise qui choisit
de mettre en place de tels services, un certain nombre de risques au regard des données
personnelles et des formalités imposées par la CNIL. Ces risques sont aggravés en cas de
transfert de données hors de l’Union Européenne (UE). La rédaction de contrats de cloud
computing devra donc également prendre en considération les problématiques liées aux
données personnelles dans le respect des textes en vigueur.

Les fournisseurs de cloud, majoritairement américains, ont l’habitude de créer des «back
doors » leur permettant d’accéder à tout moment aux données qu’ils stockent. Ils ont donc
théoriquement accès à vos photos, vos textes mais aussi aux données publiques, stockées par
les institutions et gouvernement.

Le Cloud peut être utilisé efficacement dans les activités et les processus de la chaîne
d'approvisionnement qui restent les même dans les organisations et les différents clients, ce
qui signifie qu'il ne nécessitera pas beaucoup de changements dans la conception des
processus. Les entreprises peuvent conserver leurs compétences de base sur leurs serveurs
d'applications mobiles, qui ne nécessitent pas la personnalisation.

La question à se poser est de savoir dans quelles activités le cloud peut être utilisé
efficacement.

Gestion de la logistique

Il existe différentes solutions open source disponibles qui sont compatibles avec une
architecture de cloud. Cela comprend les moyens de transports, la gestion des stocks, les
procédés de commande qui peuvent être achetés par les entreprises. Ces domaines peuvent
fournir des fonctionnalités comme le chemin de réseau optimal, l'itinéraire le plus court,
appelé également le dernier kilomètre.

la gestion de base de données

Le cloud offre des solutions fiables pour la gestion des données, ce qui facilite le travail des
administrateurs de base de données en faisant automatiser les processus informatiques par les
sauvegardes ou la création de répliques.

42
Prévision et planification à la demande

Le Cloud offre diverses solutions pour transmettre la demande des utilisateurs et ils sont
capables de fournir des analyses de données en fonctions de statistiques avancées et
sophistiquées. Il y a des applications qui sont spécialement conçu incluant les capacités de
planification de stratégie de prix, de stratégie de promotion et d'analyse marketing.

Le Cloud a la capacité de changer la façon dont fonctionnent les activités SCM. Avec une
exploitation de ces nuages, nous pouvons tirer des avantages opérationnels et des économies
potentielles.

Le taux d'adoption pour ce modèle de distribution, pour un fournisseur hébergé sur le Web
sont clairement en recrudescence. Les systèmes de gestion d'entrepôt (WMS), les Global
Trade Management (GTM), les systèmes de gestion du transport (TMS), et la planification de
la demande sont actuellement les logiciels en tête de la chaîne d'approvisionnement.

d) Big Data, créateur de nouveaux risque : Le Patriot Act et la NSA

Le Patriot Act découlant des attentats du 11 Septembre, voté par le Congrès américain le afin
de renforcer les pouvoirs des agences gouvernementales dans la lutte contre le terrorisme,
accorde au gouvernement américain un accès total aux données stockées sur le cloud. Ce texte
applique des dispositions, notamment celles de renforcer les pouvoirs des agences
gouvernementales (FBI, CIA, NSA et armée), d'autoriser le FBI à espionner la circulation des
messages électroniques et à garder les traces de la navigation sur le Web de toute personne
suspectée de contact avec une puissance étrangère.
Ces failles posent clairement le problème du respect des libertés individuelles.

Nous avons estimé que la NSA détient des métadonnées pour "des centaines de milliards"
d'appels téléphoniques. D'après Ellen Nakashim28 du Washington Post, l'article 215 du Patriot
Act traite moins de trente pour cent du nombre total d'appels téléphoniques nationaux, en
raison de l'utilisation accrue de téléphones difficilement traçables.

La NSA ne détient pas seulement des données téléphoniques. En effet, il ya beaucoup de


preuves pour suggérer que le Patriot Act a d'autres utilités pour le gouvernement. Le sénateur

28
https://www.washingtonpost.com/world/national-security/appeals-court-rules-nsa-record-collection-
violates-patriot-act/2015/05/07/c4fabfb8-f4bf-11e4-bcc4-e8141e5eb0c9_story.html

43
Richard Burr, président du Intelligence Committee, a parlé de l'article 215 comme étant utilisé
pour recueillir les " adresses IP ". Todd Hinnen, un haut fonctionnaire du ministère de la
Justice, a déclaré en 2011 que "l'article 215 a été utilisé pour obtenir des enregistrements de
permis de conduire, d'hôtels, de locations de voitures, des fiches de locations d'appartements,
des relevés de cartes de crédit, et autres.

En plus de détenir d'incroyables volumes de données, la NSA a mit au point PRISM29, le


programme de surveillance créé en 2007, permettant la collecte de données personnelles en
ligne sur des personnes identifiées comme suspectes par les services de renseignement
américains.

Ces derniers collaboraient avec des géants du Web, dont Facebook, Microsoft, Google et
Apple, afin de récupérer toutes traces d'activités en ligne: e-mails, fichiers échangés, extraits
de conversations en ligne, etc.

Les entreprises sont au cœur de la controverse de PRISM alors que beaucoup de détails
29
http://www.lefigaro.fr/secteur/high-tech/2014/06/06/32001-20140606ARTFIG00093-de-prism-a-tor-les-dix-
noms-du-scandale-de-la-nsa.php (Ronfaut)

44
cruciaux restent inconnus sur les circonstances et sur la façon dont la NSA collecte les
données. Juridiquement parlant, les programmes de surveillance reposent sur deux lois clés, la
section 702 de la Loi sur les amendements de la FISA (FAA) et de l'article 215 du Patriot Act.
Le premier autorise la collecte de contenu des communications en vertu de PRISM et d'autres
programmes, tandis que le second autorise la collecte des métadonnées à partir de compagnies
de téléphone comme Verizon et AT & T.

Toutefois, plusieurs rapports et documents divulgués indiquent que les statuts ont été
interprétées en secret par les tribunaux de renseignement de la FISA afin d'accorder une plus
grande latitude qu’à l'origine. Ils indiquent également que les tribunaux de la FISA
approuvent les procédures de collecte de la NSA. Au départ, les analystes se situent en entrée
(termes de recherche) dans le système PRISM, qui envoie ensuite les informations vers
d'autres sites de collecte, connus sous le nom de SIGAD (Signals Intelligence Activité
Designators) ou SIGINT30 (Signals Intelligence). Ce dernier est chargé de rassembler et trier
les différents types de données rassemblés sur les contenus des conversations téléphoniques et
des métadonnées d'internet telles que les fax, mails, par des ondes électromagnétiques.

Les règles stipulent que l'analyse doit essentiellement porter sur les données, mais même si
elles ne sont pas pertinentes au terrorisme ou à la sécurité nationale, ces communications
"acquises par inadvertance" peuvent toujours être conservées et analysées jusqu'à cinq ans et
même remises au FBI ou de la CIA en vertu d'un large éventail de circonstances. Ceux-ci
incluent les communications qui sont «penser pour contenir des preuves d'un crime qui a été,
est, ou est sur le point d'être commis», ou qui contiennent des informations pertinentes à la
prolifération des armes ou de la cybersécurité. Si les communications sont cryptées, elles
peuvent être conservées indéfiniment.

30
https://www.nsa.gov/sigint/

45
Ce schéma nous montre les différents fournisseurs de PRISM à partir de l'année 2007 avec
Microsoft, jusqu'en 2012 avec l'acquisition d'Apple. En résumé, la NSA et son PRISM à
engrangé toutes les informations des grandes entreprises liées à la collecte de donnée lors de
la dernière décennie.

46
Conclusion

La Supply Chain est un maillon de l’entreprise à ne pas négliger car c’est un domaine où elle
peut optimiser et réduire ses coûts. La tendance actuelle fait que les nouvelles technologies et
la logistique sont étroitement liées afin que le client soit au centre de l’attention de
l’organisation pour toujours rechercher sa satisfaction.

Le XXIe sera à jamais l'époque de la révolution Big data, le phénomène qu'utilisent les
entreprises dans la recherche, la collecte, le tri et l'exploitation de données. Les trois facteurs
traditionnels de production (ressources, travail, capital) sont combinés à la puissance de
l'information pour permettre aux organisations de maximiser leur production et se différencier
face aux concurrents.

Amazon, Apple et Walmart sont tous les trois des exemples concrets de l'application du Big
data dans le processus supply chain d'une organisation. Les innovations ont permis à ces
géants du web d'exploiter complètement leurs capacités à extraire les informations clés, par
des outils Big data ultra technologiques, pour ainsi mieux gérer les stocks, anticiper la
demande et réduire les coûts.

Malgré les bénéfices technologiques qu'apporte le Big data dans la résilience de la supply
chain, de nombreux risques liés à la confidentialité des données sont à déplorer. En effet, la
question éthique se pose de plus en plus en vu des quantités astronomiques d'informations
personnelles qui circulent sur le web. Des idées transhumanistes se propagent grâce au
développement des technologies, freinant le consommateur à donner ses propres informations.

Mais le Big data ne va t-il pas trop vite à notre goût dans cette avancée technologique ?

47
Sommaire des annexes:

Annexe 1 : Amazon va livrer les produits que vous n'avez pas encore commandé
......................................................................................................................................... page 50

Annexe 2 : Extrait de Supply chain magazine ................................................................ page 51

Annexe 3 : Etude McKinsey 2011................................................................................... page 52

Annexe 4 : Quand le flux d'informations précède le flux de marchandises


........................................................................................................................................ page 54

48
Annexes

Annexe 1: Extrait d'un article 31 sur Sillicon.fr

31
http://www.silicon.fr/supply-chain-amazon-livrer-produits-pas-commandes-92159.html (Supply chain :
Amazon va livrer les produits que vous n’avez pas encore commandés, 2014)

49
Annexe 2 : extrait de Supply Chain Magazine

(Calais, 2014)

50
Annexe 3 : Extrait de l'étude Big Data McKinsey, 2011

Extrait de l'étude Big Data McKinsey, 2011

51
52
Annexe 4: extrait d'un article LCA-CONSO

32

32
http://www.lsa-conso.fr/big-data-et-supply-chain-quand-le-flux-d-informations-precede-le-flux-de-
marchandises-tribune,209341 (Big Data et Supply Chain, quand le flux d’informations précède le flux de
marchandises)

53
Bibliographie et webographie

(s.d.). Récupéré sur www.webrankinfo.com: http://www.webrankinfo.com/dossiers/google/chiffres-


cles

Amazon veut équiper ses camions de livraison d’imprimante 3D. (s.d.). Récupéré sur
www.imprimeren3d.net: http://www.imprimeren3d.net/amazon-veut-equiper-ses-camions-de-
livraison-dimprimante-3d-12379/

Baquiast, J.-P. (2007). Pour un principe matérialiste fort. Jean Paul Bayol.

Bertrand, B. (2015, janvier 3). Définition Benchmark. Récupéré sur www.definitions-marketing.com:


http://www.definitions-marketing.com/Definition-Benchmark

Big Data et Supply Chain, quand le flux d’informations précède le flux de marchandises. (s.d.).
Récupéré sur www.lsa-conso.fr: http://www.lsa-conso.fr/big-data-et-supply-chain-quand-le-flux-d-
informations-precede-le-flux-de-marchandises-tribune,209341

Business Intelligence : pour mieux piloter. (s.d.). Récupéré sur www.journaldunet.com:


http://www.journaldunet.com/solutions/intranet-extranet/business-intelligence/

Calais, C. (2014, Mars). Big Brother will help you. Supply Chain Magazine .

Cross docking. (2014). Récupéré sur www.faq-logistique.com: http://www.faq-


logistique.com/Definition-Cross-Docking.htm

Diforti, L. (s.d.). Qu'est-ce que le Big Data ? Récupéré sur www.redsen-consulting.com:


http://www.redsen-consulting.com/2013/06/big-data/

faq-logistique.com. (s.d.). définition chaine d'approvisionnement. Récupéré sur faq-logistique.com:


http://www.faq-logistique.com/Definition-Chaine-Approvisionnement.htm

Fernandez, A. (s.d.). Data Warehouse, Entrepôt de données. Récupéré sur www.piloter.org:


http://www.piloter.org/business-intelligence/datawarehouse.htm

Google. (2015). Calico. Récupéré sur www.calicolabs.com: http://www.calicolabs.com/

Jeff Bezos (né en 1964), Amazon.com : l’inventeur et le leader de l’e-commerce. (s.d.). Récupéré sur
www.capital.fr: http://www.capital.fr/enquetes/histoire-eco/les-50-plus-grands-patrons-de-l-
histoire/jeff-bezos-ne-en-1964-amazon.com-l-inventeur-et-le-leader-de-l-e-commerce

Le Big Data modifie le visage de l'assurance. (2015). Récupéré sur http://www.revue-


banque.fr/banque-detail-assurance/article/big-data-modifie-visage-assurance

MapReduce illustrated. (s.d.). Récupéré sur digicomet.blogspot.fr:


http://digicomet.blogspot.fr/2012/06/mapreduce-illustrated.html

Mckinsey. (2011). Big data: The next frontier for innovation, competition, and productivity.

54
Mercklé, P. (2006). Le Phalanstère. Récupéré sur http://www.charlesfourier.fr/spip.php?article328

Qu’est-ce que le LiDAR. (2013). Récupéré sur www.mosaic3d.com: http://www.mosaic3d.com/quest-


ce-que-le-lidar/

Ronfaut, L. (s.d.). De Prism à Tor, les dix noms du scandale de la NSA. Récupéré sur www.lefigaro.fr:
http://www.lefigaro.fr/secteur/high-tech/2014/06/06/32001-20140606ARTFIG00093-de-prism-a-
tor-les-dix-noms-du-scandale-de-la-nsa.php

Signals Intelligence. (s.d.). Récupéré sur www.nsa.gov: https://www.nsa.gov/sigint/

Supply chain : Amazon va livrer les produits que vous n’avez pas encore commandés. (2014).
Récupéré sur www.silicon.fr: http://www.silicon.fr/supply-chain-amazon-livrer-produits-pas-
commandes-92159.html

The future of retail is now at your fingertips. (2015). Récupéré sur


http://walmartsupplierportal.com/: http://walmartsupplierportal.com/

Versloot, P. (s.d.). Exploring the Supply Chain as a Demand Chain: A 4-part Series - See more at:
http://www.e-consolutions.com/blog/2013/supply-vs-demand-chain-management-blog-
1/#sthash.Gi0Tf8IJ.dpuf. Récupéré sur e-consolutions.com: http://www.e-
consolutions.com/blog/2013/supply-vs-demand-chain-management-blog-1/

Walmart. (2015). Récupéré sur www.glossaire-international.com: http://www.glossaire-


international.com/pages/tous-les-termes/walmart.html

Walmart's Return Policy. (2015). Récupéré sur http://corporate.walmart.com/return-policy:


http://corporate.walmart.com/return-policy

(faq-logistique.com)

(Bertrand, 2015)

55

Vous aimerez peut-être aussi