Académique Documents
Professionnel Documents
Culture Documents
Mohua BANERJEE
m.banerjee@imi-k.edu.in
Professeur à l’International Management Institut de Delhi et Calcutta, elle enseigne la distribution et
l’impact des circuits de distribution dans le secteur des télécoms et des nouvelles technologies. Ses
recherches portent sur le multi canal et sur l’évolution des pratiques de ventes.
Gaël BELLAYER
gael.bellayer@gmail.com
Professeur à l’Université Normale de Chine du Sud et consultant en entreprise. Il supervise l’ensemble
des cours de commerce et vente pour l’« international Business College ». Son cursus international lui
permet d’avoir une vision comparative sur l’évolution des pratiques de e-commerce en Chine.
Christophe BENAVENT
christophe.benavent@u-paris10.fr
Professeur des Universités, Université Paris-Ouest (Nanterre), UFR SEGMI département de gestion,
EA 4429, Centre d’études et de recherches sur les organisations et sur les stratégies (CEROS). Son
travail de recherche porte sur la manière dont les technologies de l’information, des systèmes CRM aux
réseaux sociaux, participent à la transformation des doctrines, des stratégies et des pratiques de
marketing. Il dirige le master « Marketing opérationnel international » et anime un groupe de recherche
« Atelier technologies du marketing » dont les travaux et les chroniques peuvent être consultés sur
http://i-marketing.blogspot.com. Il intervient régulièrement dans les grandes conférences professionnelles
et pour des missions de conseil.
http://www.u-paris10.fr/16351/0/fiche_annuaireksup/&RH=FR
Stéphane BOURLIATAUX-LAJOINIE
bourliataux@univ-tours.fr
Maître de conférences en sciences de gestion à l’IAE de Tours, membre du laboratoire Vallorem.
Spécialisé en e-marketing, ses recherches portent sur le comportement du consommateur sur Internet et la
publicité en ligne. Membre de plusieurs associations scientifiques, il dirige le master 2 « Marketing des
services » à Beyrouth, Rio de Janeiro et Calcutta. Il est l’auteur de plusieurs articles de recherches et
d’ouvrages dont la coordination d’E-marketing & E-commerce (Dunod, 2011, 2014). Ses recherches le
conduisent à intervenir régulièrement auprès des entreprises.
http://www.viadeo.com/fr/profile/stephane.bourliataux-lajoinie
Manu CARRICANO
mcarricano@eada.edu
Professeur associé de marketing et directeur du Pricing Center à l’Eada Business School Barcelona. Il
est également Research Director de Pricing Solutions, au sein duquel il coordonne des études menées
auprès de grandes entreprises en Europe.
Ses travaux de recherche en pricing, études et analyse de données ont été publiés dans de nombreuses
conférences et publications internationales. Il est docteur en sciences de gestion (Université de Bordeaux)
et Executive Graduate en Big Data par le MIT.
Alexandre COUTANT
coutant.alexandre@gmail.com
Enseignant-chercheur à l’Université de Franche-Comté, équipe « Objets et usages numériques » du
laboratoire ELLIADD, Alexandre Coutant s’intéresse aux activités de consommation des individus et à
leurs usages des techniques de l’information et de la communication. Ses premières recherches
s’intéressent au fonctionnement du secteur professionnel du marketing et de la communication, un domaine
qu’il analyse désormais dans le cadre des métiers de l’internet. En parallèle il cherche à comprendre la
dynamique complexe par laquelle les individus « font avec » un ensemble de dispositifs, objets et
discours provenant de la « société de consommation ». Ses terrains principaux sont les dispositifs
sociotechniques et les marques.
Jean-Claude DOMENGET
jean-claude.domenget@univ-fcomte.fr
Après une thèse CIFRE à l’INA, Jean-Claude Domenget a rejoint l’équipe « Objets et usages
numériques » (OUN) du laboratoire ELLIADD de l’Université de Franche-Comté, en tant que maître de
conférences en sciences de l’information et de la communication. Ses recherches s’inscrivent dans un
renouvellement de la sociologie des usages à l’ère numérique et portent principalement sur les usages
professionnels des médias socionumériques. Membre de plusieurs réseaux et associations de chercheurs,
il intervient pour des missions de conseil auprès d’entreprises et a tenu des responsabilités au sein du CA
de l’association professionnelle SEO Camp.
https:twitter.com/jcdblog
Laurent FLORES
FreeMoon95@gmail.com
Maitre de conférences – HDR en sciences de gestion (marketing), il est enseignant chercheur de
l’Université Paris II et professeur affilié à l’Inseec.
Spécialiste des études marketing et du marketing digital, il compte plus de 20 ans d’expérience du
conseil en marketing. Auteur régulier, son dernier ouvrage en français publié chez Dunod (Mesurer
l’efficacité du marketing digital) a reçu le Prix 2013 de l’Académie des sciences commerciales. Il est
associé de SLPV-Analytics, conseil en analyse de données, modélisation et Big Data.
Katherine MA
mayingyi@gmail.com
Professeur à l’Université Normale de Chine du Sud. Coordinatrice du parcours « International Business
College » de son université, elle enseigne le e-marketing depuis plusieurs années. Ses travaux de
recherches portent sur le développement d’internet et du e-marketing en Chine.
Aurélia MICHAUD-TRÉVINAL
aurelia.michaud_trevinal@univ-lr.fr
Maître de conférences en sciences de gestion à l’Université de La Rochelle – IUT Techniques de
commercialisation. Ses travaux de recherche portent sur les pratiques des consommateurs en matière de
mobilité ainsi que leurs expériences dans les différents espaces commerciaux (ville & Internet) et leurs
impacts sur les stratégies des distributeurs. Prix de la Chaire Auchan pour la meilleure publication Jeune
Chercheur en 2004, ses travaux ont notamment fait l’objet de publications dans Recherche et
Applications Marketing et Journal of Retailing and Consumer Services.
Fernando PADOVANI
fernando-padovani@hotmail.com
Professeur à l’Université d’État de Rio de Janeiro, il enseigne l’analyse économique et plus
particulièrement l’économie dans les pays émergeants et les pays émergés. Ses recherches portent sur la
macro-économie, les organismes non gouvernementaux, et les politiques de régulation d’internet au Brésil
et en Amérique du Sud.
Yves ROY
yves.roy@univ-poitiers.fr
Maître de conférences en sciences de gestion, IAE de Poitiers, membre du laboratoire CEREGE,
ancien directeur informatique de l’Université de Poitiers, il enseigne principalement les systèmes
d’information et l’aide à la décision. Ses recherches actuelles se concentrent sur le comportement des
internautes face aux moteurs de recherche.
http://www.univ-poitiers.fr/1332/0/fiche_annuaireksup/&RH=1182242500406
Valérie SCHAFER
valerie.schafer@cnrs.fr
Chargée de recherche à l’Institut des sciences de la communication du CNRS, docteure en histoire
contemporaine, spécialiste d’histoire des télécommunications et de l’informatique, Valérie Schafer mène
actuellement des recherches sur l’histoire de l’Internet et du Web dans les années 1990 en France. Elle a
notamment publié La France en Réseaux, années 1960-1980 (Nuvis, 2012), avec Benjamin Thierry,
Le Minitel, l’enfance numérique de la France (Nuvis, 2012), avec Bernard Tuy, Dans les coulisses de
l’Internet. RENATER, 20 ans de technologie, d’enseignement et de recherche (Armand Colin, 2013).
Thomas STENGER
stenger@iae.univ-poitiers.fr
Maître de conférences à l’IAE de Poitiers, docteur en sciences de gestion, membre du laboratoire
CEREGE et chercheur associé à l’Institut des sciences de la communication du CNRS. Après avoir été
ingénieur-commercial chargé des projets Internet et Intranet, Thomas Stenger mène depuis une quinzaine
d’années des recherches sur les rapports entre marketing, systèmes d’information et consommation. Il a
publié plus d’une trentaine d’articles et de chapitres d’ouvrages, et cinq livres dont E-marketing & E-
commerce (Dunod, 2011, 2014), Identités numériques (L’harmattan, 2013), et Digital Natives et
Consommation (EMS, 2014).
http://www.thomasstenger.kiubi-web.com
Tatiana TYCHKOVA
ttychkova@yandex.ru
Professeur à l’Institut Stolypin de Volga, elle enseigne l’impact des technologies de l’information et de
la communication sur le management. Ses recherches portent sur la complémentarité entre la technologie
et les usages des entreprises.
Introduction
Trois milliards d’internautes à la fin de l’année 2014 ! La prévision de l’ITU[1] montre qu’en quatre ans,
le réseau a été rejoint par un milliard de nouveaux utilisateurs. Internet renforce son positionnement de
média planétaire. Outre l’entropie du réseau, le second point marquant tient au mode de connexion. Un
tiers des connexions sont faites via un périphérique mobile, c’est là le vecteur principal de croissance
d’Internet tant dans les pays les plus développés que dans les pays émergeants. Malgré les crises
économique et financière, les chiffres de l’e-commerce à travers le monde ne cessent de progresser
depuis l’apparition des pionniers comme Amazon, eBay ou Yahoo! au milieu des années 1990. Le
développement du commerce sur Internet a fortement contribué à développer les usages du Web dans le
grand public, au-delà des communautés scientifique et informatique à l’origine du réseau. L’usage de
l’Internet mobile via les smartphones et les tablettes a définitivement placé le e-commerce dans les
habitudes des Français.
Le cas de la France est particulièrement intéressant : avec une proportion de 83 % d’internautes et un
temps moyen passé sur Internet de 4 h 07 par jour, les Français sont considérés comme des utilisateurs
avancés[2]. Si les médias socionumériques occupent une place importante, le shopping en ligne est bien
ancré dans les usages. En effet, 92 % des internautes français déclarent consulter Internet avant d’acheter
et 77 % pratiquent le ROPO – research online purchase offline[3].
La place d’Internet dans la vie quotidienne des consommateurs et des entreprises est donc au centre des
préoccupations des professionnels du secteur mais aussi plus largement de tous ceux qui s’intéressent aux
sciences humaines et sociales. L’utilisation de l’e-mail, des médias sociaux ou de moteurs de recherche,
pour échanger avec ses amis, partager des avis avec des experts ou des inconnus ou encore rechercher
des informations sur les produits et les marques, ne peut plus être considérée comme une pratique
marginale ou émergente. La diversité des usages sur Internet et leur forte imbrication rendent très difficile
le recours aux dichotomies traditionnelles telles que communication commerciale ou non commerciale,
espace marchand et non marchand, professionnel et amateur, public et privé, etc. Une révolution plus
discrète s’est également déroulée ces deux dernières années avec l’accès à la géolocalisation et l’analyse
des données de l’internaute qui deviennent des zones d’études particulièrement prometteuses en e-
marketing. La notion de vie privée se trouve fortement modifiée, à tel point que le législateur travaille à
un « droit à l’oubli » sur Internet. Cette démarche laisse entrevoir l’étendue des enjeux des données
personnelles et des identités numériques. Il faut en avoir conscience et chercher à mieux comprendre ces
usages du quotidien si l’on s’intéresse à la vie sociale, à la diffusion et l’appropriation des nouvelles
technologies ou au pilotage de l’activité marchande aujourd’hui. Internet et le Web nous rappellent que le
commerce et la communication ont une histoire commune et indissociable. Les voies de communication et
les voies commerciales constituent deux facettes d’un même réseau – au moins depuis l’Empire romain.
Ainsi, les structures, les outils et parfois aussi les acteurs du commerce et de la communication
s’inscrivent dans le même réseau. Avec les évolutions apportées par les nouvelles technologies de
l’information et de la communication (NTIC), Internet et la téléphonie mobile en tête, il fallait donc ne
s’attendre à rien de moins qu’une forte reconfiguration du commerce et du marketing.
La communauté managériale et la communauté marketing en particulier se sont révélées parmi les plus
enthousiastes, à l’image de Donna Hoffman[4] (2000), qui s’exprime ainsi en introduction du premier
numéro spécial de Marketing Science consacré à Internet et au commerce électronique[5] : « Il y a une
révolution en marche. […] La révolution c’est Internet[6]. Internet a le potentiel de transformer
radicalement non seulement la façon dont les individus font du commerce ensemble, mais aussi l’essence
même de ce que signifie être un être humain dans la société. » Elle précise que « le comportement du
consommateur dans les environnements interactifs » constitue un nouveau sujet de recherche pour le
management. Le point de vue français s’inscrit dans cette même perspective. Dans le premier numéro de
Recherche et Applications en Marketing consacré au « e-marketing[7] », Dubois et Vernette considèrent
que « l’appropriation de l’Internet par le marketing modifie la nature des échanges et les modes de
relations entre l’entreprise et le consommateur » (2001, p. 1). Ils évoquent sans ambiguïté « la naissance
de nouveaux comportements d’achat consécutifs à un environnement d’échange médiatisé par une
machine ». Depuis Blattberg et Deighton (1991), Deighton et Sorell (1996) mais aussi Kotler et Dubois
qui ont qualifié très tôt le marketing interactif de « marketing du XXIe siècle » (1997, p. 674), praticiens,
chercheurs, journalistes, consultants et consommateurs découvrent et examinent chaque jour de nouvelles
formes d’interactivité dans la relation marchande. Plusieurs formes de marketing interactif et
d’interactivité ont d’ailleurs pu être identifiées mettant en évidence la variété des enjeux et des
conséquences pour le marketing et l’e-commerce[8] (Stenger 2006, Deighton et Kornfeld 2009).
En sciences de gestion, les travaux en management des systèmes d’information doivent également être
étudiés avec le plus grand intérêt pour qui veut mieux comprendre le commerce électronique. Tout
d’abord parce qu’ils se sont intéressés très tôt à Internet et au commerce électronique comme l’illustre un
premier numéro spécial de la revue Systèmes d’Information et Management édité en 1999. Ensuite,
parce qu’ils mettent en évidence la continuité de procédures et de comportements du côté des entreprises
comme des clients, par exemple du Minitel à Internet (Bendana et Rowe 2003). Enfin, ils révèlent la
reconfiguration de certains marchés, le rôle des nouvelles technologies de l’information et de la
communication sur la pratique managériale et les enjeux liés à la diffusion et l’adoption des NTIC. La
sociologie et les sciences de la communication sont également mobilisées pour mieux appréhender les
pratiques des entreprises et des internautes.
Un ouvrage comme celui-ci est donc l’occasion de dresser un état des connaissances et également
d’engager des réflexions sur les mutations en cours.
Structure de l’ouvrage
Cet ouvrage peut se lire de plusieurs façons. Le lecteur pourra respecter la progression proposée en
parcourant dans l’ordre les trois grandes parties : « Histoire et tendances », « Consommation et gestion
de la relation client », « Communication » et enfin « Études et Technologies ». Il pourra aussi effectuer
une lecture thématique en commençant par les chapitres qu’il souhaite. Pour faciliter la compréhension et
l’utilisation de cet ouvrage, les liens entre les chapitres sont donnés dans le corps du texte. Chaque
chapitre est illustré avec de nombreux cas pratiques et propose également un index et une bibliographie.
La première partie, « Histoires et tendances », commence par une mise en perspective des éléments
majeurs de l’histoire d’Internet et du Web, des premières expérimentations d’interconnexions aux États-
Unis aux métiers et business models pour le e-commerce en passant par les problématiques actuelles de
gouvernance et de neutralité de l’Internet (chapitre 1).
Cette analyse se poursuit avec le chapitre 2 consacré aux médias socionumériques. Que sont exactement
ces médias dits sociaux ? Quelles sont les opportunités marketing offertes par la participation massive
des internautes sur les médias sociaux ? Ce chapitre propose des réponses à ces questions en détaillant
les opportunités mais aussi les risques et les règles associés aux pratiques des individus et des marques
dans ces espaces socionumériques si particuliers.
Cette première partie se conclut par un regard international sur l’e-marketing trop souvent cantonné aux
territoires européen et nord-américain (chapitre 3). Prêt de 50 % des internautes mondiaux se situent dans
des pays « émergés » ou en voie de développement. Comment l’ignorer ? L’analyse proposée est
structurée en deux points. Tout d’abord le chapitre propose une analyse des grands enjeux qui sous-
tendent l’émergence de l’Internet à travers le monde, puis l’actualité du réseau est vue au travers quatre
spécialistes invités à cette occasion pour présenter des analyses provenant respectivement du Brésil, de
la Russie, de l’Inde et de la Chine. Ces regards croisés permettent de mieux comprendre les sensibilités
émergentes sur Internet et certains enjeux des années à venir.
La deuxième partie de cet ouvrage, « Consommation et gestion de la relation client », remet le
consommateur au centre de la relation avec Internet. Le chapitre 4 traite de l’évolution du management de
la relation client à l’ère digitale à travers le triptyque médiation, socialisation et ubiquisation. Ce
chapitre examine de quelle façon les technologies numériques participent à la reconfiguration du temps,
de l’espace et donc de la relation entre marketers et consommateurs.
Cette deuxième partie examine ensuite les comportements d’achat à l’heure d’Internet (chapitre 5). S’il
analyse bien sûr l’achat et le shopping en ligne, il envisage de façon plus complète le rôle d’Internet dans
le comportement des consommateurs, car la consommation et les achats sont de plus en plus cross-media
et les parcours clients sont très variés. C’est la raison pour laquelle la recherche d’information en ligne,
l’aide à la décision du consommateur et le rôle des recommandations et prescriptions sur Internet
occupent une place centrale.
La troisième partie de l’ouvrage « Communication » aborde le thème de la publicité sur Internet via ses
deux composantes majeures, le display et le search. Le chapitre 6 propose un état des lieux de la
publicité display sur Internet. il donne des clés de lecture sur les pratiques actuelles et leur évolution
particulièrement rapide. Il présente et analyse les évolutions récentes de la publicité en ligne. Il propose
également un tableau de bord des principaux indicateurs liés au display.
Le chapitre suivant est son complément naturel puisqu’il examine le search engine marketing, c’est-à-
dire les techniques de référencement naturel et payant d’un site Web en passant par la création du nom de
domaine, l’achat de mots clés ou l’optimisation du ranking sur les moteurs et annuaires de recherche
(chapitre 7).
La quatrième et dernière partie de cet ouvrage, « Études et technologies », propose une approche plus
technique d’Internet pour la pratique de l’e-marketing et de l’e-commerce. Les études du marché par
Internet connaissent une croissance continue ; il est désormais indispensable de connaître les spécificités
des études en ligne (chapitre 8). Le volume de données produites en ligne encourage naturellement le
recours aux approches quantitativistes[12] (panel, enquêtes, etc.), mais les études qualitatives, à travers de
nouvelles formes de mobilisation des internautes, sont aussi sources d’innovation pour le marketing.
Le dernier chapitre de cet ouvrage est consacré au sujet délicat de la relation entre technologie et vie
privée (chapitre 9). Qu’il s’agisse d’analyser les connexions à un serveur ou de situer géographiquement
un internaute, les technologies actuelles offrent régulièrement de nouvelles possibilités. La généralisation
de l’usage des smartphones, des tablettes, mais également les connexions mobiles sont autant d’éléments
qui modifient la relation entre les entreprises et les particuliers. Obtenir des informations est ici plus
simple que de les utiliser à bon escient. Ces dernières sont présentées et critiquées, l’objectif étant de
montrer sans concession les opportunités et les limites de ces nouvelles technologies.
Ainsi, en neuf chapitres, cet ouvrage dresse un panorama clair des différentes facettes de l’e-marketing
avec quinze enseignants-chercheurs spécialistes du e-marketing et e-commerce. Ce livre présente les
enjeux, les outils et les concepts majeurs pour la pratique de l’e-marketing : orientation client, médias
sociaux, publicité en ligne, référencement, e-mailing, achat en ligne, développement international, études
en ligne, tracking, géolocalisation. Neuf sujets fondamentaux pour comprendre les dernières évolutions,
les pratiques des internautes et des professionnels afin de développer ses compétences en e-commerce et
e-marketing. Si l’angle marketing est privilégié, l’ouvrage propose également un éclairage très utile grâce
au management des systèmes d’information, à la sociologie et aux sciences de la communication.
[4] Donna Hoffman est l’un des auteurs les plus cités en « e-marketing » dans les revues américaines mais également françaises.
[6]
Cette formule : « The Revolution is the Internet » est déjà présente dans son article de 1996 co-écrit avec Novak T. P.
[7] Recherche et applications en marketing, vol. 16, n° 3, 2001.
[8] Voir notamment le double numéro spécial du Journal of Interactive Marketing (vol. 23, n° 1, 2) coordonné par Shankar et Malthouse
(2009).
[9] http://www.wto.org/french/thewto_f/glossary_f/commerce_electronique_f.htm
[10] Créée en 1957, la Fevad est la Fédération du e-commerce et de la vente à distance (http://www.fevad.com)
[11] D’ailleurs, les premiers marchands en ligne ont répliqué sur la Toile des méthodes classiques de la vente sur catalogue et on retrouve
sans surprise des sociétés telles que La Redoute et les 3 Suisses parmi les leaders de l’e-commerce en France.
[12] Internet est ainsi devenu dès 2008 le mode de collecte le plus populaire pour les études quantitatives (source : Esomar -Association
mondiale des professionnels des études de marchés et sondages d’opinion).
Partie
Histoire et tendances
1
Valérie SCHAFER,
Chargée de recherche, Institut des sciences
de la communication du CNRS
Thomas STENGER,
Maître de conférences, IAE de Poitiers, laboratoire CEREGE
et chercheur associé à l’Institut des sciences
de la communication du CNRS
Objectifs
Sommaire
Si le milieu des années 1990 a vu les premiers pas des usages marchands sur Internet, le « réseau des
réseaux » poursuit à son origine un objectif totalement différent, à une époque où les réseaux de données
sont balbutiants et limités au monde scientifique et professionnel (il n’y a pas alors d’utilisateurs « grand
public », l’informatique personnelle et avec elle l’équipement des foyers n’apparaissant que dans les
années 1980) (Abbate, 2000). Réservé à une étroite « élite » scientifique et technicienne qui le conçoit au
prisme de ses valeurs et lui insuffle des caractéristiques qui sont encore aujourd’hui profondément
inscrites dans son fonctionnement, Internet est d’ailleurs loin d’être la seule voie pour les échanges de
données au cours de cette première période.
Les « usages commerciaux » de l’Internet peuvent être entendus et appréhendés en un double sens. Il
s’agit, d’une part, de la privatisation progressive d’infrastructures développées à l’origine par le monde
de la recherche, avec la mise en place d’une offre commerciale d’accès à Internet. Ce premier volet peut
être qualifié de « privatisation » de l’Internet. D’autre part, le tournant commercial évoque également
l’autorisation et le développement d’usages commerciaux qui vont chercher à tirer parti de l’Internet. Ce
projet s’incarnera explicitement à travers les notions d’e-marketing et d’e-commerce.
Bien sûr, le commerce en ligne stricto sensu ne commence pas avec Internet puisque l’utilisation de
réseaux de télécommunication et en particulier du téléphone permettait déjà l’achat à distance en ligne
depuis de nombreuses années, pour les particuliers, comme pour les entreprises. Ces dernières ont de
plus procédé par échange de données informatisées (ou electronic data interchange – EDI) dès les
années 1980. Côté utilisateurs, les Français ont bénéficié de l’expérience du Minitel dès 1982. On
conviendra donc ici que l’e-commerce est entendu en tant que commerce en ligne par Internet auprès de
particuliers[3].
1 La « privatisation » de l’Internet
La décennie 1980 est riche d’évolutions dans le monde informatique et il est difficile de détailler tous
les éléments qui participent à la croissance du « réseau des réseaux ». Avant même l’apparition des
premiers pas du Web au tournant de cette décennie, la croissance de l’Internet est notable sous l’effet du
développement des réseaux locaux (LANs, Local Area Networks) dans le monde de l’entreprise, ou de la
révolution de la micro-informatique. De nombreux réseaux locaux se rattachent à Internet : ainsi, de 15
réseaux attachés à Internet en 1982 on est passé à près de 400 en 1986.
TCP/IP bénéficie (aussi) de sa rencontre avec Unix, système d’exploitation dont les principaux atouts
sont la simplicité, la portabilité sur plusieurs types de machines, et le prix. Né dans l’esprit de chercheurs
de la grande entreprise de télécommunications américaines AT&T et, à la suite de la décision de la
Justice américaine de l’empêcher d’en tirer profit, Unix est offert à bas prix ou donné aux universités.
Ainsi il est rapidement adopté par les universités américaines. L’ARPA convainc l’Université de
Berkeley de modifier le système pour intégrer les protocoles TCP/IP. La nouvelle version d’Unix en 1983
est dotée de TCP/IP, facilitant ainsi la pénétration de l’Internet encore davantage dans le monde
académique.
Un autre élément fondamental est le développement par la National Science Foundation du réseau de la
recherche NSFnet, précédemment évoqué, qui se fonde à partir de 1986 sur TCP/IP et ouvre l’Internet à
la quasi-totalité des universités américaines. C’est notamment par lui qu’une partie de la privatisation de
l’Internet se joue entre 1987 et 1995, comme l’a montré l’historienne Janet Abbate (Abbate, 2010).
Focus 1.2
Internet et la National Science Foundation : vers des partenariats
public-privé
Le choix de confier l’évolution de l’épine dorsale haut débit chargée de transporter le trafic des
différents réseaux qui font partie de NSFnet à un consortium public-privé, Merit, regroupant un fond
de l’université de Michigan mais aussi les entreprises IBM et MCI, ouvre la voie au secteur privé
dès 1986-1987.
Au cours de ces mêmes années le sénateur du Tennessee Al Gore (qui devient Vice Président
entre 1993 et 2001) souligne les enjeux des réseaux pour la compétitivité internationale des États-
Unis, idée reprise ensuite dans le High-Performance Computing Act de 1991. Sur fond de
déréglementation (Griset, 2010), les débats sont passionnés autour de l’avenir du réseau de la
NSFnet, en particulier lorsque les partenaires regroupés dans Merit proposent une évolution
technologique des infrastructures, pour faire face à leur encombrement, qui ouvrirait plus largement
celles-ci à un management privé et à des usages également commerciaux. Ce tournant est accompli
entre 1993 et 1995 quand l’épine dorsale de la NSF est remplacée par une interconnexion des
réseaux universitaires à des épines dorsales haut débit opérées par des fournisseurs d’accès privés,
dont MCI et IBM bien sûr, intégrant des utilisateurs académiques mais aussi industriels,
entrepreneuriaux, puis le grand public.
La voie est alors pleinement ouverte à la commercialisation de l’Internet avec la présence de ces
dorsales à haut débit, exploitées par des entités commerciales et le remplacement des réseaux
régionaux à but non lucratif par des fournisseurs de services commerciaux.
Le milieu des années 1990 est une période d’hésitation sur l’offre à proposer aux utilisateurs. Si au
final c’est l’accès à un Internet ouvert et au Web qui triomphe, rien n’est joué d’emblée : comme le
rappelle Franck Rebillard (2012), America Online (AOL), CompuServe, Prodigy ou Microsoft proposent
initialement des offres de services en ligne fermés, pas très éloignés du modèle du Minitel. Ainsi,
prenons l’exemple de Microsoft avec MS Net : le nouveau système d’exploitation Windows 95 propose
certes le logiciel Internet Explorer pour le Web, mais aussi un réseau privé donnant accès à l’e-mail, à
des Newsgroups et à des services d’information (MSN Today) ou de recherche thématique sélectionnés
pour les utilisateurs. De même au lancement de Wanadoo par France Télécom au milieu des années 1990,
les hésitations sont évidentes entre d’une part un système de « vitrines interactives » avec des sites
préalablement sélectionnés - une offre spécifique qui n’a rien à avoir avec le Web, et d’autre part l’offre
simple d’accès à Internet et au Web, qui finira par s’imposer.
Le cas français attire aussi notre attention sur la progressive structuration d’un marché, encore timide au
milieu des années 1990, mais qui voit initialement cohabiter une multitude de fournisseurs d’accès à
Internet (FAI). Le paysage va se simplifier au profit de grands groupes à la suite du Comité
interministériel sur les « autoroutes et services de l’information » présidé le 16 octobre 1995 par
François Fillon, alors Ministre des Technologies de l’information et de la Poste. Il décide que chaque
Français pourra joindre son fournisseur d’accès à Internet au prix d’une communication locale, mettant fin
à la multiplication des FAI régionaux qui proposaient une offre de proximité à des utilisateurs qui
n’auraient eu aucun intérêt financier à se connecter à un FAI parisien (Rebillard, 2012). Le modèle de
tarification est lui aussi complexe entre tarification à l’abonnement et à la durée, alors que la bataille des
offres commence.
Enfin évoquons un dernier tournant important en terme de commercialisation de l’Internet parmi ceux
qui jalonnent la seconde moitié des années 1990 : la création controversée de l’ICANN en 1998, qui
prend en charge les noms de domaine (cf. encadré). Cette structure privée à but non lucratif basée à San
Diego a pour but d’allouer les plages d’adresses IP, de proposer et de gérer les extensions de nom de
domaine (internationales et nationales), et de coordonner treize serveurs de routage (onze Américains et
deux Européens). Deux éléments majeurs d’Internet sont ici centralisés : le mode d’adressage des
ordinateurs connectés et le système de nommage permettant d’associer un nom à une adresse IP
numérique[4]. L’ICANN est placée sous la tutelle directe du Département du Commerce américain.
Focus 1.3
De la gratuité à la marchandisation des noms de domaine
Alors qu’en 1993, la National Science Foundation avait signé un contrat avec Network Solutions,
Inc., pour gérer l’enregistrement de cinq des domaines supérieurs (ceux se terminant par .com, .org,
.net, .edu et .gov) et que l’enregistrement était gratuit, en 1995 l’entreprise Science Applications
International Corporation (SAIC) achète Network Solutions et renégocie son contrat avec la NSF
pour facturer des honoraires annuels pour l’enregistrement des noms de domaine. La controverse sur
l’attribution et la marchandisation des noms de domaine conduit à la création de l’ICANN, l’Internet
Corporation for Assigned Names and Numbers, en 1998, pour gérer ces questions de nommage et
d’adressage, l’attribution des noms étant ensuite déléguée à des registres. En effet, en 2000, juste
avant l’éclatement de la bulle Internet, SAIC vend le registre à Verisign, pour un bénéfice estimé à
3 milliards de dollars (Ceruzzi, 2012).
Cas d’entreprise
Dell 2007 : un virage stratégique
Alors que Dell était parvenu à devenir numéro un mondial parmi les constructeurs d’ordinateurs avec
un modèle de désintermédiation, celui-ci finit par atteindre ses limites. En 2007 la société perd sa
place de leader mondial du marché des PC au profit de Hewlett-Packard. De retour à la direction de
la société, le fondateur Michael Dell impose un virage stratégique majeur.
Afin de se développer sur le marché grand public, Dell adopte le principe de la vente indirecte et
signe plusieurs accords de distribution avec des grandes chaînes de magasins tels que Wal-Mart aux
États-Unis, Tesco en Grande-Bretagne, Gome en Chine ou Carrefour en France. Une partie de la
production est délocalisée : des usines sont ouvertes en Asie. La conception du système de
production et la chaîne logistique sont entièrement modifiées. Dell abandonne son système de
production en flux tendus et décide, contrairement au modèle initial, de fabriquer à l’avance, de
constituer des stocks, et en conséquence de gérer de nouvelles relations avec ses distributeurs
(promotion, invendus…).
Source : Dell.fr.
Cas d’entreprise
Le business model de Viadeo
Entretien (extrait) avec Olivier Fecherolle, directeur général de Viadeo France et responsable
marketing Europe
« – Pouvez-vous présenter Viadeo et son modèle d’affaires ?
– Tous les lecteurs doivent déjà connaître et j’espère être inscrits sur Viadeo ! Je vais donc tout de
suite vous parler de notre business model. Il est assez équilibré, par rapport à d’autres réseaux
socionumériques, avec d’un côté des abonnements premiums qui représentent 50 % des revenus. Ici,
nous nous appuyons sur un modèle freemium typique de l’économie Internet d’aujourd’hui : une
inscription gratuite, un premier niveau d’usage gratuit et un niveau d’usage supérieur
avec fonctionnalités réservées aux membres qui souscrivent un abonnement payant. D’un autre côté,
50 % des revenus proviennent du BtoB avec d’une part, la publicité – nous disposons d’une régie
intégrée à destination des annonceurs - et d’autre part, les recruteurs. Nous proposons la publication
d’offres d’emplois et l’identification de profils, de talents, de compétences sur la base de données
Viadeo. À titre de comparaison, les revenus de LinkedIn proviendraient essentiellement
d’abonnements des membres et des recruteurs. »
Source : Stenger T., Coutant A. (2013), « Les sites de réseaux sociaux professionnels au service
du marketing : le cas Viadeo, Communication & Organisation, 43, 283-289.
Quel que soit le business model retenu, les revenus peuvent provenir de la publicité, du sponsoring,
d’alliances qui conduisent à partager les coûts, d’un système d’adhésion ou d’abonnement, de la
constitution de bases de données avec la revente ou la location à des tiers d’informations accumulées, de
la vente d’informations, de commissions sur les transactions (en particulier dans les ventes CtoC), des
orientations vers d’autres sites Web, de l’affiliation… et bien sûr de la vente de produits ou services en
ligne.
Cette variété des sources de revenu pourrait être la clé pour les entreprises d’e-commerce car, en
période de crise économique, la seule activité de vente de produits en ligne semble difficilement
permettre d’atteindre l’équilibre. On observe ainsi un glissement des business models du commerce vers
les modèles hérités de l’économie des médias (presse, radio, télévision, etc.) focalisés sur l’audience
(source de revenus publicitaires). Les poids lourds du secteur ne sont pas exempts puisqu’ils sont de plus
en plus nombreux à « monétiser » leur trafic auprès de sites tiers (ex. : Amazon, PriceMinsiter,
CDiscount…) – certains comme RueDuComemrce ont intégré leur propre régie publicitaire – et même
leurs données clients. Notons d’ailleurs que le nombre de visiteurs uniques (VU) demeure un des critères
majeurs – si ce n’est le critère – de l’économie Internet. La rentabilité des sites marchands reste toutefois
un sujet délicat ; il est bien difficile d’obtenir des informations détaillées même si certaines entreprises
communiquent volontiers sur leurs bénéfices (ex. : CDiscount, Vente privée, etc.).
Focus 1.4
Sélection de revues scientifiques spécialisées e-marketing et e-
commerce
De façon non-exhaustive, signalons l’existence des revues :
International Journal of Electronic Commerce : créée dès 1996, revue de référence en e-commerce
focalisée sur le management des systèmes d’information ;
Journal of Interactive Marketing : ex-Journal of Direct Marketing (créé en 1987), devenue
Journal of Interactive Marketing en 1998 ; revue la plus marketing ;
Electronic Markets : revue pluridisciplinaire créée en 1991 ;
Electronic Commerce Research and Applications : revue généraliste créée en 1998 associée à
l’International Conference on Electronic commerce.
De nombreuses revues, moins connues, proposent également des articles intéressants tels que :
Journal of Electronic Commerce Research, revue généraliste créée en 2000, International Journal
of Electronic Marketing and Retailing, créée en 2006, spécialisée en e-marketing, International
Journal of Electronic Business, créée en 2003, qui aborde plus largement l’e-business, Internet
Research, créée en 1991, etc.
Enfin, on ne peut conclure sans citer First Monday, créé en 1995 : revue très populaire et
commentée dans le monde de l’Internet ; une des toutes premières revues en ligne à comité de lecture
consacrée à Internet.
Moins centrées sur les problématiques managériales et marketing, les revues de communication sont
néanmoins très intéressantes pour les praticiens, étudiants et chercheurs en e-marketing et e-
commerce. Notamment le Journal of Computer-Mediated Communication, revue pionnière (1995)
dédiée aux problématiques de la communication médiatisée par ordinateur et, en français, les revues
Réseaux, Hermès, Les Enjeux de l’information et de la communication, Communication, Les
Cahiers du Numérique, TIC et Société, RESET (Recherches en Sciences Sociales sur Internet)
consacrent régulièrement des articles aux usages d’Internet et au e-commerce.
Les sites et blogs d’experts, de cabinets de conseil sont extrêmement nombreux. Si leur discours est
nécessairement intéressé, ils n’en demeurent pas moins une source intéressante pour appréhender les
sujets et technologies du moment. Les technophiles suivront notamment le site du magazine Wired créé en
1993 par Chris Anderson et consacré aux nouvelles technologies dans la société et le blog de la société
TechCrunch (dont une version existe en français) créé par Michael Arrington. En France, InternetActu
propose des articles sur les sujets les plus actuels et des analyses intéressantes relayant souvent les
recherches académiques récentes. Le site JournalDuNet offre également des articles et documents
instructifs. Il existe aussi de nombreux sites Web et blogs consacrés à la pratique du e-marketing et du e-
commerce et quelques-uns dédiés à la recherche et l’enseignement (notamment le blog livre-
ecommerce[13], le blog Technologies du Marketing[14] et bien sûr les blogs des auteurs de ce livre).
Si les usages marchands de l’Internet se sont développés à partir des années 1990 et ne font plus débat
en tant que tels, la tension entre les débuts de l’Internet, non marchands, plutôt pair-à-pair (Musiani,
2013) et le développement d’un réseau aujourd’hui fondé sur un modèle plus vertical, client/serveur,
l’importance de l’économie numérique et de la convergence des médias, le succès retentissant de Pure
Players, n’a pas disparu. Cette tension se manifeste au travers de controverses qui dépassent les seules
rubriques de la presse spécialisée pour toucher au politique et au social (Faucilhon, 2010). Évasion
fiscale, guerre des brevets entre géants des technologies, critique de l’entonnoir « Google » (Gallezot et
Simonnot, 2009) qui s’étend sur la toile, des « jardins privés » et « silos d’enfermement » que créent
certaines entreprises comme Facebook ou Apple, faiblesse de « l’Union européenne, colonie du
numérique » des États-Unis pour reprendre la formule de la sénatrice Catherine Morin-Desailly dans son
rapport de 2013, expansion de « la grande muraille électronique chinoise », scandale de la NSA,
surveillance des internautes et revente ou exploitation de leurs données personnelles à différentes fins…
Les sources de tensions sont nombreuses. Parallèlement continuent de se développer sur le Web des
formes alternatives de cultures et de gouvernance, prônant la transparence, l’ouverture (mouvement
d’open data, open science…), la culture du « libre » (qui dépasse le simple cas du logiciel libre) ou
encore le participatif et le collaboratif, à l’instar de Wikipedia (Masutti, Paloque-Berges, 2013).
Cas d’entreprise
Le Free Adgate et l’affaire Orange/Cogent : économie et neutralité de l’Internet
Dans le premier cas, au début 2013, Free prenait la décision, à la faveur de la mise à jour de sa
Freebox, de bloquer les publicités émanant de certains fournisseurs de contenus, en particulier
Google, avec qui Free est en conflit sur des questions d’échanges de trafic qui touchent à YouTube.
En effet, Free reproche à Google de lui envoyer des flux entrants à transporter vers ses internautes
extrêmement consommateurs en bande passante, sans pour autant l’aider à financer les infrastructures
qui seraient nécessaires pour assurer dans de bonnes conditions ce transport.
Un problème à peu près similaire sur le fond était soulevé l’année précédente par l’affaire Cogent
contre Orange, tranchée par l’Autorité de la Concurrence Française, de manière inédite, en faveur
d’Orange : l’entreprise nationale ralentissait le trafic que Cogent, opérateur de transit (i. e. un
transporteur de flux), lui apportait, en particulier le trafic lié au site de téléchargement MegaUpload
(fermé depuis pour violation des lois sur le copyright). La raison était là encore l’existence d’un flux
fortement asymétrique, beaucoup plus important dans le sens Cogent – Orange, que dans le sens
Orange – Cogent, qui justifiait selon Orange une compensation financière de la part de Cogent. Or,
l’échange de trafic est en général fondé sur des bases gratuites (accords de peering) quand les flux
sont relativement équilibrés dans les deux sens.
Dans les deux cas évoqués ici, les opérateurs nationaux posaient la question du financement des
infrastructures, arguant qu’ils doivent transporter des flux de plus en plus importants dont ils
supportent les coûts, sans que les fournisseurs de ces contenus lourds (vidéo, etc.) ne participent. La
neutralité de l’Internet est donc ici clairement posée sous l’angle du modèle économique global de
l’Internet.
EN CONCLUSION
L’histoire d’Internet depuis sa création par une communauté de scientifiques a déjà connu
plusieurs bouleversements. Après les premières expérimentations dans les années 1960 et les
prémisses d’Arpanet en 1969, puis les premières interconnexions de réseaux dans les années
1970, ce sont l’invention du Web et des premiers navigateurs qui permettent l’arrivée du grand
public sur la toile au milieu des années 1990. L’ouverture du Web au grand public coïncide
avec les débuts de la publicité et des sites marchands à partir de 1995.
Près de vingt ans après les premiers sites marchands, e-commerce et e-marketing se situent
dans un contexte radicalement différent avec près de 3 milliards d’internautes dans le monde
fin 2014 soit 40 % de la population mondiale[17]. La croissance du e-commerce est continue,
malgré les fluctuations des marchés financiers, et le nombre d’acheteurs en ligne (34 millions
en France) et de sites marchands (plus de 138 000 en France) progresse année après année.
Pourtant, la part du e-commerce vis-à-vis du commerce traditionnel reste faible, même dans
les pays les plus avancés sur le sujet. Mais limiter le rôle du e-commerce et du e-marketing au
simple montant des ventes en ligne serait très réducteur car il faut avant tout considérer
qu’Internet est consulté par 9 internautes sur 10 avant de réaliser un achat, que celui-ci ait
ensuite lieu en ligne ou offline (Fevad, 2013). La recherche en ligne avant d’acheter en
magasin est devenue la norme. Le rôle d’Internet et du e-marketing est donc à examiner tout
autant vis-à-vis du e-commerce que du commerce traditionnel. La place des terminaux mobiles
dans ce contexte – tablettes, comme téléphones mobiles (dont le nombre atteint 7 milliards en
2014 !) est croissante.
L’évolution des modèles d’affaires a pris en compte ce phénomène pour ne plus se limiter à la
vente en ligne et pour proposer une grande variété d’informations, d’évaluations, de
comparaisons, d’outils et de services complémentaires pour le commerce en général.
L’articulation multicanal de la vente et des processus d’achat est au cœur des problématiques
des praticiens et chercheurs spécialisés.
Par ailleurs, les défis actuels du e-marketing ne se limitent plus aux sites marchands. Ils
concernent de façon plus globale la présence des marques sur le Web – notamment sur les
médias socionumériques où les internautes sont de plus en plus nombreux. La question de la
participation des internautes à l’ensemble de la démarche marketing est désormais envisagée,
ce qui révèle moult difficultés.
Surtout les défis du e-marketing doivent prendre en compte les évolutions réglementaires,
économiques, mais également les contextes politiques et sociétaux et une relation des citoyens
et consommateurs à l’Internet qui sont loin d’être figés : de la neutralité d’Internet au droit à
l’oubli en passant par la gouvernance, les enjeux qui s’affirment aujourd’hui et devraient
s’amplifier encore dans les années à venir impliquent de saisir avec finesse les comportements
des internautes, de plus en plus informés, aguerris et pour certains vigilants aux enjeux de la
vie numérique : intériorisation du processus de fouille permanente des données dans la
construction de son propre espace personnel, attentes et injonctions paradoxales des
internautes[18], prise de conscience progressive des risques cumulatifs face à la divulgation de
bribes d’informations, revendication d’un droit au « silence des puces » (Bernard
Benhamou[19]).
Enfin, le développement international d’Internet devient un enjeu majeur : il était auparavant
essentiellement « limité » à l’Amérique du Nord et à l’Europe occidentale. Aujourd’hui, près
des deux tiers des internautes dans le monde ne se situent plus dans ces deux régions. Il est
encore difficile d’évaluer comment cela va modifier le e-marketing et le e-commerce.
Depuis une quinzaine d’années, la recherche e-marketing s’est ainsi développée en se fondant
sur les pratiques des professionnels du secteur et des internautes. Des laboratoires de
recherche, des projets nationaux et internationaux, des revues spécialisées et des chercheurs
ont commencé à donner corps à ce nouveau champ de recherche à la frontière de plusieurs
disciplines allant notamment du marketing à l’informatique en passant par la sociologie, le
management des systèmes d’information, les sciences de la communication… Les chapitres
suivants proposent d’examiner en détail des outils, des pratiques et des concepts
fondamentaux.
Annexe LE MINITEL : TRENTE ANS DE SERVICES EN LIGNE…
[1] Voir l’hommage que lui a rendu Alexandre Serres et la mise au point scientifique qu’il fait à cette occasion : « Paul Baran, inspirateur (et
[3] C’est la conception retenue aujourd’hui par l’ensemble des acteurs qui traitent séparément du BtoB (cf. introduction pour plus de détails
concernant les définitions du e-commerce et du e-marketing).
[4] On pourra d’ailleurs noter que le système aurait pu ne pas être ainsi conçu, et qu’il le fut à une période moins utopiste, celle du
[6] Source : Netcraft, reprise par Joël Faucilhon qui souligne le caractère très approximatif de ces chiffres.
[7] Le NASDAQ, représentatif sur les marchés financiers des valeurs technologiques et symbole de ce que l’on appela la « nouvelle
économie », reflète la perception des gains de productivité engendrés par les nouvelles technologies (et Internet en particulier).
[8] Une traduction française de l’article originel est en ligne sur le site www.internetactu.net.
[9] Pour une analyse des business models des places de marché électroniques, voir Dominguez (2009)
[11] Citons également le dossier « e-management » de la Revue Française de Gestion, publié en 2000.
[14] http://www.i-marketing.blogspot.com
[15] À ce jour, plus de 6000 RFCs, dont les premières datent de 1969 sont disponibles en ligne sur le site de l’IETF. Elles constituent une
mémoire technique exceptionnelle du réseau Arpanet puis d’Internet, que certains chercheurs ont commencé à explorer à l’instar de
Sandra Braman (« Internet RFCs as a social policy : Network Design from a Regulatory Perspective,
http://www.utwente.nl/mb/steps/research/colloquia_and_seminars/colloquia/bestanden/braman.doc/).
[16] Voir le rapport d’activité de la CNIL 2012. http://www.cnil.fr/fileadmin/documents/La_CNIL/publications/CNIL_RA2012_web.pdf
[18] Voir Le citoyen de verre, entre surveillance et exhibition de Wolfgang Sofsky, 2011.
[19] Des extraits des articles et livres de ces différents auteurs peuvent être trouvés dans Ocqueteau, Ventre, 2011.
Chapitre
2 Médias sociaux et marketing
Thomas STENGER,
Maître de conférences, IAE de Poitiers, laboratoire CEREGE
et chercheur associé à l’Institut des sciences de la communication du CNRS
Alexandre COUTANT,
Maître de conférences, Université de Franche-Comté,
laboratoire ELLIADD, équipe « Objets et usages numériques »
Objectifs
Sommaire
Focus 2.1
Le Web 2.0 et l’essor de la participation en ligne
Le Web 2.0 est devenu durant le milieu des années 2000 le symbole d’une nouvelle répartition des
rôles entre producteurs et consommateurs. C’est ainsi que le magazine américain Time a élu « Vous »
(You) comme personnalité de l’année 2006 pour signifier l’essor de la participation et de la
collaboration en ligne.
En effet, là où l’on attendait plutôt le développement des relations BtoB, et dans une moindre mesure
du BtoC, ce sont les relations interpersonnelles (le CtoC) qui se sont imposées comme l’usage
principal du Web. À partir de « communautés » d’échange, se sont restructurés aussi bien le
commerce en ligne, les mécanismes de diffusion de la notoriété et de l’influence, que la distribution
de logiciels libres ou le travail collaboratif. Le marketing est directement concerné par cette
reconfiguration. Les conséquences sont en effet multiples pour la marque, la gestion de la relation
client et le recours à la « boîte à outils » traditionnelle du marketeur (études, marketing mix, etc.).
L’expression « Web 2.0 », proposée par Dale Dougherty, membre de la société O’Reilly, en 2004,
renvoie selon Tim O’Reilly lui-même (2005) à une série de principes :
le Web en tant que plateforme de services facilement intégrables ;
l’intelligence collective ;
l’importance des données utilisateurs ;
des mises à jour de plus en plus régulières ;
des modèles de programmation légers ;
l’extension des outils qui interagissent avec les applications Web ;
l’enrichissement des interfaces utilisateurs.
Sont qualifiés de 2.0 les sites partageant une partie de ces principes. Il s’agit majoritairement des
blogs, des plateformes de travail collaboratif, des réseaux socionumériques (ou sociaux
numériques), des mashup*, de la folksonomie ou encore des Digg-like.
Ce vaste ensemble repose sur un ensemble de technologies identiques (Ajax, architectures de
services Web, flux RSS/Atom, microformats) ayant comme caractéristiques principales :
le seul rafraîchissement des parties nécessaires d’une page Web – sans recharger la page entière ;
une modification aisée du contenu de la page (mise en forme, ajout de contenus) ;
l’interopérabilité, c’est-à-dire une utilisation au sein de différents environnements (navigateurs,
systèmes d’exploitation, terminaux, API).
Il ne s’agit donc ni d’un standard ou d’une technologie particulière. Chaque fonction développée sur
une plateforme est facilement intégrable sur d’autres sites. Ajoutons à cela la possibilité offerte aux
utilisateurs d’adopter une démarche plus active en créant leur propre contenu ou en commentant les
autres, et qui les encourage à préférer les interactions entre pairs. Les actions marketing y sont donc
d’autant plus facilement ignorées, détournées, voire rejetées si elles ne savent pas se fondre dans la
logique « participative » qui constitue la culture associée à ces plateformes.
L’expression Web 2.0 est donc devenue le symbole d’un « nouveau Web collaboratif/participatif ».
Une autre signification a peut-être échappé à bon nombre d’observateurs. Nous voulons souligner ici
que le Web 2.0, chez O’Reilly en particulier, a vocation à donner un nouvel élan à la « nouvelle
économie » mise à mal par l’éclatement de la bulle Internet, comme l’explique très bien Matthew
Allen (Bouquillion et Matthews, 2010). Il s’agit de légitimer et de restaurer l’image de l’industrie
du Web auprès des sphères politique, économique et surtout financière.
Kaplan et Haenlein (2010, p. 61) ont quant à eux défini les médias sociaux comme « un groupe
d’applications Internet qui se fondent sur l’idéologie et la technologie du Web 2.0 et qui permettent la
création et l’échange du contenu généré par les utilisateurs ». Cette définition souligne à juste titre les
liens étroits entre médias sociaux, Web 2.0 et UGC, mais elle tend aussi à les assimiler. De plus O’Reilly
(2005) explique bien qu’il n’existe pas de technologie du Web 2.0 (cf. Focus 2.1). Plus récemment,
Hoffman, Novak et Stein (2013, p. 29) définissent les médias sociaux comme « un ensemble d’outils et
applications Web et mobiles qui permettent aux gens de créer (consommer) du contenu qui peut être
consommé (créé) par d’autres et qui permet et facilite les connexions ». Ces définitions mettent
systématiquement l’accent sur, d’une part, la double activité de consommation et de création ou
production de contenu médiatique, et d’autre part, sur le partage et l’interaction sociale entre utilisateurs
des médias sociaux.
Dans une perspective très proche, Stenger et Coutant (2013, p. 115) définissent les médias sociaux (ou
socionumériques) comme des services Internet :
dont le contenu est très largement produit par les internautes utilisateurs (principe UGC : user
generated content) ;
qui regroupent des configurations sociotechniques très variées en termes de dynamique de
participation […] et de visibilité […] ».
Les dynamiques de participation et de visibilité sont ensuite précisées (cf. section 2 de ce chapitre).
Plus précisément, les auteurs considèrent que « les médias sociaux :
reposent sur le principe d’expression et de participation de masse qui conduit les internautes-
utilisateurs à produire l’essentiel du contenu de ces sites (principe UGC) ;
permettent à n’importe quel internaute de participer avec des outils et applications d’une grande
simplicité d’usage ;
ont un coût de participation (quasi)-nul pour les internautes mais qui a un prix (Douplitzky, 2009) ou
peut être considéré comme un contrat (Benavent, 2009) qui implique en contrepartie le traçage, le
profilage et l’exploitation des données publiées ;
proposent un contenu évoluant en permanence, dans une logique de flux, constitué de témoignages
(badins, sérieux, ordinaires, etc.), commentaires (en réaction aux précédents contenus),
d’appréciations/jugements (évaluations, notations…) et de partage de documents/ressources (image,
texte, son, vidéo, etc.) ;
sont le fruit de la rencontre de l’usage, de la technologie, de stratégies économiques et de leurs
constructions progressives ;
constituent le support de pratiques et de normes sociales très variées – d’où la nécessité de voir plus
clair parmi l’ensemble des médias sociaux » (idem).
Selon cet ensemble de principes, Facebook, Twitter, MySpace, YouTube, Wikipedia, Instragram, Sina
Weibo, Tumblr, Google+, Pinterest etc. sont des exemples typiques de sites de médias sociaux. Ils sont en
grande partie laissés entre les mains de leurs utilisateurs. Cette « ouverture » effraie d’ailleurs certains
annonceurs, habitués à contrôler bien davantage leurs espaces de communication.
Focus 2.2
Les médias socionumériques en quelques chiffres
74 % des internautes dans le monde sont inscrits sur des sites de réseaux sociaux (soit 26 % de la
population mondiale).
Facebook compte 1,28 milliards d’utilisateurs actifs mensuels (UAM) dont 26 millions en France ;
802 millions d’utilisateurs quotidiens (dont 602 millions se connectent avec leur mobile) ; 81 % des
utilisateurs ne sont pas nord-américains (données en mars 2014). Le chiffre d’affaires 2013 est de
7,85 milliards de dollars et le bénéfice de 1,5 milliard de dollars.
YouTube compte 1 milliard d’UAM ; 4 milliards de vidéo sont vues chaque jour.
Google+ compte environ 500 millions de membres et 300 millions d’UAM.
Twitter compte 241 millions d’UAM ; 117 millions d’utilisateurs publient des tweets ; 500 millions
de tweets sont envoyés chaque jour.
LinkedIn compte 187 millions d’UAM et 277 millions de membres inscrits.
Instagram compte 150 millions de membres et plus d’un milliard de photos.
Tumblr compte 100 millions d’UAM et 185 millions de visiteurs uniques mensuels.
Viadeo compte 55 millions d’UAM (dont 8 millions en France).
Pinterest compte près de 50 millions de membres.
Sources : ComScore, We are Social,
IFOP et données entreprises.
Les médias sociaux ont démontré leur caractère social dans le sens où les internautes y recherchent
majoritairement les interactions entre pairs. Il est essentiel de les distinguer car les normes sociales sont
très différentes selon les dispositifs et les moteurs de la participation comme les modes de visibilité
diffèrent fortement (idem). Les médias sociaux appellent ainsi des stratégies très différentes de la part des
marques. WebPour cela, il est très instructif de comprendre l’imaginaire véhiculé par l’idée même de
participation (cf. Focus 2.3).
En synthèse, le principe central des médias socionumériques peut être résumé en trois lettres : UGC
pour User Generated Content (contenu généré par les utilisateurs). Plus précisément, la caractéristique
commune de ces sites Web est de bâtir un modèle économique autour de contenus et parfois même
d’outils essentiellement produits par les utilisateurs. L’intérêt économique est évident pour les
plateformes. Ajoutons que cette stratégie garantit une plus grande fidélité des utilisateurs, d’autant plus
attachés au site qu’ils ont contribué à son contenu (Stenger, Coutant, 2013). Ainsi, l’appellation « médias
sociaux » ou « médias socionumériques » permet de regrouper un ensemble d’espaces potentiellement
très intéressants pour le marketing mais très différents les uns des autres. Cet intérêt est justifié
essentiellement par l’audience exceptionnelle dont bénéficient ces sites (cf. Focus 2.2). Pour comprendre
comment en tirer le meilleur parti, il est fondamental de distinguer les différents dispositifs.
Focus 2.3
L’imaginaire de la « participation »
Le succès du Web 2.0, puis des médias sociaux, s’est construit sur l’idée d’une participation de
l’utilisateur. Les promoteurs du Web comme les médias ont alors insisté sur la révolution véhiculée
par ce principe : le pouvoir serait désormais entre les mains de l’internaute. Libre de créer les
contenus qu’il souhaite, il ne serait plus soumis au bon vouloir des entreprises et de leurs offres. Le
journalisme citoyen prôné par le site Agoravox, où tout internaute est libre de contribuer, a ainsi été
vu comme une alternative au journalisme traditionnel. Les sites de vente aux enchères ont laissé
imaginer un détachement par rapport aux circuits de distribution traditionnels et à la norme de
l’achat de produits neufs. Les sites permettant aux internautes de voter pour les produits qu’ils
préféreraient voir produire ont généralisé l’idée d’une co-construction de l’offre, menaçant à terme
toute offre commerciale unilatérale : La Fraise propose aux internautes de voter pour les motifs
qu’ils veulent voir imprimer sur leurs tee-shirts, Ben & Jerry relancent tous les ans une glace qu’ils
avaient cessé de produire et que les internautes ont plébiscitée, MyMajor Company fait de chacun un
producteur de musique. Les forums de discussion et de recueil d’avis ont encouragé à repenser
totalement les manières de communiquer des entreprises, dont le discours ne serait désormais ni
crédible ni écouté (Lassica 2006, Gervais 2008). Pour les entreprises, il s’agirait alors de réussir à
exister au milieu de cet environnement ou d’être condamnées à disparaître.
Ces « prophéties » méritent d’être abordées avec recul. C’est ce que propose Rebillard (2007) dans
son ouvrage Le Web 2.0 en perspective. L’idée d’une révolution générale dans l’activité des
individus ou dans les rapports entretenus entre ceux-ci et les institutions productrices depuis
l’avènement du Web 2.0 est donc dénoncée : « toute « nouvelle » technologie est sujette à la
production d’un imaginaire qui, pour résumer à grands traits, lui attribue la paternité d’une
« nouvelle » société » (ibid., p. 14). Plus précisément, il souligne « qu’il est difficile, lorsque l’on
étudie Internet, d’échapper à un environnement idéologique qui pose comme évidente une
transformation radicale de la société par la technologie » (ibid., p. 101). L’ouvrage reprend les
différents discours tenus sur le Web 2.0 pour replacer les tendances dépeintes dans leur contexte.
Ainsi, par exemple, d’une « synthèse dédiée au Web 2.0 » de Médiamétrie : « son annonce sous le
titre « plus de 3,1 millions de créateurs de contenus sur le Web » représente un caractère
promotionnel. Un tel slogan fixe l’attention sur le chiffre le plus positif de l’étude, et permet du
même coup de passer sous silence l’envers d’un tel résultat, à savoir que l’immense majorité des
Français ne s’affaire pas à créer des contenus sur le Web. Il faut bien réaliser que la création de
contenus par les internautes constitue un épiphénomène plutôt qu’un phénomène social généralisé. Et
en déduire par extension que la posture active des internautes tant vantée par les partisans du Web
2.0 est sans doute l’exception, non la règle » (ibid., p. 48).
Loin de la foi technologiste des slogans annonçant « l’usager tout puissant », Rebillard rappelle la
permanence sur Internet de modes de communication hiérarchisés parallèlement à d’autres plus
horizontaux. De la même manière, les modes de consommation des contenus s’avéreront selon les
cas passifs ou actifs. Enfin, les modes de production professionnels demeurent bien plus fréquents
que les contenus co-construits ou pris en charge par l’internaute (ibid., p. 105). Si la participation
n’est plus une pratique mineure, elle demeure malgré tout minoritaire. Elle est aussi extrêmement
stratifiée socioculturellement : les internautes intervenant sont ceux ayant déjà une position leur
permettant de s’exprimer ou d’agir dans les contextes hors ligne. Ce recul permet de mesurer que ces
discours apparaissent dans le contexte d’une nécessité de relancer l’engouement pour la nouvelle
économie (Bouquillion et Matthews 2010). Ils ont une vocation communicationnelle que l’analyse
des derniers discours promotionnels des « gourous » de l’Internet révèle d’ailleurs clairement en
témoignant du passage d’un imaginaire de la participation à une stratégie bien moins émancipatrice
d’exploitation de celle-ci (Rebillard 2011).
Rappelons donc que les médias sociaux ne constituent pas le seul espace de visibilité d’une
entreprise et que les stratégies classiques des marques demeurent pertinentes dans beaucoup de cas,
même si certaines plateformes issues des médias sociaux comportent des opportunités invitant à de
nouvelles formes d’action.
2 Une cartographie des médias socionumériques
Depuis plus de dix ans, l’arrivée continue de nouvelles plateformes et applications rend bien difficile
la conception d’une approche marketing adaptée aux médias socionumériques dans leur ensemble.
Snapchat n’a pas grand-chose à voir avec Wikipedia et l’on peut s’interroger sur les points communs à
Twitter et YouTube tant ces plateformes diffèrent, à la fois du point de vue technique que du point de vue
des usages et normes en vigueur. Un effort de clarification et même de classification paraît indispensable.
Focus 2.4
De l’intérêt fondamental de distinguer les types de médias
socionumériques
Les « communautés virtuelles » (centrées sur un intérêt), les « réseaux socionumériques » (avec des
pratiques orientées vers l’amitié et la présentation de soi), les « sites de networking/réseautage »
(centrés sur un intérêt ainsi que la promotion de soi) comme les « sites de rencontre » retrouvent
bien leur place au sein de cette cartographie. Il en est de même pour les sites de partage de vidéo
(Dailymotion, YouTube), de photos (Flickr), les plateformes de micro-blogging telles Twitter, de
ressources d’information (Netvibes, Delicious) ou de savoirs (Wikipedia), centrés sur un intérêt et
la publication de contenus. Plateformes et types de médias socionumériques peuvent ainsi être situés
sur cette carte en considérant à la fois les caractéristiques techniques et surtout les pratiques, les
usages des utiisateurs.
Distinguer réseaux socionumériques et communautés virtuelles est d’autant plus important qu’ils sont
souvent amalgamés (la fâcheuse expression « réseau communautaire » en est l’illustration). La
tentation est d’autant plus forte qu’une importante littérature marketing dédiée aux communautés en
ligne existe déjà alors que les travaux consacrés aux réseaux socionumériques sont encore
émergents. Ces deux configurations sont pourtant fort distinctes en termes d’usage et de genre de
participation.
Une deuxième différenciation essentielle peut être opérée entre réseaux socionumériques et leurs
proches cousins : les sites de réseautage (social networking sites). Les seconds sont justement
animés par cet intérêt : le projet de networking. Ainsi, les sites de réseautage tels que LinkedIn ou
Viadeo se situent entre les réseaux socionumériques et les communautés en ligne. Ils sont proches
des premiers techniquement mais plus proches encore des seconds en terme d’usage. Ils s’avèrent en
définitive assez proches des sites de rencontres comme Meetic ou Match, car il s’agit bien de mettre
en relations des personnes compatibles pour des raisons professionnelles (LinkedIn, Viadeo) ou plus
intimes (Meetic), même si techniquement, les écarts sont importants, en particulier en ce qui
concerne la visibilité et la construction de lien social.
Il faut aussi expliquer l’absence des blogs sur cette carte. Les plateformes de blogs et les blogs ne
constituent pas une catégorie homogène (ex. : le blog d’un expert en BD sera focalisé sur cet intérêt
précis alors que le blog d’une adolescente pourra avoir vocation à entretenir des relations amicales
avec des proches)1. En d’autres termes, les usages sont multiples et les blogs doivent donc être
situés au cas par cas.
Source : extraits de Stenger, Coutant (2013).
■ Premières recommandations marketing
Une première distinction est possible en considérant le premier axe (intérêt versus amitié). Les
plateformes relevant de centres d’intérêt facilitent les démarches marketing. Les campagnes de publicité
en ligne ou d’e-mailing profitent d’un ciblage déjà réalisé en grande partie par les thématiques précises
des plateformes. Le contexte dans lequel la publicité est diffusée s’en trouve optimisé : la marque
d’appareils photographiques annonçant sur Flickr sait que l’internaute se connectant à cette plateforme est
à ce moment précis réceptif au domaine de la photographie. Les membres ne sont généralement pas
hostiles à la présence de marques si celles-ci leur apportent une plus-value. Tout en restant très attachés à
leur indépendance vis-à-vis de toute entreprise, ils apprécient que les marques relevant de leur domaine
les écoutent, les consultent, voire les mobilisent. Sous certaines conditions, des démarches de co-
construction de l’offre, de community management et d’étude marketing sont possibles si la marque
réussit à se faire accepter par la communauté (Füller et al., 2007, Kozinets 2009).
En revanche, sur les dispositifs orientés vers l’amitié, le ciblage est beaucoup plus complexe. Les
activités y sont orientées par l’amitié, sans intérêt précis et surtout dans une dynamique sociale faite
d’activités ordinaires du quotidien, de conversations badines, frivoles et résolument non marchandes,
comme l’expriment les utilisateurs (Coutant et Stenger, 2010). En clair, les internautes sont là « avec leurs
amis » et non pour acheter ni même pour rechercher de l’information sur des produits ou des marques. En
conséquence, les taux de clics et de conversion sont bien plus faibles sur ces dipositifs socionumériques
(partie gauche de la cartographie). Les utilisateurs s’avèrent même souvent hostiles aux démarches des
marques s’ils perçoivent leur finalité commerciale. Une entreprise souhaitant profiter de l’affluence sur
ces plateformes devra par conséquent accepter de s’écarter d’une vision exclusivement transactionnelle
pour se fondre dans la dynamique de sociabilité propre à ces espaces. Placement de produit dans des
jeux, vidéos originales créant le buzz, pages proposant des informations diverses et des bons plans, les
vecteurs sont multiples mais le point commun est de jouer sur l’originalité, le ludique et éviter toute
référence directe à la sphère marchande. Certaines marques en sont même arrivées à ne pas indiquer leur
nom sur les applications qu’elles proposent. Si la rentabilité de telles démarches devient difficile à
évaluer, il est en revanche indéniable que les marques ayant réussi à se fondre dans ces activités
renforcent leur valeur de signe culturel, à l’image de la page Nutella réunissant plusieurs millions de
« fans » reconnaissant que la marque constitue un signe culturel fort des habitudes alimentaires.
On notera d’ailleurs que les marques les plus suivies sur les médias socionumériques diffèrent
fortement selon les plateformes. Facebook regroupe essentiellement les grandes marques agro-
alimentaires alors que Twitter recense davantage d’ONG et de marques de luxe ; YouTube est plus
diversifié, comme Google+ même si les entreprises de nouvelles technologies dominent sur cette dernière
plateforme.
Source : Social Bakers (fin juin 2013) sur le site de l’Union des Annonceurs (UDA).
Figure 2.2 Les dix premières marques par plateforme socionumérique en France
Enfin, les forums privés constituent un territoire interdit aux marques, pour des raisons pratiques et
éthiques. Volontairement construits pour permettre à des groupes de se retrouver entre eux de manière
privée, ils devraient imposer aux entreprises de ne pas tenter d’y pénétrer. Cette forme de communication
est assimilable à du spam. La logique encourage à respecter cette déontologie puisqu’une marque
s’immisçant dans ces espaces serait perçue comme très intrusive et passerait à côté de ses objectifs de
promotion.
Les genres de participation définis plus haut et les types d’activités poursuivies par les individus
déterminent en grande partie leur disponibilité et leur attitude à l’égard des actions marketing et des
marques. Les différents modèles développés par les chercheurs travaillant sur « l’économie de
l’attention » offrent une grille de lecture particulièrement intéressante pour voir l’attention des individus,
une ressource particulièrement rare dans l’univers foisonnant d’Internet et des médias sociaux, peut être
obtenue selon les contextes.
Focus 2.5
Une économie de l’attention
Les différentes formes d’économie dite de l’attention se développant sur Internet permettent
d’appréhender les nombreuses plateformes peuplant les médias socionumériques sous l’angle de ce
qui justifie qu’un internaute leur accorde de l’intérêt (Mellet 2009, Goldhaber 1997, Falkinger
2007 ; Boullier 2012a, 2012b).
L’intérêt pour une « économie de l’attention » ne s’est pas manifesté avec les médias
socionumériques. On peut remonter aux travaux d’Herbert Simon (1971) pour trouver les premières
définitions de ses enjeux : « dans un monde riche d’information, le foisonnement d’information
implique la pénurie de quelque chose d’autre : une rareté de tout ce que l’information consomme. Ce
que l’information consomme est plutôt évident : cela consomme l’attention de ses bénéficiaires.
Ainsi la richesse d’information engendre une pauvreté d’attention et le besoin d’allouer cette
attention efficacement parmi l’abondance de sources d’informations qui pourrait la consommer »
(p. 40-41). Dans une société où l’information abonde, l’attention est reconnue comme une ressource
rare, susceptible de revêtir une grande valeur économique. Les travaux menés dans ce cadre ont
permis d’identifier différents modèles d’économie de l’attention, où les ressorts de son obtention
diffèrent. Nous allons les présenter en expliquant comment ils illustrent des fonctionnements
retrouvés sur les catégories de plateformes proposées.
Sept types d’économies de l’attention peuvent être identifiés : l’amplificateur, le filtre, la
réciprocité, le style, l’alerte, la fidélisation et l’immersio(Kessous, Mellet, Zouinar 2010 ; Beuscart,
Mellet 2011, Boullier, 2012a, 2012b). Chacun propose un modèle de production, d’allocation et de
régulation de l’économie de l’attention. Un déterminant de l’attention est, dans chaque cas, mis en
avant pour expliquer les ressorts de son obtention.
Les sites organisés autour de centres d’intérêt et orientés vers l’édition de contenu permettent de
réaliser des études spécialisées sur un domaine de pratique ou de consommation. La quantité des
informations échangées peut permettre l’élaboration de profils de consommation aboutis par l’emploi de
logiciels spécialisés (de type data mining). Cependant, la diversité et la qualité des informations
disponibles sur ces espaces encouragent aussi à effectuer des études qualitatives renseignant en
profondeur sur les cultures de consommation au sein desquelles les marques s’inscrivent (cf.
ethnographie virtuelle et netnographie dans la section suivante).
Les réseaux socionumériques et les sites de réseautage constituent des supports à fort potentiel pour les
enquêtes en ligne par questionnaire. L’effet de réseau et la prescription des amis qui recommandent à
leurs proches de faire de même y sont très efficaces (Tchuente et al., 2011). Ces plateformes recueillent
surtout un très grand nombre de données personnelles sur leurs utilisateurs. C’est d’ailleurs le cœur de
leur business model. Elles sont à même de les exploiter directement ou pour des tiers. Les marques ont
donc intérêt à accéder à ces informations pour construire et/ou affiner leurs bases de données. Les
méthodes d’analyse structurale des réseaux sociaux (ARS) paraissent les plus prometteuses puisqu’elles
analysent non plus les individus mais les relations qui les unissent. Les exigences méthodologiques de
l’ARS sont toutefois très élevées (Stenger et Coutant, 2010). Elles conduisent à utiliser ces méthodes
avec précaution, notamment en associant des résultats issus d’études qualitatives aux résultats renvoyés
par les logiciels d’analyse réseau (Tchuente et al., 2011).
Cas d’entreprise
Les internautes ont eu la peau du Journal de ma peau
L’expérience difficile vécue par la marque Vichy du groupe L’Oréal lors du lancement du blog « Le
journal de ma peau » constitue l’un des cas marketing les plus commentés par la profession.
À l’origine de ce cas se trouve la décision prise par l’agence Euro RSCG 4D de monter un faux blog
d’une consommatrice, Claire, pour le compte des laboratoires Vichy. Claire est utilisatrice des
produits Vichy et le ton est clairement promotionnel, mais rien ne renseigne sur le caractère factice
du blog. Le site est lancé le 27 avril 2005. En à peine deux semaines, de nombreux blogueurs
dénoncent ce dernier et la manipulation commerciale qu’il représente. L’affaire est rapidement
reprise par les blogueurs influents, les consultants en marketing et même le secteur de la santé, tant et
si bien que les médias classiques finissent par accorder un traitement médiatique important à cette
polémique. L’équipe marketing de Vichy fait amende honorable et réagit rapidement. Dès juin, le site
est profondément modifié : sa vocation promotionnelle est clairement indiquée, de vraies blogueuses
sont recrutées pour animer le site et identifiées comme telles, les faux commentaires sont effacés et
les internautes sont encouragés à laisser leur propre témoignage. Blogueurs comme spécialistes du
marketing saluent cette gestion de crise efficace. Le nouveau site laissera indifférent les internautes.
Il est fermé fin 2006 et remplacé par un site vitrine de la marque.
On l’aura compris, il est facile de fédérer contre les marques mais beaucoup plus difficile de
rassembler en sa faveur. Plusieurs règles s’appliquant aux médias sociaux en découlent :
Tout se sait ou finit par se savoir. Il est donc très dangereux d’envisager des démarches qui ne
manqueront pas d’être perçues comme manipulatoires.
Les utilisateurs perçoivent les médias sociaux comme des espaces qui leur appartiennent. Ils
sont d’autant plus sévères dans leur jugement de telles stratégies qu’ils se sentent trahis dans un
espace personnel.
Enfin, les médias sociaux constituent pour leurs utilisateurs une alternative aux dispositifs
officiels de la marque. Reproduire ces dispositifs risque de provoquer au mieux l’indifférence,
au pire la défiance. L’entreprise doit plutôt chercher à intervenir sur les espaces animés par les
utilisateurs, lorsque la présence des marques n’y est pas clairement refusée. Les responsables
marketing doivent alors accepter d’accompagner leurs consommateurs et non de les diriger.
Les communautés en ligne sont surtout des communautés d’intérêt. Dans la communauté traditionnelle
(Tönnies 1922), le lien se fondait essentiellement en fonction d’un territoire partagé. Pensons aux routes
et aux moyens de transport qui connectaient les résidences des familles dans le village, aux écoles
communales ou aux divers services (parcs publics, police, hôpitaux) se situant à proximité. Les situations
d’interactions en ligne ne reproduisent rien de tel. Au contraire, la notion d’espace physique y est en
grande partie absente. Ce qui fait lien entre les membres d’un groupe se reconnaissant comme
communautaire tient alors davantage au partage d’intérêts, de pratiques ou d’opinions communs (Proulx,
Poissant et Sénécal 2006).
Notons enfin que les communautés constituent des groupes sociaux et non un type de site Web aux
caractéristiques techniques précises. Elles sont donc susceptibles de se former par l’intermédiaire de
multiples supports, même si le forum reste le support d’expression le plus fréquent. Un site
communautaire peut donc héberger une plateforme de blogs, des forums spécialisés, des articles, des
wikis, des profils, etc. tous dédiés au thème de cette communauté.
3.3 Wikis
Les wikis sont des espaces en ligne réalisés et partagés par un grand nombre d’utilisateurs qui
disposent chacun de la possibilité de construire et de modifier le contenu. Certains utilisateurs ont
généralement un droit de validation des modifications. L’encyclopédie Wikipédia est le principal
exemple de wiki mais d’autres sites comme Wookipeedia (Starwars. wikia.com), consacré à l’univers de
Star Wars ou Bibliopedia (Bibliopedia.fr), proposant des ressources aux bibliothécaires francophones,
en sont aussi représentatifs.
Les wikis s’inscrivent dans une logique d’intelligence collective et de collaboration universelle pour la
production commune de savoirs chère aux pionniers de l’Internet. Pierre Lévy (1994) qualifie de
« computation sociale » cette collaboration qui « construit et partage de manière collaborative des
mémoires numériques collectives à l’échelle mondiale ». Lévy a une conception très large du concept : il
retient les photos, vidéos, la musique, les signets* ou encore les connaissances encyclopédiques. Aussi,
la publicité y est généralement proscrite, comme toute démarche marketing. Indépendamment de la
présentation officielle de l’entreprise ou de la marque dans une démarche de communication très
institutionnelle, le marketing a donc peu de marge de manœuvre avec les wikis comme Wikipédia, qui
sont historiquement et officiellement opposés à toute activité marchande. Une entreprise se doit toutefois
d’avoir une page décrivant objectivement ses activités sur Wikipédia.
Les entreprises et les marques peuvent créer leur propre wiki avec des finalités pouvant aller de la
communication média à la recherche et développement et la conception de produits nouveaux, en passant
par la mobilisation d’une communauté d’intérêt. Le projet InnoCentive auquel participent Procter &
Gamble, les laboratoires Eli Lilly (à l’origine du projet) et 62 autres partenaires encouragent, contre une
rétribution financière, les scientifiques du monde entier à collaborer et concevoir de nouveaux
médicaments. Ce principe de « collaboration de masse » facilité par Internet a été particulièrement
analysé par Tapscott (1996) et Tapscott et Williams (2006). Ils en vantent les mérites dans leur ouvrage
Wikinomics (généralement traduit par wikinomie ou économie de la collaboration de masse) à travers des
études de cas. Tapscott et Williams voient dans les exemples de Wikipédia, MySpace, YouTube, mais
aussi de Boeing, BMW ou Procter & Gamble (exemple supra), la remise en cause du modèle
hiérarchique traditionnel entre producteurs et consommateurs. Ils présentent les enjeux et (brièvement) les
processus de cette intelligence collaborative qui permet de réduire les coûts (de recherche et
développement en particulier, mais aussi de marketing) et de co-créer de nouvelles offres en associant
clients, partenaires et bénévoles. Si les cas étudiés sont intéressants et stimulent la réflexion, il faut
néanmoins garder à l’esprit qu’ils demeurent exceptionnels dans les industries concernées.
Focus 2.6
La folksonomie
Le terme folksonomie renvoie moins à une plateforme particulière qu’à une forme de classement des
informations sur le Web, popularisée par le site Technorati, dans laquelle les contenus sont classés
en fonction des avis des utilisateurs. Ces derniers sont obtenus via des « tags » ou mots-clés qu’ils
décident de lier aux ressources publiées afin de les caractériser. Le classement obtenu n’est plus le
fruit d’un expert ou d’une autorité reconnue comme compétente mais représente l’avis direct des
internautes. Ce classement peut être le seul retenu par le site ou se cumuler avec d’autres indicateurs
pour obtenir une évaluation de qualité optimale des contenus. Digg constitue l’un des premiers sites
à mobiliser « la sagesse des foules » (Surowiecki 2008) pour classer et hiérarchiser les contenus
disponibles sur le Web. Au point que les sites permettant aux utilisateurs la publication de liens vers
d’autres sites ou des articles sont désormais qualifiés de Digg-like. Le site Del. icio. us propose
pour sa part aux internautes de mutualiser leurs favoris Web afin d’identifier les sites les plus en vue
en se basant sur une analyse sémantique des mots-clés associés à chaque URL. Signalons aussi le
succès du site français Wikio, qui propose une sélection de contenus puisés dans les sites de presse,
les blogs, les sites d’avis de consommateurs et les sites marchands.
L’ensemble des tags peut être visualisé par un moyen populaire : le tag cloud, c’est-à-dire un nuage
de mots qui affiche les tags qui ont été les plus utilisés dans un laps de temps donné. La taille des
mots est proportionnelle à la fréquence de leur utilisation dans les tags des internautes, ce qui permet
d’identifier en un clin d’œil les « sujets chauds ».
Source : Tchuente et al. (2011).
Figure 2.3 Nuage de mots obtenu à partir des centres d’intérêt des profils sur Facebook
La folksonomie est désormais intégrée, au moins partiellement, sur de nombreux sites marchands, à
l’image des évaluations, listes et avis proposés par le site Amazon, l’un des pionniers de l’utilisation de
ce service. L’intérêt est multiple :
mise à disposition d’un nouveau type de prescription complémentaire aux informations
commerciales ou avis d’experts (Stenger 2006, 2008) ;
contenu rédactionnel des sites délégué aux utilisateurs, allégeant d’autant la charge de travail des
gestionnaires du site ;
fidélisation des clients, par la possibilité d’intervenir sur le contenu.
Comme pour la plupart des médias sociaux, la liberté d’avis et de ton des contributeurs est le prix à
payer. Cela nécessite de faire accepter aux marques de voir parfois leurs produits critiqués sur la page
même où est présenté le produit.
Il n’existe que très peu de travaux en marketing sur les wikis. Il s’agit pourtant d’un terrain d’étude
prometteur en matière d’innovation produit, de gestion de la relation client et de communication en ligne.
Focus 2.7
Yes we c@n : Barack Obama 08
Barack Obama a été le candidat des réseaux sociaux, a-t-on pu lire à travers la presse. Épaulé par
Chris Hughes, cofondateur de Facebook, il a su à la fois mobiliser les réseaux socionumériques
existants et surtout créer son propre réseau social : « MyBO » pour collecter des fonds et recruter
des « ambassadeurs » (social media ambassadors) qui se sont chargés de la promotion de sa
campagne.
Deux études de cas assez complètes de l’agence SocialMedia8 (2009) et de l’agence de relations
publiques Eldelman et Krempasky (2009) retracent la stratégie mise en place par l’équipe d’Obama.
Elles incitent les professionnels du marketing à s’en inspirer pour réaliser des campagnes plus
innovantes, interactives et efficaces, indiquent Girard et Fallery (2009). Le rapport de la mission
Terranova (accessible en ligne) réalisée en France est aussi instructif.
Nous nous arrêterons ici sur le bilan synthétique mais précis de cette campagne dressé par
Heinderyckx (2011). Elle ne constitue pas selon lui une quelconque virtualisation de la campagne
électorale, mais bien une utilisation intelligente et très efficace d’un ensemble de TIC au service de
modalités très traditionnelles de campagne. Le Web, les réseaux sociaux et les téléphones portables
se sont révélés d’une efficacité inédite dans un champ d’actions stratégiques en direction de cinq
axes : recruter des militants, les motiver, les informer, les organiser et récolter des fonds, explique-t-
il. Les médias ont en effet surtout commenté le recours à Facebook et à un réseau social dédié
(mybarackobama.com) ayant compté jusqu’à 2 millions de membres pour animer la campagne et en
particulier récolter des dons, un très grand nombre de petits dons (600 millions de dollars en tout),
illustrant à merveille l’intérêt de la « longue traîne » (cf. chapitre 1). Mais il faut aussi retenir le
rôle central des bases de données (chaque parti possédait des listes informant sur environ
200 millions d’individus), de l’e-mailing (1 milliard de messages envoyés à 13 millions d’adresses
mail), des vidéos et des SMS (5 à 20 messages envoyés chaque mois au million de correspondants
ayant enregistré leur numéro de téléphone mobile). Heinderyckx (2011) rappelle aussi que la plupart
des chiffres qui circulent à propos de la campagne d’Obama proviennent des organisateurs de la
campagne eux-mêmes et d’une interview accordée au Washington Post par Joe Rospars (New
Media Director de la campagne) en novembre 2008. En bref, les RSN ont avant tout été mobilisés
dans une optique de recrutement, d’animation, d’information, de collecte de fonds, avant qu’e-
mailing et SMS ne prennent le relais pour aboutir à une mobilisation « réelle » dans les rues
(80 000 réunions de quartiers), meetings et bureaux de vote (le site voteforchange.com a ainsi
permis de recevoir des informations personnalisées sur le sujet : où et comment voter en fonction de
son lieu de résidence et même et même de télécharger un formulaire d’inscription sur les listes
électorales).
L’engouement marketing pour les médias sociaux est incontestablement lié à la réussite de la campagne
d’Obama. Mais mobiliser les internautes pour faire la promotion d’une marque de produits de grande
consommation ne repose pas sur les mêmes ressorts que pour celle d’un candidat à la présidentielle tel
qu’Obama. Les expériences menées en France en marketing politique conduisent à des résultats contrastés
que le lancement peu remarqué des RSN du parti socialiste (La Coopol) et de l’UMP (Les Créateurs de
Possible) courant 2010 illustre bien. De plus, certains candidats peuvent constater qu’ils fédèrent parfois
au moins autant contre eux que pour eux.
La reprise du « modèle Obama » s’avère encore plus hasardeuse lorsque la démarche est appliquée aux
marques. Les utilisateurs de RSN paraissent effectivement indifférents aux démarches de ces dernières
sur ces espaces. Les jeunes utilisateurs déclarent, à quelques exceptions près, ne jamais avoir effectué de
démarche commerciale ou cherché de renseignements sur des produits par l’intermédiaire des réseaux
socionumériques. Ils soulignent qu’il existe d’autres plateformes pour cela (forums, sites officiels,
comparateurs, sites d’e-commerce ou de CtoC). Ils savent où se trouvent les encarts publicitaires et ne les
regardent pas. Pire, ils oublient très vite s’être inscrits sur des groupes ou pages de marque, les consultent
très rarement, n’y interviennent pas et n’ont le plus souvent jamais été directement sur la page mais se
sont inscrits par le biais du flux d’actualités en imitant leurs amis. Lorsque les démarches marketing se
font reconnaître, elles sont mal acceptées et perçues comme une intrusion dans leurs activités de
sociabilité. Enfin, la plupart ignorent que des espaces marchands, comme Facebook Marketplace, sont
accessibles.
Si ce bilan peut paraître assez sombre, on aurait tort de sous-estimer le potentiel des RSN pour le
marketing. Nous verrons dans la section 2 que de réelles opportunités existent pourtant à condition
d’adapter la démarche marketing aux pratiques des utilisateurs sur ces dispositifs.
3.6 Mashup
Le mashup n’est pas un dispositif spécifique mais un principe qui renvoie à l’assemblage de données
ou applications existantes afin de proposer de nouveaux services. Le terme est hérité du domaine musical
(le mashup consiste à associer au sein d’un nouveau morceau plusieurs morceaux préexistants). Appliqué
au cas des médias sociaux, un mashup est une application ou un service combinant du contenu ou du
service provenant de plusieurs applications ou sites. Ces applications utilisent les services Web ou les
flux RSS que les autres sites mettent à leur disposition.
Les mashups proposant des services de géolocalisation sont les plus connus, il existe pourtant bien
d’autres applications et services pour l’e-commerce (Mercanti-Guérin, 2013). L’API Google Maps est
l’exemple typique : elle fournit des services permettant à d’autres sites de pouvoir intégrer la recherche
des cartes dans leurs pages. Des sites d’e-commerce, comme Amazon ou PriceMinister, fournissent
également à des sites externes le moyen d’interroger leur catalogue de produits et d’utiliser les résultats
dans leur site. Cette possibilité a donné naissance à des services de comparateurs de prix comme Kelkoo
ou Earlyminer qui puisent dans les différents catalogues des sites d’e-commerce pour afficher en un même
endroit les résultats pour un même produit.
REMARQ UE
Techniquement, un mashup est composé d’API (Application Program Interface). Les API sont des interfaces permettant d’appeler une
application à partir d’une autre (hybridation).
Les mashups sont donc issus des possibilités d’assemblage d’API. Les grandes sociétés comme Google, Yahho, Amazon, eBay ou
Facebook offrent librement leur API (on dit alors que l’API est ouverte), afin de devenir incontournable sur le marché (Mercanti-Guérin,
2013).
La cartographie retenue (cf. figure 2.4) permet d’identifier les types d’actions marketing selon les
contextes définis en termes de genre de participation et de visibilité.
Figure 2.4 Cartographie des médias socionumériques et des techniques marketing associées
Les chiffres de fréquentation particulièrement impressionnants des médias socionumériques ne doivent
pas aveugler le marketeur : une affluence importante ne signifie pas nécessairement une audience
qualifiée pour une marque. Les opportunités marketing dépendent à la fois des caractéristiques
fonctionnelles des plateformes, mais aussi des motivations des participants, de leurs usages et de leurs
pratiques (cf. section 1). Toutes les marques n’ont pas vocation à exploiter le cadre très spécifique des
médias socionumériques. Il s’agit effectivement de s’insérer dans un univers participatif où les
consommateurs disposent au moins autant que les marques du droit d’expression. Le choix de s’exprimer
sur les médias socionumériques doit donc correspondre à l’image que souhaite défendre la marque.
L’Oréal a développé une typologie de ses marques afin d’évaluer leur propension à engager le dialogue
avec leurs consommateurs. Elle les distingue sur un axe allant de la marque conversationnelle à la marque
d’autorité. Dans le premier cas, la recherche d’interactions avec les consommateurs et l’encouragement à
co-construire la communication et l’offre apparaissent cohérents. Les médias socionumériques peuvent
donc être envisagés au sein d’une démarche de communication plurimédia (multicanal) privilégiant la
connivence, l’événementiel, les occasions de rencontres entre représentants de la marque et
consommateurs. À l’opposé de cet axe, les marques d’autorité représentent davantage des modèles
destinés à provoquer le désir et l’aspiration à s’identifier aux attitudes, valeurs et esthétiques qu’elles
proposent. Elles exigent une certaine hauteur et se prêtent donc moins à la participation en ligne, toujours
difficile à maîtriser. Dans le cas de L’Oréal, cette distinction permet de ne pas développer la même
stratégie pour la marque Garnier, plus proche de ses consommateurs (comme le signale par exemple le
tutoiement de son slogan « Prends soin de toi ») et donc plus encline à entamer une discussion avec ces
derniers, ou pour la marque L’Oréal Paris, garante d’un niveau d’expertise qui la distingue.
Le marketing peut exploiter les médias socionumériques et le Web participatif sous plusieurs angles :
pour informer et communiquer auprès de larges audiences ou au contraire de cibles très précises ;
pour tenter d’exploiter la participation des internautes dans une logique de marketing participatif,
voire de co-conception ;
pour suivre et étudier les discours des internautes en matière de marque et de consommation ;
pour gérer les interactions avec les consommateurs (questions, commentaires, réclamations, retours
d’expérience etc.) dans une perspective désormais qualifiée de social CRM.
Quel que soit l’angle retenu, la définition d’indicateurs pertinents pour évaluer l’efficacité de ces
différentes actions marketing est indispensable.
Cas d’entreprise
Breizh-banque.com – Communiquer sur les médias socionumériques
Dans le monde participatif et surchargé d’informations des médias socionumériques, communiquer
consiste déjà à dépasser le seuil de la visibilité. Pour cela, les plans de communication cherchent à
exploiter plusieurs plateformes simultanément. La plupart des campagnes ambitieuses ont su jouer sur
la complémentarité entre un site propriétaire et un panel de plateformes où faire connaître la
campagne et générer du trafic.
Le Crédit Agricole a suivi cette démarche en se focalisant sur sa clientèle bretonne. Le cœur de son
dispositif est constitué par un site dédié, Breizh-banque.com, lancé fin 2009. Développé initialement
en 3D, ce qui lui a valu une visibilité propre au régime du style parmi les médias spécialisés dans la
communication, il se veut espace communautaire régional tout autant qu’espace bancaire,
particulièrement destiné aux Bretons résidant hors Bretagne. Ainsi, des visioconférences sont
proposées avec les conseillers bancaires, mais la plus grande partie du site est consacrée à
l’information locale. Les espaces communautaires sont dédiés aux discussions autour du
développement économique et culturel de la Bretagne. On peut s’inscrire en créant un profil qui
donne accès à des offres spéciales, ouvre les forums de discussion et blogs et permet même d’avoir
accès à des petites annonces. Les membres sont particulièrement impliqués puisqu’ils peuvent aussi
donner leur avis sur les produits bancaires. Une offre adaptée aux expatriés bancaires est même née
de leurs réclamations. Le Crédit Agricole ambitionne de développer de nouveaux produits d’épargne
en lien avec la région. Pour mieux faire connaître ce site communautaire, la banque a aussi créé une
page et un profil Facebook, diffusé des publicités sur YouTube, développé un programme de
sponsoring d’événements bretons et prévu des relations publiques lui permettant une grande visibilité
lors de son lancement.
Source : http://cbWebletter.fr/2010/02/15/breizh-banque-innove-entre-3-d-et-communaute-
regionale
Focus 2.8
Des fans de marques sur Facebook ?
L’étude exploratoire1 menée par Helme-Guizon et Magboni (2013) propose les bases d’une
typologie de fans de marque sur Facebook. Envisagée sous l’angle de la relation à la marque et du
sentiment d’appartenance à une communauté, elle distingue cinq types de « fans » :
le fan passif ;
le fan délaissé ;
le fan intéressé ;
le fan fun ;
le fan modèle.
Si le fan modèle est le plus recherché par les marques (tous les indicateurs sont au vert : sentiment
d’appartenance à la communauté, engagement vis-à-vis de la marque, amour/passion envers la
marque, etc.), le fan passif est le plus représenté.
Enfin, les applications développées par les marques ou incluant des marques sont rarement reconnues
comme telles mais assimilées à des jeux en ligne (par exemple invitation à l’apéritif entre amis, envoi
d’un pot de pâte à tartiner, d’une paire de baskets, d’un téléphone mobile). À ce titre, le publicitaire
Franck Tapiro souligne que beaucoup de marques développent un jeu ou une application ludique sans se
signaler. L’intérêt est double : placer discrètement ses produits dans des jeux sans que ceci soit assimilé à
une publicité, et accéder à des informations contenues dans les profils (car l’installation d’une
application, sur Facebook par exemple, permet le recueil de données personnelles par l’auteur de
l’application). Outre la question éthique posée par ces pratiques, rappelons le risque pris par les marques
dans le cadre d’une prise de conscience de plus en plus grande des internautes de leur profilage. S’ils ont
une attitude ambivalente à l’égard de leurs données personnelles (se déclarant soucieux mais s’opposant
rarement à les publier et restant relativement indifférents à leur exploitation marketing), les réactions
d’hostilité face à une démarche perçue comme manipulatoire peuvent se révéler dramatiques pour une
image de marque. Par ailleurs, ils entretiennent un rapport aux exploitations marketing de leurs traces de
plus en plus réfléchi : leur acceptation de l’exploitation se fonde à la fois sur la justification de celle-ci
pour augmenter la qualité du service et sur l’intérêt perçu du service proposé (Lancelot-Miltgen, 2011).
Briser les mises en page habituelles des écrans consultés et encourager les internautes à se faire les
diffuseurs des campagnes constituent deux stratégies permettant de casser les routines d’évitement de la
publicité des consommateurs. Virgin Radio a relayé sa campagne d’affichage sur Facebook en proposant
à ses auditeurs et fans d’afficher leur publicité en photo de profil. À la clé, 5 000 euros à gagner pour l’un
des participants. La campagne a permis à Virgin Radio de multiplier par 10 le nombre de « fans ».
Lancôme propose pour sa part de déposer sa déclaration d’amour sur le love wall de son site dédié au
lancement de son parfum Trésor in Love. Cette démarche de marketing participatif vient s’ajouter au
contenu du site produit par la marque (vidéos tournées par le réalisateur du spot vidéo et diffusées
exclusivement en ligne). Il demeure évident que la grande majorité des destinataires de ces dispositifs ne
participeront pas, mais dans une perspective de visibilité de contenus publicitaires, le fait qu’ils soient
relayés, même par une minorité d’internautes, constitue un moyen de diffuser davantage le contenu et de
passer outre les routines d’évitement des zones usuellement réservées à la publicité.
Focus 2.9
Des publicités avec des fonctionnalités de partage ?
Yahoo! propose un service de partage des publicités en ligne. Cette décision fait suite à une vaste
étude menée en 2009 auprès de 1 062 internautes de 16 ans et plus et qui met en lumière que seules
22 marques sur les 1 039 annonçant sont mémorisées par les internautes. De même, si 71 % des
enquêtés déclarent avoir cherché à retrouver une publicité sur Internet, seulement 59 % d’entre eux
ont réussi.
L’enquête (qui combine focus groups, carnet d’écoute publicitaire, étude en ligne, journal vidéo) met
en lumière les attentes des internautes à l’égard des dispositifs en ligne, notamment en matière
d’aide-mémoire. Ainsi, 72 % des enquêtés déclarent ne pas faire confiance à leur mémoire. 73 %
font appel à une mémoire digitale au quotidien (ordinateur, assistant personnel, téléphone portable)
et ces chiffres augmentent avec les plus jeunes générations (89 % des 16-24 ans). Face à cela, les
internautes regrettent de ne pas trouver les mêmes fonctions de partage sur les publicités que celles
qu’ils trouvent sur les sites de partage de vidéos. Yahoo a donc testé plusieurs solutions, dont un
widget de stockage qui s’est cependant avéré trop compliqué à l’usage. Début février 2010, la
plateforme a équipé ses publicités de barres de partage similaires à celles de YouTube et
Dailymotion.
2 Accompagner la participation
Les marques sont de plus en plus conscientes qu’elles doivent engager de nouvelles relations avec les
clients et être davantage à l’écoute de leurs points de vue. L’ouvrage Groundswell de Li et Bernhoff
(2008), de Forrester Research, illustre quelques bonnes pratiques issues d’études de cas Web 2.0. Elles
renvoient essentiellement au bon sens et à des principes connus (s’interroger sur la volonté des clients de
participer, définir ses objectifs, choisir la bonne technologie). En bref, il s’agit de mettre en place une
écoute et un dialogue réels. L’honnêteté de la relation construite en ligne est primordiale. Dans le cas
contraire, les conséquences pourraient être lourdes. Alors que la presse comme les agences focalisent
leurs discours sur les opportunités marketing, insistons sur la conscience que doivent avoir les
professionnels du marketing des risques que comporte leur démarche de management ou tout du moins
d’influence sur le bouche-à-oreille en ligne.
Dans ce nouvel environnement que constituent les médias socionumériques, il serait d’ailleurs
dommageable de se focaliser sur les seuls exemples de succès. Outre le danger de l’effet loupe masquant
que la plupart des actions ne sont pas des réussites franches, il y a aussi beaucoup à apprendre des échecs
et des difficultés rencontrés par les marques. Ainsi de l’exemple connu de L’Oréal avec sa marque Vichy
et le blog Le journal de ma peau (2005) (cf. cas d’entreprise ci-avant). Les complaint sites (sites de
contestation) sont d’ailleurs apparus bien plus vite que les opportunités marketing et de manière plus
virulente. La facilité avec laquelle l’internaute peut désormais s’exprimer rend d’autant plus fréquentes et
inventives ces réactions hostiles à la marque telle que l’exploitation des données ouvertes pour fournir un
compteur des années de retard accumulées par les trains de la SNCF[2].
Le cas de Nestlé et de l’attaque menée en mars 2010 par Greenpeace (cf. cas d’entreprise ci-après)
convaincra ceux qui douteraient encore des risques associés à une présence sur les médias
socionumériques sans réelle conscience des enjeux et des codes. La stratégie de Greenpeace a été
d’autant plus efficace qu’elle ne s’est pas limitée à une plateforme mais a utilisé une variété de médias
socionumériques (YouTube, Twitter, Facebook), de blogs et sites dédiés, d’outils de communication
(logos détournés, clips vidéo, lettres à envoyer à Nestlé, etc.) et qu’elle a ensuite été relayée par les
médias traditionnels (CNN) et par les internautes eux-mêmes, condition sine qua non du Web participatif.
De plus, elle cible à la fois les fournisseurs de Nestlé et ses consommateurs. Les réactions de Nestlé suite
à cette crise permettent aussi de mieux comprendre l’investissement nécessaire pour envisager une
présence durable sur les médias socionumériques.
Cas d’entreprise
Nestlé face à Greenpeace
En mars 2010, Greenpeace met en ligne un premier article et surtout un clip vidéo parodiant une
publicité Kit-Kat, propriété de la marque Nestlé (la barre chocolatée est remplacée par un doigt
d’orang-outan). Un site dédié prend le relais et dénonce les agissements de Nestlé en Indonésie (sa
sélection de fournisseurs d’huile de palme). Une multitude de sites régionaux destinés à permettre aux
activistes de porter leurs actions localement l’accompagne. Enfin, du « matériel de campagne » est
mis en ligne sur le blog de Greenpeace : logos détournés, clips vidéo, lettres type à envoyer aux
représentants de Nestlé, etc. Ce blog joue le rôle de quartier général des attaques, relayé par Twitter,
dont la page a été rhabillée pour l’occasion. Le 17 mars, la guérilla est lancée et les tweets sur
Nestlé fourmillent.
La réponse de Nestlé est d’abord juridique. Nestlé tente de faire retirer la vidéo des sites comme
YouTube au motif qu’elle porte atteinte à sa propriété intellectuelle (emploi du logo). Conséquence :
les protestations jusqu’ici limitées aux blogs militants se multiplient sur la Toile et l’information est
même reprise dans certains médias comme CNN. Les internautes se retrouvent sur la page Facebook
de Nestlé pour clamer leur mécontentement et utiliser les outils de guérilla conçus par Greenpeace
(logos détournés en particulier – Killer Kat, Nestlé Killer, etc.). La participation devient populaire,
massive.
La gestion de cette crise sur la page Facebook par Nestlé correspond presque en tout point à ce qu’il
faut éviter de faire dans la culture des médias socionumériques : discours autoritaire, menaçant et
condescendant, refus de dialoguer avec les internautes, puis censure des commentaires négatifs à
l’encontre de la marque. Mais comment lutter face au nombre d’internautes mobilisés ? La page sera
finalement abandonnée quelques jours par le community manager d’alors, avant que celui-ci ne
s’excuse puis ne disparaisse. Il y avait pourtant des solutions, des réponses à apporter, à la fois
techniques (l’ouverture de la page Facebook sur le mur aurait pu être reparamétrée) et surtout en
termes de communication, de relation avec les internautes : de management de la participation en
ligne. Il faut aussi ajouter que la cause de cette attaque par Greenpeace aurait pu être traitée à la base
par Nestlé, qui aurait ainsi évité cette crise.
Deux ans plus tard, Nestlé dévoile les résultats de la profonde remise en question de son organisation
provoquée par cette crise. Ils se traduisent par la mise en place d’une équipe dédiée, la « digital
acceleration team ». Elle se compose de quinze personnes dédiées à la gestion de la réputation des
marques du groupe sur les médias socionumériques. Elle dispose de 12 % du budget marketing de la
marque (pour gérer pas moins de 800 pages sur Facebook), emploie des outils de veille avancés,
dispose d’une autonomie de réponse aux échanges initiés sur ces espaces et même d’un studio
audiovisuel dédié pour réaliser des contenus de qualité dans des délais compatibles avec la
temporalité très courte des médias socionumériques. Elle emploie d’ailleurs les tons et tactiques de
ses détracteurs (buzz, behind the scene, etc.). Cette équipe est aussi composée « d’évangélistes »
chargés de former les directions nationales lors de séminaires ou de séjours plus longs au siège de
Nestlé, afin que celles-ci diffusent ensuite la culture des médias socionumériques au sein de la
société. Cette organisation renouvelée repose sur un travail de deux ans de compréhension des
médias socionumériques. Il s’est fondé sur l’achat et la gestion du site Petfinder pour expérimenter
leur culture. Des partenariats auprès des acteurs des médias socionumériques (rendus visibles
notamment par le nom « Kitkat » donné par Google à l’une de ses versions d’Android) ont aussi été
lancés via l’ouverture d’un incubateur de Nestlé au sein de la Silicon Valley et par l’accueil de
représentants de ces grands acteurs au sein de la digital acceleration team.
Source : Fabrice Epelboin, « Nestlé se met aux réseaux sociaux pour mieux se défendre », 2013,
site Internet de la Tribune de Genève.
Focus 2.10
Community manager et social media management
La fonction de community manager, ou animateur de communauté, fait partie de celles tirant profit
de l’engouement pour les médias socionumériques. Ce « nouveau » métier doit sa popularité à la
multiplication des occasions de contacts avec les consommateurs. Il emprunte cependant à beaucoup
de fonctions plus « anciennes » trouvées dans le marketing, mais aussi dans la communication ou
dans le management. Les marques n’ont effectivement pas attendu l’avènement d’Internet pour se
rendre compte de l’existence de communautés de consommateurs. Les bikers, basketteurs, skateurs,
photographes, rockers, rappeurs sont étudiés et contactés depuis longtemps par les marques, comme
le marché des baskets l’illustre bien (voir à ce titre le documentaire Sneakers : le culte des baskets
de Lisa Leone et Thibaut de Longeville).
La structuration du métier s’effectue autour d’une tension entre deux visions de ce qu’il devrait être :
une première le voit comme une nouvelle fonction marketing focalisée sur la diffusion et la
valorisation des messages de la marque sur les médias socionumériques. Ce n’est alors pas tant la
communauté mais la marque qu’il s’agit de piloter et valoriser sur ces nouveaux vecteurs. On parle
alors plus souvent de social media manager. D’autres insistent sur son rôle dans l’établissement
d’une relation avec ses consommateurs. Ils voient ce métier comme une première étape permettant
de sortir d’une vision unidirectionnelle et transactionnelle des liens entre une marque et ses publics.
Si les praticiens en poste se reconnaissent davantage dans la seconde perspective, les recherches
menées sur le community management, portant pour l’instant majoritairement sur les perceptions et
attentes des entreprises à son égard, soulignent que les directions marketing comprennent davantage
la première (Robson, Sutherland, 2012 ; Wolf, Archer, 2012). Rappelons cependant le risque déjà
amplement souligné dans ce chapitre de prendre les médias socionumériques comme de simples
vecteurs de diffusion de contenus pour les marques.
Une autre question récurrente consiste à interroger le type de collectif auquel s’adresse le
community manager. Nombreux sont les praticiens et les analystes soulevant que le qualificatif de
communauté est trompeur. Les précautions soulevées à l’égard de l’emploi de la notion de
communauté de marque s’avèrent ici aussi essentielles. En effet, les community managers
s’adressent dans les faits à des collectifs variés où il s’avère toujours nécessaire de comprendre
quel type de lien est envisageable entre la marque et ses consommateurs. De cette compréhension
découlera le choix des actions que peut mener le community manager, s’étendant d’une simple
veille silencieuse à un rôle central d’animation.
Le métier de community manager est encore loin de s’être stabilisé autour de fonctions claires. On
peut cependant repérer quelques tâches récurrentes autour de cinq pôles : l’animation, la veille, la
création de contenu, la modération et la gestion de la réputation en ligne.
L’animation consiste repérer et/ou fédérer des communautés autour de sujets intéressant la marque
(marque elle-même mais aussi produits ou domaines de consommation, voire thèmes et valeurs). Le
rôle du community manager est alors d’initier et/ou encourager les échanges entre consommateurs,
de fixer le cas échéant des objectifs aux échanges (partage d’avis ou d’expériences, test de produit,
brainstorming de créativité)
La création de contenu concerne le développement de la visibilité de la marque en relayant ses
messages ou plus souvent en créant du contenu inédit adapté aux tendances et buzz du moment.
La veille revient à mettre en place un système de repérage des contenus évoquant la marque et ses
offres. Elle comporte une dimension réactive de réponse aux questions et critiques formulées à
propos de la marque.
La modération revient plus classiquement à contrôler le respect des règles de bonne conduite
(netiquette) sur les espaces d’échange gérés par la marque (page sur les réseaux socionumériques,
forums, etc.).
La gestion de la réputation en ligne est exercée à travers plusieurs activités (suppression de contenu,
réponse aux réclamations, gestion de crise – dans les cas extrêmes…). Elle s’organise à partir d’un
travail de veille indispensable (cf. Castellano et Dutot, 2013 ; Alloing, 2013 ; Stenger, 2014).
En synthèse, le community manager cherche à développer la notoriété d’une marque, développer
une relation personnalisée avec les consommateurs de celle-ci, structurer ces consommateurs en
communautés pérennes et dynamiques. Pour cela, il dispose des divers moyens disponibles sur les
médias socionumériques : jeux, concours, campagnes multimédias virales, lancement de discussions
synchrones ou asynchrones (Twitter, forums, pages, chat, mondes virtuels, MMORPG, réseaux
socionumériques, etc.).
Outre des compétences en marketing classique, notamment en ce qui concerne la gestion de marque,
le community manager doit disposer d’une solide culture de l’Internet. Celle-ci passe par la
connaissance des codes et normes d’usage sur les différentes plateformes (netiquette) mais aussi par
la compréhension des motivations des internautes. Des compétences techniques, bien que non
indispensables, sont bienvenues pour mieux appréhender l’éventail des actions envisageables sur
ces espaces en ligne. De fortes qualités relationnelles sont indispensables : le community manager
doit être capable d’identifier la manière dont la marque peut entrer en contact avec les différents
groupes trouvés sur Internet. Ces regroupements sont le plus souvent spontanés et peuvent voir d’un
mauvais œil l’intrusion d’une marque, même appréciée, dans un espace qu’ils considèrent comme le
leur. De la même manière, le community manager se trouve régulièrement confronté à la parole
libre des consommateurs, qui peuvent se révéler très critiques. Il se doit alors de défendre la marque
sans que son discours soit perçu comme trop officiel ou autoritaire (voir le cas Nestlé). Il se doit
enfin d’être organisé, les médias socionumériques regroupant une masse phénoménale de données et
d’espaces de discussion à prendre en compte (cf. Stenger et Coutant, 2011) pour une analyse
approfondie du métier de community manager et des pratiques de community management ainsi
que les descriptions des métiers et témoignages inclus dans les enquêtes annuelles menées par les
praticiens.
Les community managers peuvent exercer au sein de l’organisation ou en agence. Le premier cas est
désormais le plus fréquent et le plus recommandé tant les activités menées nécessitent une bonne
connaissance de l’organisation pour laquelle ils exercent et de ses offres. Les agences conservent un
rôle de formation à destination des entreprises et de service externalisé pour les petites et moyennes
structures. Des sociétés plus spécialisées dans l’e-réputation proposent aussi d’externaliser au
moins en partie la tâche de veille.
Enfin, une nouvelle activité hybride semble émerger, timidement, sur les médias socionumériques :
celle de la gestion de la relation client. Le projet de social CRM (Greenberg, 2009, 2010) est toutefois
complexe à mener. À la frontière du marketing, de la gestion de la relation client (GRC) et de la
communication numérique, il incombe parfois au community manager (ou social media manager) mais
peut aussi relever d’une extension de l’activité des équipes de GRC. Le social CRM[4] tente de répondre
à une problématique complexe. Si, comme nous l’avons déjà souligné, les médias socionumériques ne
sont pas perçus comme des espaces de vente en ligne, des publications récentes indiquent que les
consommateurs attendent davantage d’interactions avec les marques sur les médias sociaux et regrettent
que les entreprises ne s’engagent pas davantage dans ce sens (Hennig-Thurau et al., 2010 ; Trainor 2012),
notamment en France (Dutot 2013).
Focus 2.11
Exploiter la prescription ordinaire
Le site Socialmedia.com a provoqué de vives polémiques en 2010 en proposant une offre exploitant
directement les traces d’activités des internautes : il répertoriait et permettait de sélectionner les
critiques positives émises sur un produit par un utilisateur de Facebook, puis de les délivrer sous
forme de publicité, avec la photo de la personne qui a posté le commentaire, aux amis de cette
personne. Le site garantissait ainsi de recruter de nombreuses personnes non intéressées par une
publicité en jouant sur la pression sociale des amis. Le site ne rétribuait pas les internautes afin de
ne pas biaiser les commentaires. Il ne demandait pas non plus la permission aux personnes pour
employer leurs déclarations. Selon le fondateur, Seth Goldstein, ces dernières accepteraient de
participer malgré tout « parce qu’elles veulent partager l’info. Faire de la publicité avec leurs avis
fait grandir leur influence ». Cette offre a provoqué de nombreux remous dans le monde du marketing
(voir les réactions de Loïc le Meur ou les éditoriaux de la CB Webletter), gêné par cette démarche
très intrusive et par les enjeux déontologiques qu’elle soulève. Georges-Edouard Dias, directeur de
l’interactif chez L’Oréal, déclarait ainsi : « ce qui m’ennuie dans le dispositif de Socialmedia.com,
c’est qu’on ne demande pas l’avis de l’utilisateur final ». Le site a depuis fermé, mais l’idée n’a pas
pour autant été abandonnée et, après la tentative avortée de Facebook, Google se réservent le droit
d’employer des éléments des profils de leurs utilisateurs dans le cadre de campagne de promotion.
L’inscription des marques dans un système de prescription ordinaire généralisé constitue
vraisemblablement le moyen le plus efficace d’émerger parmi l’ensemble des activités en ligne. Les
marques et les activités de consommation peuvent ainsi se retrouver prescrites « par ses amis ». Les
marques doivent cependant demeurer conscientes qu’elles ne contrôlent alors plus les discours les
concernant, ni même les manières de s’approprier les dispositifs qu’elles proposent, comme l’illustre la
campagne Axe pour le gel douche Dark Temptation (cf. cas d’entreprise ci-après).
Cas d’entreprise
Accompagner la participation : le cas de Dark Temptation
La marque Axe a connu en 2008 un grand succès lors du lancement de son nouveau gel douche « Dark
Temptation ». La campagne plurimédia a mobilisé un important dispositif, particulièrement autour
d’un concours organisé sur le site Skyrock. Le concours est annoncé par une campagne de relations
presse auprès de bloggeurs influents invités à visiter le site Mangeusesdhommes.com, par un teasing
sur la radio Skyrock, où de mystérieuses « mangeuses d’hommes » annonçaient leur arrivée et par
deux vidéos virales diffusées sur Internet et renvoyant vers le site.
Le dispositif du concours « Alex croqueuse d’hommes » comportait un site Web qui diffusait la
publicité associée à la campagne « l’homme chocolat », des recettes de cuisine pour cuisiner son
« homme chocolat », une WebTV et surtout le lien vers le jeu concours renvoyant à la page Skyrock
de la marque. Sur cette dernière, tout membre de Skyrock pouvait s’inscrire et tenter de se faire
croquer un maximum de fois pendant la durée de l’opération. Les participants voyaient alors leur
page de profil habillée aux couleurs d’Axe Dark Temptation et pouvaient envoyer une vidéo à
diffuser sur la WebTV. Les filles étaient de leur côté invitées à voter pour les profils les plus
« croquables ». Un compteur affichait le nombre de crocs obtenus par le profil et des outils viraux
permettaient d’inviter ses amis à participer et voter.
La page officielle comptabilisait pour sa part le nombre de croqueuses d’hommes inscrites,
d’hommes croqués, le nombre total de crocs effectués et les profils les plus croqués. La
réappropriation du dispositif par les utilisateurs a bien eu lieu : les échanges sur la page de la
marque consistaient essentiellement à demander le numéro de téléphone du mannequin employé dans
la campagne ou à proposer son numéro en invitant… toute personne intéressée à appeler. Cependant,
cette campagne a généré un trafic important ainsi que de nouvelles inscriptions sur Skyrock. Elle est
considérée comme un véritable succès. Interviewé par Stratégie Magazine en juin 2008, Ali
Kashani, brand manager d’Axe, est dithyrambique. Selon lui, cette campagne constitue le plus beau
lancement de l’histoire d’Axe, et l’un des plus innovants : « Par son ampleur et ses moyens, le
concept était avant-gardiste. Nous avons mis en place un dispositif de masse, soutenu par une
campagne TV, mais centré sur Internet et en forte affinité avec notre cible. Les jeunes vivaient une
expérience surprenante et valorisante car ils pouvaient interagir avec les contenus mis à leur
disposition : 450 000 films ont été vus en ligne et 62 000 internautes se sont inscrits sur la plateforme
communautaire. En favorisant le buzz, Axe a réussi à entrer dans leurs conversations. L’intégration a
été très poussée en entrant à l’intérieur des pages personnelles des internautes inscrits sur Skyblog et
en animant le concept dans le temps […]. Dark Temptation s’est vendu deux fois plus que son
prédécesseur Axe Vice, et est rapidement devenu la première vente d’Axe, mais aussi du marché des
déodorants, hommes et femmes confondus ».
Campagne virale Burger King « Angry Whopper »
La chaîne de restauration rapide Burger King a décidé de tirer parti des polémiques autour de ce que
sont réellement les « amis » sur Facebook. Elle a donc créé uneapplication dans le cadre du
lancement de son nouveau sandwich, le « Angry Whopper ». Les participants se voient proposer
d’obtenir un bon pour un sandwich gratuit en l’échange du sacrifice de 10 amis. Ces derniers sont
prévenus par une notification indiquant qu’ils ont été radiés de la liste d’amis du participant en
échange d’un Angry Whopper gratuit. Ils se voient alors proposer d’en faire autant. L’application
« Whopper Sacrifice » titre avec humour « You like your friends, but you love the Whopper »
(« Vous aimez vos amis, mais vous adorez le Whopper »). La page Facebook de Burger King tient le
décompte des personnes ainsi supprimées des listes d’amis.
Pour le vice-président du département marketing de Burger King, Brian Gies, il s’agissait de jouer
avec la course à la popularité, pratique bien connue de certains utilisateurs de Facebook.
La campagne s’est déroulée en 2008, mais on trouve encore aujourd’hui la page de l’application
indiquant : « Facebook has disabled Whopper Sacrifice after your love for the Whopper Sandwich
proved to be stronger than 233 906 friendships » (Facebook a mis Whopper Sacrifice hors de
service après que votre amour pour le Sandwich Whopper s’est avéré être plus fort que 233 906
amitiés). Le chiffre peut paraître très important. Il doit cependant être divisé par 10 pour obtenir le
nombre de participants effectifs. Il n’y a donc pas eu plus de 24 000 participants à cette campagne.
Compte tenu de l’audience potentielle (Facebook comptait alors plus de 250 millions de profils
actifs) et de la popularité de la marque, cette démarche pourrait être perçue comme un demi-succès.
Il faut ajouter cependant tout le traitement médiatique dont a bénéficié Burger King pour avoir su se
fondre dans la culture de cette populaire plateforme et le gain d’image auprès de ses consommateurs,
dont certains se sont mobilisés contre Facebook pour demander la réouverture de l’application.
Le système de prescription généralisée s’est même étoffé depuis 2010 avec des outils situés à travers
l’ensemble du Web (i. e. hors plateforme socionumérique). Symboles de l’hégémonie des médias
socionumériques, d’anodins boutons « j’aime », « tweet this », « share » « add this » permettent depuis
de très nombreux sites Web, de partager et rediffuser des liens, vidéos, articles ainsi que des fiches de
produits, des sites marchands, etc. auprès de ses amis, contacts, etc. Google et Facebook, grâce à l’outil
Open Graph, ont popularisé cet outil qui offre la possibilité d’installer des boutons de la plateforme sur
des sites extérieurs partenaires. Les internautes peuvent ainsi poster sur leur profil des contenus, des
commentaires depuis des sites externes, favorisant d’autant plus la prescription en ligne au quotidien.
L’enjeu marketing est double : il s’agit non seulement de favoriser les relais prescriptifs mais aussi de
collecter un maximum de données sur les pratiques de consommation des internautes et potentiellement
d’établir une cartographie des activités d’un utilisateur sur l’ensemble du Web. Cette stratégie clairement
planifiée par Facebook est annoncée très officiellement le 21 avril 2010 par Mark Zuckerberg lors de la
conférence annuelle (cf. Stenger 2011). Elle est depuis devenue l’enjeu des grands acteurs de l’Internet
qui cherchent tous à mettre en place un écosystème, souvent qualifié de « silo », encadrant toutes les
activités en ligne de l’internaute afin de pouvoir mieux prévoir ses attentes mais aussi exploiter le
potentiel prescriptif de ses activités auprès des membres de son graphe de connexions.
Focus 2.12
La mise en place d’une veille
Les services proposant d’agréger des flux, de répertorier les nouveaux contenus ou mettant en avant
la curation de contenus effectuée par des professionnels reconnus du domaine sont très nombreux.
Beaucoup d’entre eux ne survivent que le temps de quelques tentatives de levées de fonds et se font
remplacer aussi vite par de nombreux prétendants. Dans ce contexte, il est moins utile de connaître
un service que de comprendre les enjeux à aborder pour mettre en place une veille efficace.
Une démarche de veille se compose de deux facettes : la première consiste à repérer l’information
pertinente et la seconde à diffuser les résultats de cette veille auprès d’un public concerne (en
interne ou en externe selon les cas).
Le repérage de l’information passe par plusieurs phases. Il convient dans un premier temps de
collecter des contenus à travers des sources pertinentes. Plusieurs consultations des sources sont
possibles et permettent d’organiser les outils de regroupement des sources :
systématique, lorsque la source est une référence de notre domaine, comme par exemple
l’International Advertising Bureau pour les agences conseils en communication. Tout contenu sera
alors à consulter ;
attention sélective, lorsque la source produit des contenus diversifiés dont seuls certains nous
intéressent, comme un blogger renommé partageant certaines de vos tâches. Les contenus pourront
alors être survolés et approfondis uniquement lorsque le sujet le justifie ;
sérendipité, lorsque la source est choisie non pas pour la proximité des thématiques mais pour les
façons différentes d’aborder un sujet qu’elle pourrait vous faire entrevoir, comme un artiste ou un
penseur iconoclaste. Les contenus sont alors consultés avec une attention minimale, pas
nécessairement fréquente.
La deuxième phase consiste à trier et classer les contenus collectés. L’enjeu est alors de conserver et
de rendre réexploitables ces contenus. Beaucoup de démarches de veille sont peu efficaces car si
elles permettent d’accumuler des informations, rien n’est mis en place pour faciliter leur utilisation
future. Le tri consiste à répartir les contenus par catégorie (dossiers, tags, descriptions, etc.). Le
classement ajoute un ordre selon des critères définis (notes, étoiles, dates, auteurs, etc.). Il permet
ainsi de faire ressortir l’information en fonction des critères jugés les plus pertinents par le veilleur.
Des outils comme Diigo permettent d’effectuer cet archivage et ce classement des contenus d’une
veille et intègrent même des fonctionnalités de diffusion.
La dernière phase consiste à analyser les contenus. Une archive classable de contenus demeure
encore un matériau relativement brut que les publics du veilleur ne sauront pas nécessairement
exploiter. La dernière phase de repérage de l’information pertinente consiste alors à produire une
analyse synthétique exploitable par les publics. Des outils d’analyse classiques comme le SWOT, le
modèle de Porter ou le PESTEL sont alors mobilisables.
Reste alors à diffuser les résultats de sa veille auprès de ses publics. Il convient alors d’être attentif
aux attentes et contraintes de ces derniers pour choisir le mode de diffusion (newsletter, document
partagé, blog, support imprimé, etc.) et la fréquence de la diffusion (temps réel, quotidienne,
hebdomadaire, etc). Selon les cas, il peut aussi être pertinent d’envisager comment associer ces
publics à la veille (plateforme collaborative, bookmarks partagés, etc).
Source : Camille Alloing,
http://caddereputation.over-blog.com/
et Moinet, Deschamps, 2011.
Cas d’entreprise
Les enseignements de Ferrero
Ferrero constitue l’une des rares marques pouvant se targuer d’avoir très tôt réuni de nombreux fans
sur les médias socionumériques : plus de 22 millions en 2010. La page de Nutella réunit à elle seule
en 2013 plus de 17 millions de fans. Elle a pourtant envisagé avec beaucoup de précautions cette
opportunité pour qu’elle ne se convertisse pas en risque.
En 2010, Guillaume du Gardier, digital média manager Europe de l’Ouest et du Sud chez Ferrero,
insiste sur la chance qu’a la marque d’être autant citée (toutes les 3 minutes sur Twitter) dans des
conversations neutres ou positives à son égard. Malgré cela, il reconnaît que son travail consiste
pour l’instant uniquement à observer l’activité autour de leur marque : « le travail que nous faisons
consiste à suivre ces conversations pour observer où elles se déplacent et si les personnes qui
parlent de nous reflètent notre public. Il s’agit de voir où sont ces conversations, et de faire un lien
entre elles et le monde physique. Il s’agit de trouver un équilibre entre la présence officielle de la
marque et sa présence non officielle et de savoir comment jongler avec ».
Le choix de ne pas intervenir est dû à la fois à des contraintes culturelles et organisationnelles :
entamer le dialogue avec les internautes nécessite une équipe importante et de radicalement modifier
l’encadrement des prises de parole des représentants de la société, dont le système de validation des
interventions publiques ne convient pas à la vitesse avec laquelle il faut réagir sur les médias
socionumériques.
Guillaume du Gardier est conscient du peu d’exploitation de cet engouement des internautes par
Ferrero, mais sa démarche se veut prudente : face à la complexité de ces environnements encore en
mutation, son choix consiste à intégrer petit à petit ces espaces afin de ne proposer que des contenus
qualitatifs. La circulation de la marque au sein des médias socionumériques est donc perçue comme
une grande chance mais qui ne doit pas encourager à se ruer sur ces derniers sans réflexion
stratégique et préparation de l’entreprise. Cette démarche est sage : les internautes n’ont pas eu
besoin d’une stimulation de la marque pour l’évoquer, il paraît donc inutile, peut-être même contre-
productif, de venir le faire sans proposer une véritable valeur ajoutée.
Pour autant, la marque n’a pas renoncé à développer sa présence officielle : elle a créé sa page
officielle Kinder France sur Facebook où elle propose des informations de loisirs concernant les
familles. Elle a aussi développé une application iPhone, où le nom de la marque n’apparaît pas,
reprenant les thématiques de son site allezonbouge.net en proposant des idées de sorties en fonction
de la localisation de l’utilisateur. Mais le cœur de la stratégie Web de Ferrero demeure ses sites Web
(kinderchocolat.fr, lespetitscréatifs.fr et allezonbouge.net).
En 2013, la marque estime avoir suffisamment compris ces espaces pour adopter une démarche plus
active. Elle mobilise donc une équipe dédiée à sa présence sur les médias socionumériques avec un
positionnement unique : l’enthousiasme. Elle distingue deux cibles, les parents et les enfants,
auxquelles elle dédie des supports spécifiques : un Webzine pour les premiers et les pages pour les
enfants. Par ailleurs, sa ligne éditoriale précise affecte un rôle et un fonctionnement à chaque vecteur
employé :
Le Webzine diffuse des brèves en début de semaine, des bonnes idées et illustrations de
blogueuses pendant la semaine, et un zapping en fin de semaine, toujours sur la thématique de
l’enthousiasme.
La page Facebook encourage un « dialogue ouvert » encadré par les annonces d’événements, de
concours et la proposition de recettes, permettant le recrutement et l’engagement des internautes
via des actions valorisantes.
Le compte Twitter est dédié à la gestion des relations avec les leaders d’opinion et à la gestion
de la relation client.
Enfin, un site officiel (www.nutellaparlonsen.fr) et différents vecteurs top/down sont prévus en
renfort pour traiter des problématiques sensibles en renvoyant les polémiques pouvant émerger
sur les médias socionumériques vers ces espaces plus contrôlés et moins visibles.
Cette stratégie n’interdit évidemment pas des actions plus ponctuelles, comme celles ayant
accompagné les 50 ans de la marque Nutella où un site dédié (www.nutellastories.com) incitait les
internautes à partager leurs meilleures histoires à propos du produit et où un concours de
personnalisation de pot était relayé via Tumblr.
Source : CB Webletter : http://cbWebletter.fr/2010/02/01/comment-ferrero-observe-ses-22-
millions-de-fans/ et Blog du Modérateur
http://www.blogdumoderateur.com/community-management-nutella/
Les forums de discussion offrent un bon moyen d’étudier le bouche-à-oreille en ligne (word of mouse –
WOM). Des milliers de discussions concernant 44 séries télévisées au sein du site Usenet sont par
exemple étudiées par Godes et Mayzlin (2004). En appréciant le volume des discussions dans le temps
(lors de la diffusion des séries TV) et leur valence (positive, négative, mixte) mais aussi en exposant les
difficultés et les limites de ce type de démarche, ils montrent que ces conversations en ligne constituent un
moyen facile et surtout peu coûteux pour mesurer le WOM. Ils insistent sur le fait qu’un simple comptage
(sur un seul forum) ne suffit pas. Il faut surtout mesurer la dispersion des conversations à travers
l’ensemble des communautés virtuelles. Ils mettent aussi en garde, à juste titre, contre toute interprétation
hâtive concernant le sens de causalité entre le WOM et l’audience télévisée ou les ventes futures – une
des faiblesses de certaines recherches sur le WOM. Les origines du contenu du WOM (rôle de la presse,
de la publicité, des experts, etc.) et le rôle du bouche-à-oreille offline font partie des axes de recherche
complémentaires et indispensables (cf. chapitre 5, notamment Kozinets et al., 2010).
La profusion des données accessibles sur les médias socionumériques nécessite l’emploi d’outils
logiciels. Les logiciels d’analyse textuelle (et/ou sémantique) se focalisent sur les associations de mots
et/ou de sens au sein d’un espace donné (par exemple un profil, un forum, un blog) afin d’en déduire des
goûts et des liens entre thématiques ou les associations faites avec une marque. Le potentiel de ces outils
est considérable. Dans l’idéal, ils permettent une analyse combinant profondeur et représentativité. Ils
dépasseraient ainsi le clivage traditionnel entre méthodes qualitatives et quantitatives. Ils s’avèrent
efficaces à la fois pour repérer des signaux faibles ou des associations difficiles à faire émerger
autrement et pour tester des hypothèses (cf. Focus 2.13).
Focus 2.13
Analyser les profils Facebook avec le logiciel Tetralogie
Les logiciels d’analyse sémantique permettent de combiner quantité des données analysées et qualité
de l’analyse. En pratique, leur emploi passe par la création de dictionnaires adaptés à l’objet
d’étude afin de permettre une compréhension fine des contenus échangés. Ces derniers sont ensuite
analysés en tenant compte des contextes dans lesquels ils apparaissent. Ainsi, sur Facebook, les
éléments insérés dans les catégories citation, livres préférés, loisirs, statut, etc. peuvent se voir
attribuer des valeurs différentes (l’apparition du groupe nominal « match de foot » aura une
importance moindre s’il apparaît dans la rubrique statut que s’il apparaît dans la rubrique loisirs).
L’analyse prend aussi en compte la récurrence de certains mots (par exemple football) ou certaines
thématiques (par exemple le sport). Au final, le logiciel peut faire émerger de grandes thématiques
retrouvées sur un ou plusieurs profils et proposer une analyse plus fine de comment ces thématiques
sont évoquées. Le potentiel est donc extraordinaire. Cependant, l’utilisation de ces logiciels est
rendue difficile par le peu de respect qu’ont les utilisateurs des rubriques proposées par le site.
Une étude récente a comparé les résultats d’analyse de profils Facebook par un logiciel (Tétralogie,
voir Atlas. irit.fr) combinant analyse sémantique et analyse des réseaux sociaux, à une analyse
qualitative menée par observation et entretiens. Si le logiciel permet de faire émerger des
thématiques durables d’autres plus ponctuelles, l’étude conclut aux nombreux risques de
mésinterprétations. De nombreux biais sont dûs à l’usage très courant de l’ironie, de private joke et
de détournements des outils et rubriques par les utilisateurs (rubrique citation utilisée pour placer
des histoires drôles, liens familiaux servant à mettre en valeur ses amis, etc.). L’exploitation des
statuts, fonction de loin la plus utilisée, pose des problèmes complexes tant ils peuvent être utilisés
pour de nombreuses raisons et aborder diverses thématiques. Les résultats donnés par le logiciel
étaient donc souvent contredits par l’analyse qualitative du profil. On peut constater dans l’évolution
de Facebook une volonté de catégoriser ces contenus en distinguant liens, vidéos, photos et
événements organisés des statuts textuels. Ces modifications permettent de distinguer les contenus
facilement catégorisables des déclarations sur le quotidien des individus, fondamentales mais
encore peu interprétables autrement que par des méthodes qualitatives. Dans l’attente de l’adaptation
des outils et plateformes aux activités très particulières retrouvées sur les réseaux socionumériques,
l’analyse passera davantage par une approche qualitative des mécanismes de la prescription
ordinaire (cf. supra).
Source : Tchuente et al., 2011.
Toutefois, leur usage soulève des difficultés théoriques et méthodologiques encore importantes
(Mésengeau, 2012, 2014). La première concerne la constitution des corpus : quelle est la valeur d’une
analyse menée à partir de données récoltées exclusivement en ligne ? Les consommateurs agissent et
s’expriment sur de multiples supports en ligne comme hors ligne. Une utilisation raisonnée de ces outils
devra par conséquent passer par la comparaison de leurs résultats avec d’autres obtenus par des
méthodologies plus classiques (questionnaire, entretien, observation, etc.). Une autre limite concerne
l’accès aux données. Hormis quelques exceptions, une part non négligeable des informations contenues
sur les sites n’est pas accessible par des tiers. Cette absence d’exhaustivité fait peser de lourds biais sur
l’exploitation du matériau ainsi récupéré. Il convient alors de voir auprès des sites hébergeurs les offres
qu’ils proposent. Enfin, l’usage de ces outils impose un questionnement déontologique. Le marketeur ne
peut faire mine d’ignorer que les internautes fournissent naturellement des informations dans des
contextes éloignés de l’idée d’une exploitation marketing de leurs comportements.
Les sites relevant de la publication de soi, qu’ils soient focalisés sur l’amitié ou sur un intérêt précis,
sont les plus adaptés à un traitement logiciel. Les sites de réseautage et de rencontres se prêtent d’autant
plus facilement à ce traitement qu’ils regroupent les membres autour d’intérêts précis. Les entreprises
pourront donc choisir les sites correspondants à leurs marchés et être assurées que les données traitées
correspondent bien aux thématiques qu’elles veulent analyser.
Concernant les réseaux socionumériques, si le potentiel des outils d’analyse structurale des réseaux
sociaux et de textmining est important, leur utilisation est encore difficile à l’heure actuelle. La valeur à
accorder aux opinions exprimées dans les statuts ou aux liens noués avec des groupes et pages reste
problématique. Les deux pièges principaux sont le manque de représentativité et surtout l’absence de
contexte. Casteleyn et al. (2009) prennent l’exemple du groupe I bet I can find 1 000 000 people who
dislike Heineken qui peut aussi bien faire référence à des consommateurs n’appréciant pas la marque
qu’à d’autres ayant eu une expérience… trop passionnée et généreuse avec la marque la veille. Williams
(2008) interprétait pour sa part un statut de jeune « Run, Forrest, Run ! » comme une préférence affirmée
pour le film Forrest Gump alors qu’il s’agissait d’un surnom hérité de l’équipe de rugby de la jeune fille.
Ces enjeux de contextualisation constituent des biais faisant encore peser de lourds risques de
mésinterprétations sur les analyses se fondant uniquement sur l’exploitation des traces (Boyd, Crawford,
2012 ; Mésengeau, 2012, 2014).
EN CONCLUSION
Les médias socionumériques sont le territoire du buzz, de la viralité, des modes, mais aussi de
l’éphémère et de la concurrence dans la course à l’attention… Si les internautes s’échangent
avis et conseils, diffusent les contenus marketing qu’ils apprécient, initient occasionnellement
un dialogue avec certaines marques, ils les utilisent encore peu dans le cadre de transactions
marchandes.
La présence sur les médias socionumériques peut toutefois se révéler un moyen extrêmement
efficace, et parfois peu onéreux, pour faire connaître une marque, asseoir et entretenir une
image originale, s’inscrire comme symbole d’une culture de consommation, entretenir une
relation privilégiée avec certains consommateurs jusqu’à les faire participer à l’évolution de
l’offre ou encore établir des profils clients plus précis.
Cependant, deux points doivent rester présents à l’esprit des marketeurs. Tout d’abord, ces
dispositifs socionumériques demeurent très jeunes et leur popularité est souvent éphémère. Qui
peut dire aujourd’hui ce que seront demain Facebook, Twitter ou LinkedIn ?
Quelques signaux laissent prévoir un développement de la gestion de la relation client (social
CRM) sur les médias socionumériques, mais il est encore trop tôt pour en conclure à la
transformation de ces dispositifs en espaces marchands.
Ce nouveau support de communication charrie aussi un enjeu majeur pour le marketing : les
entreprises désirant s’investir dans les médias sociaux pour en tirer les bénéfices que nous
venons d’évoquer se trouvent confrontées à une véritable révolution culturelle. En effet, cette
démarche suppose d’initier un rapport avec leurs consommateurs et prospects radicalement
différent de celui auquel elles sont habituées. La volonté de contrôle de la communication
marketing est mise à mal sur ces espaces de profusion informationnelle et de libre expression.
Les exemples évoqués dans ce chapitre prouvent que les internautes considèrent avoir leur mot
à dire sur les marques, produits et campagnes des entreprises. Celles ayant refusé de prendre
acte de ce phénomène l’ont payé chèrement. Il s’agit d’un défi fondamental pour les
entreprises. Mais ceci constitue l’opportunité de développer un marketing plus attentif à la
complexité des comportements de consommation des individus et des rapports qu’ils
entretiennent aux marques. C’est à la fois un défi et une opportunité pour le marketing d’en
sortir plus efficace et plus éthique. La solution se situe peut-être dans la proposition de Singh
et Sonnenburg (2012) ? L’invitation faite aux marques à considérer les relations sur les médias
socionumériques selon les règles et les codes de l’improvisation théâtrale est une piste
intéressante à suivre – ou tout au moins une invitation à penser autrement les rapports entre
marques et consommateurs.
[1] Financée par la fondation Mac Arthur, il s’agit d’une étude ethnographique consacrée à l’apprentissage et au vivre ensemble à l’ère des
nouveaux médias, réalisée par 28 chercheurs pendant 3 ans avec plus de 800 jeunes interrogés (Ito et al., 2010).
[2] http://www.untrainderetard.com
[3] Pour aller plus loin sur le thème de l’empowerment du consommateur, et le rôle d’Internet dans ce processus, voir le numéro spécial de
Stéphane BOURLIATAUX-LAJOINIE
Maître de conférences IAE de Tours (France),
laboratoire Vallorem
Fernando PADOVANI
Professeur Université d’Etat de Rio de Janeiro (Brésil)
Tatiana TYCHKOVA
Professeur Institut Stolypine (Russie)
Mohua BANERJEE
Professeur International Management, Institut de Calcutta (Inde),
Katherine MA et Gaël BELLAYER
Professeurs Université Normale de Chine du Sud (Chine)
Objectifs
Sommaire
En 2010, l’Internet World Stat annonçait 1,996 milliard d’utilisateurs d’Internet pour une population
totale de 6,845 milliards d’habitants sur la planète, en 4 ans le nombre d’utilisateurs a augmenté de 24 %
alors que la population mondiale n’augmentait que de 3 %. Si les disparités géographiques restent
présentes, plusieurs faits permettent d’expliquer cette croissance rapide du nombre d’usagers. L’évolution
de l’infrastructure des télécommunications est un élément clé du développement des usages d’Internet. Le
niveau de technicité de l’interface Web diminue avec le temps, il est ainsi de plus en plus intuitif de
surfer. Les coûts d’acquisition et d’utilisation d’Internet tendent à se réduire à débit constant ou supérieur.
Enfin, la volonté politique des pays reste l’élément doté de l’inertie la plus importante, si Internet permet
de développer les services aux usagers (e-services) et le développement de la culture « pour tous », il est
aussi un média d’ouverture, d’expression et de revendication, ce qui reste encore un obstacle à sa
généralisation.
Focus 3.1
Huawei, ZTE et Xolo : trois succes stories venues des BRIC
Huawei, créée en 1988, était un constructeur chinois spécialisé dans les routeurs, les switches et
autres appareils professionnels. Avec le développement de l’informatique nomade, il déploie en
2009 le premier réseau LTE (équivalent de la 4G) dans le nord de l’Europe et lance sa propre
marque de téléphones mobiles (initialement réservée au marché chinois). En 2011, il lance une série
d’offres de Cloud (matériel et stockage) destinée aux entreprises. En 4 ans, Huawei est passé du
statut de constructeur national de matériel et de smartphone à celui d’acteur international présent
dans le top 10 des plus grands acteurs.
ZTE, Zhong Xing Telecommunication Equipment Company Limited, créée en 1985, est un
constructeur chinois d’appareils de télécommunications qui travaille essentiellement en B to B. Il
proposait jusqu’en 2010 des téléphones et smartphones en marque blanche. Depuis cette date, il
propose également des appareils sous sa propre marque. ZTE a toujours été positionné à
l’international principalement dans le secteur du B to B.
Xolo by Lava Mobile, créée en 2009 Lava Mobile est un constructeur Indien principalement connu
via sa marque Xolo. Cette dernière avait pour mission de créer un smartphone et une tablette pour
équiper les besoins domestiques en Inde. À ce jour, Xolo propose plusieurs smartphones (dont le
plus léger du monde) sous Windows8 et une série de tablettes tactiles particulièrement complètes
pour moins de 300 USD. Xolo est depuis 2013 un acteur grandissant sur le marché mondial des
appareils mobiles.
Focus 3.2
Google et la Chine
Il est connu que Google dut faire face à quelques déboires en Chine. Le moteur de recherche a vu ses
résultats de recherches expurgés de certains sites jugés inopportuns par le gouvernement chinois. Ne
désirant pas particulièrement collaborer avec les autorités, Google a vu son accessibilité de plus en
plus réduite et l’arrivée sur le marché d’un concurrent purement chinois : Baidu. Ce dernier est
aujourd’hui le principal outil de recherche sur le Web pour les internautes chinois. Baidu respecte
les consignes du ministère chinois de la sécurité publique et offre un avantage réel pour les usagers :
la possibilité d’écrire et de référencer son site en mandarin.
Le 4 juin 2014, les services Google étaient encore sous le couperet du fameux « bouclier d’or » voté
par l’Assemblé nationale populaire de la République populaire de Chine1 ; Gmail et Google étaient
partiellement bloqués ; quand à Facebook il restait inaccessible.
Source : www.webempires.org
Figure 3.4 Cartographie des principaux sites utilisés dans le monde
Nous avons présenté ci-dessus les principaux points d’analyse d’une vision internationale du Web en
orientant notre démarche vers les pays en voie de développement. Nous proposons maintenant la
transcription du Web vu par des chercheurs issus de chacun des pays des BRI.C. Leur analyse du Web
apporte un éclairage nouveau sur notre approche occidentale, si les géants du Web sont présents, leur
hégémonie n’est pas aussi naturelle que dans nos pays. Un autre Web existe, trop souvent ignoré mais il ne
faut pas oublier qu’il concerne un peu plus de deux milliards d’internautes, soit près de la moitié des
personnes connectées sur la planète.
Nous présenterons les contributions dans l’ordre de l’acronyme BRIC, chaque présentation suit la trame
suivante : tout d’abord son auteur propose une fiche descriptive d’Internet dans son pays. Puis il propose
une approche historique du réseau, il présente ainsi les données macro du Web, ces données sont relatives
au nombre d’utilisateurs d’Internet (fixe et mobile) ainsi qu’aux principaux acteurs des télécoms. L’auteur
traite par la suite de l’évolution du e-commerce et des principaux sites utilisés par les résidents
nationaux. Chaque analyse propose en référence des recherches nationales qui illustrent les propos
présentés. Bien évidemment, de par les grandes différences de ces quatre économies, certains points de
l’exposé peuvent être plus denses selon les pays.
1 Le Brésil
Par Fernando Padovani, professeur à l’Université d’État de Rio de Janeiro, département de finance
et administration des entreprises.
Le e-commerce au Brésil est encore émergeant, cela peut s’expliquer par plusieurs points.
Tout d’abord l’économie brésilienne dans son ensemble est en phase émergente, après l’envolée de la
croissance en 2010/2013, la situation reste positive mais un ralentissement est nettement perçu.
Culturellement l’acte d’achat se fait dans les commerces de proximité et généralement en liquide, la
dématérialisation des moyens de paiement n’est pas encore un élément usuel pour les citoyens.
Il faut également souligner le problème de l’infrastructure réseau, l’accès à Internet fixe ou mobile est
très variable selon les zones du pays. Si un accès filaire et mobile est simple et de bonne qualité dans les
grandes villes il en est tout autrement dans le reste du pays.
Enfin, la législation n’est pas encore bien adaptée à la vente en ligne. En 1995 le « Comité de gestion
d’Internet » a été créé, constitué de représentants du gouvernement, du secteur privé et de la société
civile. Son rôle est d’éditer des recommandations sur les meilleures pratiques pour favoriser le e-
commerce. Au-delà des règles imposées par l’Anatel[2], le Comité de gestion d’Internet propose une
vision économique de l’usage du réseau. En février 2014, le Congrès national brésilien a proposé un
projet de loi dénommé « Cadre civil d’Internet ». Ce projet a pour but le développement de
l’infrastructure réseau et la mise en place d’un cadre juridique qui favorise le e-commerce.
Malgré ces problèmes, le Brésil est le 5e plus gros utilisateur d’Internet avec près de 100 millions
d’utilisateurs (soit les 2/3 des internautes d’Amérique du Sud –source : IPEA), la présence des grands
acteurs du Web est très marquée. Les brésiliens sont d’importants utilisateurs de Google, de Facebook,
YouTube de Twitter, et plus étonnamment d’Orkut[3] ! L’environnement économique est favorable au
développement du e-commerce, bien que ralentie la croissance est toujours présente et le taux de
chômage a atteint son score le plus bas. Durant les dix dernières années, la classe moyenne a atteint
98 millions de personnes (classe disposant d’un salaire entre 1 000 et 2 500 USD/mois – source : NERI).
Le primo équipement informatique de cette classe est très important. L’achat de tablette et de smartphone
s’est envolé, propulsant ainsi ce segment de population de 25 à 45 % d’utilisateurs d’Internet. L’accès
aux études s’est considérablement développé depuis 15 ans. La classe moyenne actuelle vit en ville (avec
un accès au réseau de bonne qualité), dispose de bons revenus, d’un niveau de connaissances, et de
besoins qui lui permettent d’accéder au e-commerce.
Parmi les 100 millions de brésiliens connectés à l’Internet, 70 % possèdent une page Facebook, 50 %
ont entre 25 et 49 ans et 40 % d’eux peuvent être considérés comme consommateurs actifs sur Internet.
Cette population s’agrandit en moyenne de 6 millions de brésiliens chaque année depuis 2009. Il est
intéressant de noter que les femmes représentent 60 % des nouveaux consommateurs. Parmi les classes de
revenus plus élevés, le taux d’achat sur Internet est déjà important, et ce segment est mature. Ce sont
30 millions de personnes, dont 80 % sont connectées, dont 68 % sont consommateurs réguliers sur
Internet. (CGI 2012)
Les chiffres d’affaires du commerce électronique augmentent en moyenne 29 % par an depuis 2008,
passant de 4 pour 14 milliards de dollars US entre 2008 et 2013, selon les données de l’Association
Brésilienne de Commerce Électronique, (ABComm), ce qui ne représente cependant que 3 % des ventes
du commerce en détail brésilien.
Alors que l’économie brésilienne représente 2 % du PIB mondial, le e-commerce brésilien représente
aujourd’hui 3,5 % du total mondial, ce qui représente le 7e plus grand e-marché du Monde (avec un total
de 13 milliards de dollars US), derrière les États-Unis, la Chine, le Japon, et les principaux pays
européens. Les projections de croissance élaborées par les consultants allemands de y-Stats, et basées
sur le maintien des taux de croissance actuels, indiquent pour 2016 une participation brésilienne de 4,5 %
dans le CA mondial du e-commerce, ce qui en fera le 4e plus important marché électronique du monde.
Même si les chiffres sont sujets à cautions, les spécialistes brésiliens s’accordent sur le fait qu’il
existerait environ 350 000 sites dédiés au commerce électronique au Brésil, environ 15 % du total des
2,5 millions de sites actifs dans le pays. Les produits les plus achetés sont dans l’ordre : l’électroménager
et l’électronique (23 % du total), les produits tablettes et smartphones (12 %), les produits de beauté
(8 %) et les vêtements (7 %). Ces 350 000 sites génèrent 75 millions de transactions, avec une valeur
moyenne de 185 dollars US par transaction. (source : e-Bit, e-Commerce.org et BigData Corp.)
Ces chiffres montrent l’importance encore accordée aux magasins traditionnels. De fait les magasins
physiques migrent peu à peu vers la vente en ligne en utilisant une stratégie de type « click and mortar ».
Les deux plus grandes marques de distribution qui développent cette stratégie sont le groupe B2W (qui
gère la chaîne de points de ventes spécialisés Submarino et Americanas), avec un chiffre d’affaires de
2 milliards de dollars US en 2012, et Nova Pontocom (qui contrôle les chaînes de points de ventes
généralistes Extra, Ponto Frio et Casa Bahia) et avec chiffres de 1,2 milliard de dollars US.
Mais le marché brésilien a également développé ses propres « pure players », dont les principaux
Mercado Livre (version brésilienne d’eBay, 9e site plus fréquenté au Brésil), Netshoes (chaussures et
vêtements), Luiza et Wal-mart (électroniques et électroménagers). Malgré la grande quantité de petits
« sites » de vente, qui représentent 90 % du e-marché, ils ne génèrent qu’à peine 15 % du total des
ventes, avec une portée régionale, voire locale. Ces transactions animées par des petits « sites »
dépendent de la poste brésilienne pour livrer les marchandises et des formes de paiement non-digitales,
particulièrement le virement entre comptes bancaires, ce qui représente 40 % du total des paiements de
l’e-commerce au Brésil. Cependant, malgré l’importance du versement bancaire, la carte de crédit tend à
devenir le moyen le plus populaire pour les paiements en e-commerce (source : CGI 2012, e-Bit 2012).
Malgré les indicateurs prometteurs le nombre d’accès à Internet est proportionnellement plus faible que
dans d’autres pays au même niveau de revenu et de développement économique. Parmi les plus
importantes barrières d’expansion de l’Internet haut débit au Brésil se trouvent les problèmes
d’engorgement des infrastructures de télécommunication, ce qui induit des problèmes de prix, de
couverture et de vitesse. Le gouvernement a lancé le Programme national de Large Bande en 2010, avec
pour objectif le développement de l’infrastructure réseau. Les investissements prévus étaient de l’ordre
de 500 millions de dollars US. Mais comme dans de nombreux domaines d’infrastructures brésiliennes,
les investissements gouvernementaux réalisés ont été assez timides.
Le marché des fournisseurs d’accès est également bridé par la présence d’un monopole très fort. Cela
contribue à la présence des coûts élevés et d’une qualité de réseau considérée comme inférieure par
rapport aux pays voisins. Seulement 12 % de la superficie du pays est couverte par l’Internet mobile avec
deux (ou plus) opérateurs concurrents. En conséquence, presque 90 % du territoire est contrôlé par un
seul fournisseur. L’accès à l’Internet à large bande coûte environ 30 dollars US par mois, c’est un coût
parmi les plus importants dans les pays émergents. Comparés au pouvoir d’achat local, les coûts de
services d’Internet et de téléphone mobile sont plus élevés au Brésil que dans une centaine d’autres pays.
(Barreto, 2012)
2 La Russie
Par Tychkova Tatiana, Professeur à l’Institut Stolypin de Volga, département d’informatique
appliquée et de gestion des nouvelles technologies.
D’un point de vue historique, Internet débute en Russie le 4 décembre 1993 avec la mise en place de
l’accord relatif au Top Level Domain (TLD) spécifique au pays le « RU ». Le premier opérateur « Russia
Online » apparaît très rapidement et dès 1995 il propose des contrats de connexions aux habitants des
principales villes du pays. Le moteur de recherche « Rambler » apparaît en 1996. Il propose l’indexation
des premières pages du Web russe et la mise à disposition d’un e-mail gratuit. Mais c’est surtout la date
de 1997 qu’il faut retenir, avec l’apparition du moteur de recherche « Yandex. ru », qui, dès le début de
son existence, va s’imposer comme le moteur de référence pour les usagers russes.
Le réseau Internet russe connaît un succès rapide et l’État doit très rapidement faire face à une
augmentation des connexions sur un réseau dont l’infrastructure ne permet pas des pics de charge. La mise
en place de structure mixte privée (grandes banques, médias) et publique a permis de développer très
rapidement un réseau Internet filaire fiable et puissant. Le ministère de la communication a mis en place
un vaste projet de déploiement de fibre optique dans le pays. Ce projet « Restelecom » doit permettre de
couvrir près de 2 millions de foyers dans les principales villes. Dans un même temps, le coût de l’accès
au réseau de type ADSL a été divisé par 4 pour atteindre une moyenne de 26 roubles pour 1 Mbps (soit
environ 0,76 USD). Le coût d’un abonnement mensuel à Internet est actuellement d’environ 550 roubles
pour une vitesse moyenne de 22 Mbps. La répartition des accès Web reste encore aujourd’hui inégale sur
le territoire russe, la région la plus numériquement enclavée restant celle de l’Est avec un débit près de
20 fois inférieur à celui des autres habitants. Mais la principale évolution du Web tient à la généralisation
des connexions mobiles. Le gouvernement russe, en partenariat avec les régions, mise sur une couverture
4G de 95 % des usagers dès 2018. C’est un investissement très important qui est mis en place. Les trois
grands opérateurs de téléphonie mobile, qui sont VymelKon, MTS et MegaFon, se positionnent sur ce
nouveau marché à très forte croissance. En 2013, seuls 50 % des internautes moscovites accèdent au
réseau via leur smartphone. La généralisation des smartphones et des tablettes[4] ouvre un marché
considérable pour les opérateurs de téléphonie mobile.
L’élément le plus important pour comprendre l’essor du Web en Russie est l’amélioration du revenu par
habitant. Durant les trois dernières années, la pauvreté a reculé de 2 %. Le coût d’accès à Internet a été
divisé par 4 alors que la vitesse d’accès était régulièrement augmentée. Aujourd’hui, seuls les
abonnements mobiles (facturés environ 200 roubles/giga consommé) restent réservés à une population
aisée.
En raison de la taille du pays et de la richesse de l’offre en ligne, les citoyens russes consomment via
Internet sans peur particulière. Leur panier moyen en 2013 est de 828 USD/an (contre 677 USD en
Allemagne et 1 104 USD aux USA). Aujourd’hui l’achat sur Internet touche tous les citadins russes, sans
distinction notable de sexe ou de revenus. L’accessibilité à un bon débit Internet (donc la présence dans
une grande ville) semble être le seul critère discriminant dans l’acte d’achat en ligne. Mais cette
population de Web acheteur ne représente que 14,5 millions d’habitants, ce sont des usagers débutants sur
Internet qui ont généralement entre 3 et 5 ans d’expérience sur le réseau. C’est sur l’apprentissage de la
consommation sur le Web que se tournent les principaux acteurs. La boutique en ligne Ozon propose ainsi
une « Online Purchase Academy » afin d’expliquer à ses clients comment consommer sur Internet. Cela
peut aller de problème très simple, comme trouver une référence produit et remplir son panier virtuel, à
des inquiétudes plus importantes relatives au délai de livraison ou au retour d’un produit commandé.
Comme dans de nombreux pays, le taux de bancarisation est un élément important pour le
développement du e-commerce. En Russie, ce taux n’est que de 50 %, dans l’absolu seul un citoyen russe
sur deux dispose d’une carte de paiement. Le e-commerce doit donc trouver des solutions palliatives à ce
manque d’outils de paiement (notamment le contre remboursement, l’envoie d’un chèque ou encore le
micropaiement par téléphone). Enfin, il est de tradition en Russie de payer ses achats en liquide, ce qui
freine l’achat en ligne.
L’usage de l’alphabet cyrillique et la méconnaissance de l’anglais ont eu un effet croisé sur le e-
business en Russie. D’une part, cela a freiné et freine toujours l’essor du e-commerce en rendant
impossible aux Russes l’accès à la plupart des sites internationaux, mais en contrepartie cela a permis le
développement de sites nationaux (donc écrits en cyrillique) qui sont aujourd’hui de réelles alternatives
aux sites mondiaux. La langue russe a ainsi créé une barrière a l’entrée pour de nombreux acteurs (Google
par exemple) et a octroyé une position dominante à ceux qui savaient s’adapter aux contraintes de cet
alphabet (Yandex par exemple).
Les consommateurs russes privilégient les sites nationaux pour leurs achats sur Internet. En 2013, la
Russian research Agency Datainsight dénombrait 2 000 sites nationaux pour les produits de grande
consommation. Les supermarchés sont encore très peu présents sur Internet et seuls leurs rayons
électroménagers peuvent parfois vendre en ligne. Comme dans de nombreux pays, ce sont les produits
culturels (livre, vidéo, billetterie) ainsi que l’électroménager et l’électronique qui sont les plus demandés
par les acheteurs en ligne. Les cinq sites suivants drainent l’essentiel du e-commerce russe :
Tableau 3.3 Le Top 5 des sites Internet russes de e-commerce
CA moyen par mois
N° Boutique Catégorie
(millions de roubles)
Électronique et
3 www.ulmart.ru 2 000
matériel de maison
Électronique et
4 www.citilink.ru 1 755
matériel de maison
Si les enseignes nationales regroupent la majeure partie du marché, il ne faut pas négliger les sites
internationaux qui tentent depuis plusieurs années de s’implanter sur le marché domestique russe (eBay,
Amazon). Outre la barrière de la langue qui limite l’accès des consommateurs aux sites internationaux, la
législation s’est considérablement durcie. Aujourd’hui, un acheteur russe peut acquérir et importer sans
taxe jusqu’à 1 000 euros HT de marchandises par mois. Cette règle avait pour but de favoriser le
développement des premiers achats sur Internet. Les consommateurs ont ainsi découvert des sites sur
lesquels les prix étaient particulièrement compétitifs et qui ont considérablement augmenté les
importations du pays – l’achat sur Internet à l’étranger a représenté ces dernières années jusqu’à 3 % du
PIB (soit 120 milliards de roubles). Constatant une perte sèche sur les taxes d’importation et une mise en
concurrence des sites nationaux, le gouvernement russe a décidé de changer cette règle pour ramener le
plafond mensuel d’importation sans taxe à 120 euros.
Quant aux moteurs de recherches et réseaux sociaux numériques, si les acteurs internationaux sont
présents en Russie, ils ne sont pas aussi populaires que les acteurs nationaux tels que Odnoklassniki. ru
ou encore Vkontakte qui sont de loin les plus sollicités par les internautes. Le premier propose tout à la
fois un réseau social et un moteur de recherche ; il est particulièrement populaire dans les générations
adultes. En revanche, Vkontakte est positionné sur le marché des jeunes (étudiants, scolaire) ; il est très
utilisé pour les communications journalières entre adolescents et jeunes adultes. Il propose un service de
messages entre abonnés.
Enfin le géant Google est détrôné par Yandex et Mail.ru qui sont respectivement le moteur de recherche
et le fournisseur de mail historique du Web en Russie.
Les réseaux sociaux nationaux sont particulièrement utilisés par les internautes, une fois encore les
géants américains sont loin derrière dans les classements. En 2013, Schoolmates représentait 74 % des
usages, In contact, 58 %, My world 27 % et Facebook ne représentait que 14 % des usages[5].
3 L’Inde
Par Mohua Banerjee, professeur à l’IMI Calcutta, département management et nouvelle
technologie.
L’Inde est aujourd’hui le troisième pays présent sur Internet avec environ 120 millions d’internautes
(alors que le pays n’en comptait que 80 millions en 2010). Le développement des connexions est
particulièrement rapide dans ce pays où l’économie du numérique est promue par le gouvernement. Le
lien entre les nouvelles technologies et la culture indienne est très présent. Depuis plusieurs années,
l’Inde forme de nombreux ingénieurs informatiques et l’usage des moyens de communication moderne est
vite entré dans les mœurs. Le pays souffre pourtant d’une infrastructure Web insuffisante. L’autorité de
régulation des Télécoms a été obligée d’imposer aux opérateurs un débit minimal de 512 Ko pour la mise
à disposition des offres Internet. La taille du territoire national nécessite un investissement considérable
en termes d’infrastructure de télécommunication, et le gouvernement travaille actuellement sur la mise en
place d’une dorsale indienne, entièrement en fibre optique, qui permettrait de désenclaver les provinces
les plus rurales.
L’usage d’Internet comme canal d’achat n’est pas encore une réalité en Inde. Le e-business ne
représente que 0,3 % des achats réalisés par les citoyens. Traditionnellement les consommateurs indiens
préfèrent acheter dans les magasins de proximité qui offrent la livraison gratuite et surtout permettent de
payer en liquide les achats, cette dernière pratique est particulièrement importante dans un pays où le taux
de bancarisation est d’environ 30 %[6]. Ce phénomène est tellement important que les enseignes qui
vendent en ligne se doivent de proposer un mode de paiement en liquide lors de la livraison des
marchandises. Enfin, la plupart des sites limitent le montant des achats en liquide afin d’éviter tout risque
de non-paiement et le nombre d’intermédiaires à rémunérer. À titre d’exemple, Flipkart et Snapdeal
limitent respectivement à 800 USD et 320 USD le paiement en liquide. Cette limite restreint fortement le
développement du e-business qui n’augmente que dans les villes, les projetions les plus optimistes
(Technopack) estiment que le e-commerce pourrait atteindre 6,5 % des achats en 2023.
Le marché indien, contrairement aux marchés russe et chinois, ne s’est pas vu protégé par l’usage d’un
alphabet non latin. L’appartenance de l’Inde au Commonwealth a permis à de nombreux acteurs
internationaux de s’implanter rapidement dans le paysage du e-business. C’est ainsi sans surprise que
l’on retrouve la présence d’eBay-Inde (www.eBay.in) ou encore d’Amazon-inde (www.amazon.in) De
nombreux acteurs locaux ont alors pu s’implanter mais le modèle de e-business indien se caractérise par
l’hégémonie des places de marché. Ces intermédiaires proposent ainsi à des petits commerçants
l’ensemble de l’infrastructure nécessaire pour la vente en ligne.
Le plus important est sans conteste Flipkart qui propose des livres mais également de l’électronique, de
l’informatique et des fournitures pour la maison. Dans le même secteur d’activité nous trouvons
également Snapdeal, ou encore Jabong.com et Yebhi.com. Le modèle de ces sites est proche de ce que
propose Amazon.
Les réseaux sociaux sont également très présents en Inde, l’usage de l’anglais a permis à des géants
comme Facebook, Twitter ou Whatsapp de pénétrer très rapidement ce marché mais des réseaux purement
indiens sont également utilisés, à ce titre Worldfloat a fait une entrée remarquée dans le paysage des
réseaux sociaux indiens. Il propose, outre les fonctions identiques à celles de ces concurrents, de gagner
des bons-cadeaux en jouant en ligne.
Si l’on excepte les contraintes liées aux moyens de paiement et l’importance des marques nationales
(de matériels tels que Xolo ou de sites Web de commerce), l’Inde est probablement le pays des BRIC
dans lequel la consommation est la plus proche du modèle occidentale.
4 La Chine
Par Katherine Ma et Gaël Bellayer, professeurs à l’Université Normale de Chine du Sud,
International Business College.
La relation entre la Chine et Internet est complexe, le gouvernement chinois étant tout à la fois conscient
de l’opportunité économique majeure que représente le réseau et inquiet par la liberté d’expression et de
pensée que peut véhiculer Internet.
Le premier point important pour comprendre le développement du e-commerce en Chine est de réaliser
la récence de l’industrie de la distribution. En à peine vingt ans, la Chine a vu un bouleversement sans
précédent dans l’offre de produit et dans les circuits de consommation. Mais les consommateurs qui
disposent d’un bon pouvoir d’achat ont très rapidement réalisé les opportunités du e-commerce (largeur
de l’offre, prix attractifs). En 2012, le volume des ventes en ligne en Chine progressait de 31 % pour
atteindre 8 milliards de yuans.
Le marché des fournisseurs d’accès filaires et mobiles est détenu par trois compagnies nationales dont
la plus importante China Telecom détient plus de 50 % du marché. Les deux autres compagnies,
nationales elles aussi, se partagent le marché restant. La couverture Internet est très inégale dans le pays.
Si les grandes villes et les zones denses bénéficient d’une bonne couverture (de 2 à 20 Mbps) à un prix
accessible (environ 77 yuans), de grandes parties du territoire n’ont pas accès à Internet. La population
ayant accès au réseau représente environ 18 % de la population totale du pays.
La Chine est un cas très particulier de développement du réseau. Le choix politique du pays fut de
proposer un accès à moindre coût afin de démocratiser le média Internet, tout en gardant un contrôle des
informations disponibles. À ce titre, le gouvernement chinois a mis en place un système de contrôle
dénommé le « bouclier d’or », qui a pour but de sélectionner les informations disponibles sur le réseau
afin de protéger la population chinoise. Les principaux acteurs internationaux ont ainsi dû accepter le
couperet du bouclier d’or s’ils voulaient être présents dans le pays. Facebook, Google ou encore Twitter
ont vu leur accès limité ou bloqué en fonction des événements politiques chinois. Enfin, l’usage d’un
alphabet non latin a, là encore, facilité le développement d’un moteur de recherche national BAIDU plus
apte à répondre aux besoins des utilisateurs et aux contraintes du gouvernement. Cette approche incitative
à l’usage d’un moteur national plutôt qu’un moteur de recherche américain est assez bien acceptée par la
population, qui voit en cette offre un moyen de conserver une autonomie nationale sur le réseau Internet
(ne pas dépendre des Américains) sans pour autant percevoir de frein à la qualité de la recherche
d’information.
Le gouvernement chinois utilise également une autre méthode pour favoriser la consultation des sites
nationaux au détriment des sites étrangers : la priorité de vitesse de connexion est donnée aux sites
nationaux. Il est ainsi bien plus rapide et agréable de surfer sur Baidu que sur Google (1,6 % des parts de
marché des moteurs de recherches !).
Dans cette logique d’autarcie numérique, la Chine a développé une réponse nationale aux attentes de
ses consommateurs. eBay n’a jamais réussi à bien s’implanter sur le marché chinois, les consommateurs
lui préfèrent TaoBao (www.taobao.com) qui détient près de 90 % du marché du matériel d’occasion
(C to C). Le site Tmall (www.tmall.com), filiale du précédent, se spécialise sur le B et C avec près de
60 % du marché. Ces deux structures font partie de l’empire du groupe « Alibaba Group », fondé en 1999
par un ex-professeur d’anglais, le groupe s’est très rapidement développé sur le marché chinois, Yahoo
détient une participation (en baisse) de 24 % dans le groupe.
Des sites et des applications spécifiques ont également été créés, ou adaptés au « bouclier d’or », pour
répondre aux besoins de communications instantanées et de réseaux sociaux. C’est ainsi que Twitter est
remplacé par Sina WeiBo (www.weibo.com) avec ses 500 millions d’utilisateurs dans le pays, cette
plateforme est un hybride entre Facebook et Twitter, permettant des micros conversations mais également
des messages vidéos ou en images. WeChat ou weixin (www.wechat.com) est une messagerie instantanée
développée en Chine, le site revendique 250 millions de comptes dans le pays.
Il est intéressant de noter que l’ensemble de ses solutions ont été développées au niveau national sous
l’impulsion du gouvernement chinois qui tenait ainsi à appliquer ses règles de sécurité sur le contenu des
publications. Les grands acteurs internationaux qui n’ont pas voulu se plier à la règle imposée se sont vus
tout simplement fermer le marché chinois. Après plusieurs années d’existence, ces produits sont
aujourd’hui suffisamment matures pour conquérir le marché mondial : Alibaba et WeChat sont deux
exemples de l’émancipation internationale de ces marques « locales ».
L’explosion de la téléphonie mobile a bien eu lieu vers 2010 et aujourd’hui le marché de l’Internet
mobile est loin devant celui du fixe. La surface du pays et les contraintes de déploiement d’une
infrastructure réseau sont telles que la mise en place de connexions via les téléphones portables est bien
moins coûteuse à l’État. 62,7 % des utilisateurs de smartphones (821 millions) surfent quotidiennement.
Les connexions à haut débit (3G et 4G) concernent quant à elles 281 millions d’utilisateurs. Outre la
recherche d’informations et les micros messages, l’un des services les plus utilisés est celui du
micropaiement. Fin 2012, 223 entreprises disposaient d’un agrément pour être intermédiaire financier
dans des opérations de micropaiement. Alipay (www.alipay.com) est le leader sur ce marché avec
900 millions de comptes ouverts. Cette société est une filiale d’Alibaba Group, ce dernier diversifiant
ses activités vers le micropaiement et le stockage en ligne (cloud computing). Le gouvernement chinois
est également présent sur ce marché puisque Alipay fonctionne en partenariat avec les trois plus grandes
banques du pays : Bank of China, China Construction Bank et l’Agricultural Bank of China.
EN CONCLUSION
Quatre pays, 2.5 milliards d’habitants et un taux de croissance d’Internet de près de 8 % par
an : tels sont les trois données à retenir de cette analyse des BRIC. Les émergents du Web sont
assurément les futurs marchés pour le e-business ; l’infrastructure réseau est aujourd’hui tout à
fait acceptable pour un usage commercial ; l’accès aux interfaces (smartphone, tablette) a été
garanti par une double volonté de production locale et d’expansion internationale. Ces quatre
pays peuvent aujourd’hui entrer dans la cour des grands du Web. Nombre de grands acteurs tels
que Google ou eBay se trouvent en difficulté pour pénétrer ces marchés. L’isolement (le
protectionnisme ?) plus ou moins forcé par les gouvernements (notamment chinois), l’usage
d’alphabet non latin (Russie, Inde, Chine), les priorités sociales (Brésil) ont permis de
développer une économie du Web nationale. Cette dernière a pris le temps de structurer son
business model local avant de pouvoir aujourd’hui s’exporter dans le monde entier. Inconnu il
y a encore 3 ans, le site Alibaba est désormais un très sérieux concurrent pour Amazon et
eBay[7].
Source : www.bricscable.com
Figure 3.5 Tracé de la future dorsale Internet dédiée aux BRICS
Et la montée en puissance des BRIC continue. En 2013, les pays des BRICS (BRIC + Afrique
du Sud) annonçaient la mise en place de leur propre dorsale Internet. Lassés de dépendre des
câbles européens ou américains pour leurs échanges, les BRICS souhaitent se doter de leur
propre infrastructure qui contournerait géographiquement les goulots d’étranglement que sont
l’Amérique du Nord et l’Europe[8].
Disposer de leurs propres matériels nomades, de leurs propres acteurs du e-commerce, de leur
dorsale de connexion au réseau, trois éléments clés qui marquent l’émancipation des BRICS
par rapport au modèle nord-américain/européen. Le réseau évolue sans cesse, il est plutôt
rassurant de constater que les nouveaux entrants apportent leurs adaptations à ce processus
dynamique. À nous marketeurs de comprendre les attentes de ces nouveaux clients, d’intégrer
leurs contraintes dans nos stratégies. Plus que jamais le modèle d’Internet se heurte à la
diversité. Et si la solution résidait dans une double approche qui tiendrait compte des travaux
sur la culture et des travaux sur la valeur perçue ? Holbrook et Hirschman (1982) et Hofstede
(1980) seraient-ils les clés d’analyse de ce Web émergeant ?
[1] Source : étude Social, Digital & Mobile Around The World (January 2014), disponible à l’adresse :
http://fr.slideshare.net/wearesocialsg/social-digital-mobile-around-the-world-january-2014
[2] Agência Nacional de Telecomunicações : organisme publique qui régit les télécomunications.
[3] Orkut est un réseau social initié par Google en 2004, il ne connut pas un très grand succès sauf au Brésil où il fut très rapidement adopté
par la majorité des internautes.
[4] http://www.tns-global.ru/press/news/183388/
[5] www.levada.ru/sites/default/files/2012_eng.pdf
[6] http://www.lemonde.fr/economie/article/2014/04/04/l-inde-autorise-la-creation-de-nouvelles-banques_4395849_3234.html
[7] http://www.lesechos.fr/17/03/2014/LesEchos/21648-063-ECH_le-chinois-alibaba-va-faire-son-entree-en-bourseaux-etats-unis.htm
[8] http://www.rslnmag.fr/post/2013/09/26/Demain-un-Internet-bis-bresilien-russe-indien-chinois-et-sud-africain.aspx#commentlist et
http://vimeo.com/62538784
Partie Consommation et gestion de la relation
2 client
Christophe BENAVENT
Professeur des Universités, Université Paris-Ouest (Nanterre),
UFR SEGMI département de gestion, laboratoire CEROS
Objectifs
■ Comprendre l’évolution de l’environnement digital et son rôle croissant dans la relation entre la
marque et les consommateurs.
■ Analyser les conséquences du développement de l’environnement digital sur la gestion de la relation
client.
■ Réorganiser la gestion de la relation client à l’ère digitale selon trois principes fondamentaux : la
médiatisation, la socialisation et l’ubiquisation.
Sommaire
Clarifions tout d’abord la doctrine de la gestion de la relation client. L’hypothèse clé est qu’en se
focalisant sur les clients dans la durée, l’activité marketing peut obtenir une meilleure rentabilité qu’en se
concentrant sur les conditions des actes d’achat (les transactions) et la formation des préférences. Une
très riche littérature désormais documente ce basculement de point de vue (Grönroos 1994, Bagozzi
1975). « Fidéliser est moins coûteux que d’acquérir », selon la formule de Reichheld (1996). La
focalisation sur le client conduit le marketing à privilégier la gestion de la relation au cours du cycle de
vie. L’objet central est défini par cette durée et l’ensemble des activités qui s’y déroulent. Elle se
concrétise dans la notion de valeur de clientèle et de capital client qui en est l’accumulation (Rust,
Zeithaml et Lemon 2000).
La diversité des relations implique une approche en termes de portefeuille de clients dont la
composition détermine les choix concernant les quatre politiques fondamentales à élaborer et à mettre en
œuvre :
Les politiques de fidélisation au sens restreint de la rétention de clientèle, pour protéger les
relations à forte valeur des attaques de la concurrence.
La valeur du client étant protégée, en le connaissant mieux, il est alors possible de la développer en
éduquant le client, en favorisant les ventes croisées, en élargissant son expérience. On parlera de
développement de la clientèle.
Le capital client étant ainsi fixé, une politique d’individualisation de l’action marketing permet d’en
accroître la valeur en ajustant au mieux les ressources et les prix. C’est ce qu’on appelle
couramment one to one, ou la personnalisation.
Rares sont les situations où les clients survivent éternellement, il est donc nécessaire de renouveler
constamment ce stock par une politique d’acquisition qui, par ailleurs, détermine en grande partie la
fidélité future des clients.
La conduite efficace et parallèle de ces quatre politiques est susceptible de produire quatre types de
résultats :
L’approche CRM permet l’amélioration de la productivité commerciale par une meilleure allocation
des ressources au cours des différentes phases de la vie du client (optimisation des dépenses).
Elle permet le renforcement de la qualité de service et de produit et en conséquence accroît la
satisfaction (adaptation des offres).
L’approche CRM conduit à une amélioration de la qualité de la relation, en créant un climat de
confiance qui renforce la fidélité (fidélisation).
Elle donne une plus grande capacité à exploiter la diversité de la clientèle en termes de
consentement à payer et d’investissement requis (discrimination).
Pour mener ces quatre grandes politiques et les appliquer aux différents segments de clientèle, une
capacité d’analyse puissante est nécessaire. Le développement de la relation client a été naturellement
favorisé par le développement spectaculaire des techniques de gestion et d’analyse des bases de données
au cours des années 1990, faisant émerger au tournant du siècle un appareillage sophistiqué qui se
présente sous le terme de système CRM et ses outils de data mining (pour une vue panoramique du
domaine, Berry 2001). Et ces outils contribuent à trois activités : mieux analyser le portefeuille de clients
et les résultats des opérations (CRM analytique), mieux conduire les opérations (CRM opérationnel :
automatisation des campagnes, des forces de ventes, etc.) et faire collaborer les différents canaux et
agents commerciaux (CRM collaboratif).
L’extension de ces dispositifs aux médias de l’Internet en accroît les possibilités, les outils de CRM
deviennent e-CRM et social CRM, allant dans le sens d’une intégration de plus en plus poussée grâce
d’une part au cloud computing, et d’autre part à la construction de mashups grâce aux API. Le cloud
computing est cette idée de centraliser les données et les logiciels sur des serveurs et de distribuer les
résultats de leurs calculs et opérations sur les terminaux des utilisateurs. La notion est associée à celle de
software as a service (Saas) dont la conséquence économique est de faire payer l’usage en fonction de ce
qui est consommé. Cette approche de gestion des SI implique généralement une externalisation. Les
mashups sont des applications hybrides qui puisent dans de vastes bases de données telles que Google
maps, Twitter ou Flickr, des éléments de contenu par le biais d’interfaces appelées API (interface de
programmation d’application), mixant les données de sources différentes. Un bel exemple est ce que fait
Salesforce.com avec Twitter, enrichissant par exemple les fiches clients avec l’information pertinente
puisée dans Twitter sur la base de critères thématiques et géographiques.
Si de prime abord ces outils permettent une meilleure gestion de la clientèle, en réduisant les coûts des
opérations et en incitant à étendre les bases de données à la fois dans leur taille (le nombre de clients) et
leur contenu (la diversité des éléments d’information : comportements, préférences, identification,
contacts), ils posent trois problèmes que le gestionnaire doit prendre en compte dans l’élaboration de sa
politique : un éloignement psychosociologique dû à la matérialisation de la relation, l’intensification de
l’échange d’information, une individualisation qui peut conduire au renversement des relations de
pouvoir.
1 Matérialisation de la relation
Le marketing relationnel, dont la finalité est de créer un climat de confiance et de susciter de
l’engagement, agit principalement au travers de dispositifs techniques dont la logique propre conduit à
porter de l’attention à l’immédiat et à déplacer le regard du phénomène relationnel vers ce qui le mesure.
Ainsi, plutôt que de mesurer l’état de la qualité de la relation, on privilégie des indicateurs tels que la
fréquence de contact.
On retrouve là un paradoxe des systèmes CRM : s’ils ont pour finalité d’améliorer la qualité de la
relation, leur mécanisation produit parfois l’effet opposé. Le secteur bancaire qui, dans les années 2000,
a massivement investi dans ces systèmes a depuis réduit son exigence de qualification des personnels : en
incorporant la décision dans le système l’intelligence, on réduit les coûts et les compétences du front
office. La même logique pour les opérateurs télécoms pour qui la lutte pour la réduction des coûts fait
oublier parfois l’exigence de la qualité en externalisant les centres d’appel. La gestion du contact s’est
substituée à celle de la qualité de la relation. La recherche d’économies a pris le dessus sur la
satisfaction du destinataire final.
Ces expériences illustrent le processus à l’œuvre : pour mener à grande échelle une politique orientée
client, il est nécessaire de s’appuyer sur les développements des technologies de l’information et
d’industrialiser les opérations. Du même coup, la nature de la relation change : plutôt que de se construire
comme institution de confiance, elle se bâtit dans un flux incessant d’interactions digitales. Il s’agit de
souligner l’ambiguïté et l’équivoque de la digitalisation de la relation. Ce qui est gagné par une meilleure
qualité de service (l’accès 7/7 et 24/24) peut être détruit par la perte de confiance qui résulte d’un
moindre engagement des forces de vente et de l’absence d’empathie.
Gérer la relation dans un univers numérique, c’est donc gérer la médiatisation, qui est aussi une
matérialisation, dans le sens que les attitudes qui s’adressaient à la marque et au discours se construisent
désormais aussi sur et par des objets matériels qui incarnent cette relation. Il s’agit naturellement des
canaux (Web, téléphone, automates, etc.) mais aussi des systèmes de décision tels que les scorings, les
règles d’affaires, les systèmes experts, la métrologie. Un de ses derniers avatars se manifeste par les
technologies de self-care, dont la SNCF fait l’un de ses vecteurs d’amélioration de la performance.
L’ironie est que le terme de self-care a été utilisé d’abord par le secteur de la santé et peut être traduit
comme le souci de soi – il s’agit en fait de la systématisation du self-service. Pour reprendre le mot de
Thierry Spencer, le client est seul.
La numérisation implique une médiatisation par des objets matériels, des dispositifs techniques qui
régulent les échanges matériels, affectifs, informationnels. Ils prennent des formes multiples : base de
données clients, carte de fidélité, newsletters, réseau social, espace et compte clients. Ce mouvement se
systématise depuis 2013 avec la multiplication des capteurs et le développement des objets connectés.
Penser la relation c’est donc penser aussi l’effet de ces interfaces qui peuvent de manière symétrique
altérer les intentions, les attitudes, les dispositions. La technique n’est pas neutre pour reprendre le thème
politique de la neutralité du Net.
2 Intensification de la relation
Par l’économie même des technologies de l’information, un avantage est donné aux techniques dont le
coût est le plus faible, que ce soit pour recruter de nouveaux clients ou pour les fidéliser.
Un exemple significatif est la substitution progressive des actions de marketing direct par les actions
d’e-mailing. Pourquoi en effet soutenir des campagnes massives de marketing direct quand la même
quantité d’informations peut être diffusée à un coût 100 fois moins élevé ? On peut naturellement supposer
que, passant d’un média à un autre, les rendements soient moins élevés – ce n’est d’ailleurs pas évident –
mais cette différence est faible au regard des différentiels de coût.
L’effet immédiat de cette substitution est une incitation formidable à l’accroissement de la pression
commerciale. Les campagnes peuvent se multiplier et le rythme d’interaction croître à une vitesse
prodigieuse. Quand l’agence était visitée une fois tous les deux mois, et les bornes ATM une fois par
semaine, le Web-banking enregistre une dizaine de visites mensuelles, qui génèrent en retour un nombre
croissant d’appels téléphoniques. La pression commerciale s’est accrue formidablement.
Cette intensification se produit aussi à travers les canaux, l’innovation créant des canaux multiples,
newsletters et fils d’abonnement (RSS, Twitter) : l’embryon de la communication relationnelle passe par
la capacité d’envoyer de manière régulière une information pertinente sur l’actualité de la marque. Une
simple lettre d’actualité, un véritable magazine, une chronique. Les newsletters électroniques jouent ce
rôle parfaitement, devenant le trait d’union avec le site de la marque. Autour de ce modèle embryonnaire,
une autre couche de canaux se déploie : les liens RSS, les fils Twitter. Le monde publicitaire a
parfaitement pris conscience de cette évolution avec l’idée du « earned media », les campagnes payées
(« payed medias ») ne se suffisent plus à elles-mêmes : elles ont pour but d’amener les consommateurs
vers leurs médias propres (« own media ») mais surtout d’enrôler les consommateurs dans le processus
de diffusion des messages.
Si l’environnement digital permet d’accroître la pression commerciale, aussi bien en termes
d’acquisition que de fidélisation, rien de fondamental n’est changé, sauf une modification de la pression
optimale. Le coût du contact étant plus faible, son niveau s’accroît, et est amplifié par la concurrence. Si
l’hypothèse est juste, l’élévation de la pression dépasse le seuil d’acceptation des clients et développe
des comportements de résistance. Ils se traduisent par de l’irritation, fruit de la réactance, mais peuvent
aller jusqu’à des stratégies déterminées d’élimination et de filtrage des sollicitations.
Cette bataille du glaive et du bouclier a aussi des conséquences qualitatives intéressantes. Par exemple,
les newsletters ont succédé aux e-mails, la réponse des entreprises à la baisse des taux d’ouverture s’est
traduite par la recherche d’un contenu plus riche et plus attractif. L’évolution se poursuit avec
l’apprivoisement de méthodes moins intrusives telles les fils d’information à la Twitter ou à la Facebook.
L’intensification de la pression commerciale, qu’elle s’exerce pour conquérir de nouveaux clients,
maintenir les clients acquis ou mieux encore pour développer leur valeur, impose un changement dans la
nature de la communication : moins de slogans, plus de contenus, moins de persuasion mais plus de
conversations. On comprend la résurgence aujourd’hui de la notion de brand content (Bô et Guevel
2010), cette idée que la marque vit dans ses artefacts, que la marque existe par les contenus qu’elle
publie. L’impact sur le contenu se traduit aussi par un effort plus important en termes de ciblage, qui est
l’enjeu à la fois pour l’e-mail, mais aussi et surtout pour les liens sponsorisés. Le ciblage
comportemental et les techniques de retargeting en sont des exemples flagrants.
Cette évolution qualitative se retrouve aussi dans la conception des sites Web. Conçus d’abord comme
des vitrines, éventuellement des catalogues, ils connaissent une évolution éditoriale considérable qui est
marquée par deux éléments : ils prennent la forme des journaux – le modèle du blog – et trouvent leur
point d’entrée dans les moteurs de recherche moins que dans une page d’accueil. Si le Web de la
première génération avait la forme d’une encyclopédie statique, celui de la nouvelle génération a celle
d’un journal continu, d’un fil d’information incessant, qui fournit un contenu sans cesse renouvelé.
L’intensification de la relation que la baisse des coûts a engendrée amène en retour une transformation de
la nature de la communication.
3 L’hyper-individualisation
Une seconde conséquence de la non-neutralité des médias de la relation se manifeste dans
l’individualisation des interfaces. L’individualisation de la gestion de la relation client est au cœur de la
doctrine de la gestion de la relation client. Avant même que l’Internet ne se déploie, cette politique a été
promue par les visionnaires du one to one (Peppers et Rogers, 1991) qui ont souligné l’importance d’un
traitement individualisé des clients.
Là encore c’est la logique du gain de productivité apporté par la technique qui triomphe. Les premières
tentatives ont été le fait de l’industrie du marketing direct, et son développement est encore aujourd’hui
largement encouragé par les progrès de l’impression numérique. Ce qui obéissait à la production de
masse se décline massivement. L’environnement digital permet un degré très élevé de singularisation :
celui de l’individu, dans une situation, à un moment, pour une action.
Cette individualisation marche à merveille dans un type d’interfaces peu étudiées et pourtant largement
répandues : les comptes et les espaces client. Ces interfaces donnent une information totalement
personnalisée et exclusive de l’activité du client, au client lui-même, apportant un certain degré de
réflexivité, et lui apportant un certain degré de contrôle sur son propre comportement. Certains
observateurs les projettent en 3D dans les mondes virtuels que fréquentent les joueurs, y font intervenir
agents et avatars. Ils sont le plus souvent réduits à un compte où l’on retrouve ses données personnelles,
sous la forme de relevés, et un nombre d’options limité.
Les espaces clients présentent des caractères assez remarquables. Ils sont des boutiques sur mesure,
des espaces privatifs, construits à l’intérieur même de l’espace des sites Web. Dans le domaine
marchand, on a rarement connu ce type d’expérience – les loges au théâtre ou au stade, ou les salons
privés de certains restaurants en sont les exceptions. Encore que, dans ces cas, on ne permet pas le choix
du mobilier. Imagine-t-on disposer chez son banquier d’un bureau où l’on peut inviter son conseiller et
que l’on arrange à sa manière ? Imagine-t-on que chaque boutique soit construite selon les desiderata de
ses clients ? Un salon personnel que l’on use à la mesure de ses besoins. L’intime en est l’essence. Un
espace que l’on contrôle, qui nous est réservé. On pourrait y amener ses fleurs et ses tableaux, y faire
entrer des invités.
Son accès, sa gestion, son appropriation posent des questions fondamentales de sécurité, d’utilisabilité,
d’utilité, et d’identité. Ils sont cette chose qui fait la matière de la relation. Les espaces clients sont à la
relation ce que la chambre est à l’amour. Ils définissent le cadre. La maîtrise du design est essentielle
pour construire des espaces clients confortables, riches, utiles.
Mais la personnalisation ne produit pas toujours les effets escomptés. De nombreux consommateurs
préfèrent souvent un espace anonyme et commun. L’appeler par son nom, lui donner des détails dont il
n’aurait pas pensé que nous les connaissions, peut le faire sursauter. Il suppose que l’on a au préalable
recueilli des données que le client pensait intimes. L’excès de personnalisation suscite de l’inquiétude ou
au minimum témoigne d’une grande impolitesse. La personnalisation peut devenir rapidement une
intrusion. Des problèmes de vie privée sont posés (Kaplan 2010). Même initiée par le consommateur,
l’individualisation suppose que le client accepte de confier ses données personnelles à la marque.
Pour répondre à cette remise en cause de la vie privée, plusieurs approches ont été suggérées. Le
renforcement de la confiance est nécessaire ; la marque doit donner des garanties qu’aucune fuite n’est
possible et elle doit renforcer ses politiques de confidentialité en publiant et rendant accessibles des
chartes claires. Elle doit affirmer une éthique de la permission (Godin 1999) et plus encore est amenée à
redonner le contrôle des données au client.
Cependant, on s’aperçoit qu’en dépit d’une inquiétude manifeste, la résistance des clients à l’intrusion
est modérée. C’est le paradoxe de la privacy dont la rationalité tient à ce que les bénéfices de la
personnalisation étant immédiats, mais le risque d’un mauvais usage ultérieur étant différé, la balance
conduit les consommateurs à prendre le risque d’abandonner leurs données personnelles au prix éventuel
d’un certain degré d’anxiété.
Le marketing de la permission ne suffit pas, d’autres solutions techniques sont possibles : des tiers de
confiance, des systèmes d’identification distribués, des sceaux, et d’autres ressources de l’ingénierie de
l’identité numérique. Ces méthodes peuvent conduire à repenser l’organisation même des bases de
données. Un certain nombre d’initiatives vont dans ce sens, les plus radicales sont celles de ce CRM
inversé qui se dessine avec les outils de VRM : des outils qui permettent au client de manifester et de
concrétiser ses intentions en allant dans les bases des différentes marques chercher les données
nécessaires pour faire une comparaison. C’est le sens de l’approche encouragée par certains tels que Doc
Searl du Berkam center. Les moteurs de comparaison jouent actuellement ce rôle, on peut imaginer qu’ils
passent entièrement aux mains des clients. Dans cette optique encore imaginaire, on peut concevoir que
du côté de la marque, la gestion de la relation prenne un visage très différent de ce qu’on connaît. Il
faudrait prendre le virage de données publiques : permettre aux shopbot des consommateurs d’accéder
aux données des entreprises pour engager les transactions (caractéristiques produits, comptes bancaires,
éléments techniques, etc.).
Le risque de la personnalisation ne réside donc pas seulement dans les atteintes à l’intimité et à la vie
privée, mais aussi dans un relatif abandon de pouvoir au bénéfice du consommateur. Cette perte de
contrôle va au fond à contresens de la politique de gestion de la relation client qui vise justement le
contraire : en créant des dépendances et en isolant le client, même de manière consentie, un des buts
fondamentaux du CRM est de limiter les possibilités de choix. Un enjeu essentiel sera sans doute de
trouver, à travers les techniques, une solution d’équilibre entre l’intérêt des consommateurs et celui des
firmes.
Au-delà de la question du pouvoir dans la relation qui se cristallise dans la maîtrise des données
personnelles, la personnalisation obtenue par les artefacts électroniques pose aussi la question d’une
diminution de la valeur affective de la relation. Étant moins incarnée par les agents humains, dont la
littérature sur les services souligne l’importance, la relation peut voir sa qualité affective se dégrader.
Pour compenser, il importe de mettre en œuvre des dispositifs qui réalisent un véritable état de présence
sociale (Hassanein et Head 2007) et réduisent le sentiment d’être seul devant un automate. La présence
sociale se définit comme la conscience qu’une autre personne intervient dans la communication.
Médiatiser la relation par des interfaces électroniques, qu’elles soient les systèmes de self-care, qu’elles
prennent la forme d’automates vocaux, d’espaces clients ou d’applications pour smartphone pose un
problème particulier de design : comment, lorsque le client requiert cette présence, la lui faire sentir ?
Si le design des interfaces électroniques doit prendre en compte l’utilité et la facilité d’utilisation,
comme les travaux sur le modèle d’acceptation technologique (TAM) nous l’apprennent (Davis, Bagozzi
et Warshaw 1989), ainsi que d’autres variables telles que la jouabilité, l’esthétique, la confiance, et
comme des travaux récents le montrent, la liberté d’utiliser, ou non, ces canaux (Wu et Lederer 2009),
sans doute la priorité doit-elle résider dans cette « humanisation ». C’est ainsi, par exemple, que
l’utilisation d’agent virtuel est conçue pour pouvoir passer la main à un agent humain quand l’interaction
devient problématique, notamment lorsque des éléments conflictuels apparaissent dans la conversation.
Section 2 « SOCIALISATION »
L’expression Web 2.0 lancée par le cabinet O’Reilly depuis un peu plus de cinq ans a fait florès. Un
nouvel Internet est né ! Lancé dans la vision utopique d’une concorde où le consommateur créatif et
participatif participe à la grande démocratie de la consommation. Deux données principales caractérisent
les médias sociaux : les consommateurs financent la production de leur consommation ; et chacun diffuse
en boule de neige à la mesure de son intérêt. La troisième s’en déduit : la recommandation.
Les contenus sont produits par les utilisateurs, ils les conçoivent et les réalisent, et ils alimentent les
médias. Il s’agit de User Generated Content fondé sur des processus de crowdsourcing : c’est la foule
qui fournit les contenus. Ne demandant aucun retour, elle se paye de notoriété qui se traduit par des
indicateurs de popularité que l’on voit fleurir, des listes de diffusion aux boutons de partage : la
récompense de celui qui fournit du contenu est la célébrité qu’il obtient. Chaque individu dans la foule
peut aussi d’un clic informer des dizaines de personnes. La foule est une source de contenu mais aussi de
sagesse (Surowiecki 2004). Elle alimente et classe. Nous sommes à l’ère des ranking et de la
recommandation. Un bel exemple est ainsi celui de Foursquare, ce service qui permet sur son mobile de
trouver les bonnes adresses dans un rayon de quelques centaines de mètres où l’on se trouve : les lieux
sont renseignés par les utilisateurs, leur qualification se forge dans la somme des opinions, et la
distribution de badges et de titres (« maire ») récompense les plus actifs d’entre eux. Ces trois propriétés
de production, de diffusion et de hiérarchisation éveillent chez les marketeurs un intérêt particulier.
L’UGC peut conduire à repenser la manière dont on gère les bases de données clients. Plutôt que de
placer des capteurs insidieux qui saisissent l’ensemble des comportements, d’engager des processus
lourds de recueil d’informations à la manière des bases de données comportementales des années 1990,
la tentation peut être grande de proposer d’autres façons de faire, à la manière de Facebook : en donnant
l’initiative au consommateur et en le gratifiant de manière convenable. Cependant, ce ne sont plus les
mêmes acteurs qui recueillent les données. Dans le CRM traditionnel, celui des bases de données clients,
le contrôle est aux mains de la marque qui maintient des listes propriétaires. Avec l’UGC, ce sont des
plateformes sociales qui prennent le contrôle et fournissent les données aux marques par le biais d’API.
La capacité « virale » est encore plus évidente, elle affecte fortement les politiques d’acquisition. La
force des réseaux sociaux est finalement une généralisation des vieilles techniques de parrainage dont on
connaît l’efficacité. Mais il faut être nuancé, le bouche-à-oreille a des limites.
On a cru que ces réseaux avaient une capacité exponentielle de diffusion. Elle est exponentielle, mais
négative, comme le montrent les travaux de Watts, pour la raison simple qu’une dynamique de boule de
neige demande à ce que le coefficient de diffusion de chacun soit supérieur à 1 : le produit du nombre de
contacts et de la probabilité de retransmission du message. Si cette dernière est de 0,5 %, il faudra au
moins 200 contacts pour espérer générer plus d’une transmission. Le point de vue de Watts et Peretti
(2007) est que la meilleure stratégie reste celle de dissémination. Inutile de penser qu’en ciblant quelques
nœuds, même très influents, on puisse atteindre toute la population. L’effet de bouche à oreille ne joue
qu’à la périphérie, au grand dam des promoteurs du buzz marketing, il étend l’audience de 20 % à 100 %
en plus de la cible initiale (touchée par un média direct), mais ne correspond pas à ce que l’on peut
espérer. Il faut donc continuer à disséminer largement les messages pour espérer un relais important.
La troisième idée est celle de hiérarchie. Les travaux des spécialistes des grands réseaux montrent en
effet que leur constitution obéit largement à un principe d’attachement préférentiel. Les nœuds les plus
connectés ont une probabilité plus élevée que les autres de recevoir de nouveaux liens. Cette propriété
structure les réseaux sociaux selon des lois particulières, celles de la famille des lois puissance, qui
décrivent une distribution fortement inégale. Un très petit nombre de nœuds sont fortement connectés (par
exemple les individus qui ont plusieurs centaines, voire milliers d’amis sur Facebook) alors qu’un grand
nombre sont peu connectés (quelques dizaines d’amis) (Newman, Watts et Barabasi 2006). Les premiers
éléments jouent le rôle de hub et ce que l’on découvre est que leur rôle dans la transmission
d’information est moins de l’accélérer que de la faire passer d’une partie du réseau à une autre.
Les faits tels qu’ils commencent à se dessiner donnent un visage différent. Les opérations participatives
font participer peu de monde, la co-création reste souvent très marginale – il s’agit plus de mettre le
consommateur au travail –, les effets boule de neige du marketing viral s’épuisent très rapidement et sont
souvent imprévisibles. La pratique est éloignée de l’utopie, quand bien même celle-ci se renouvelle –
aujourd’hui avec les pratiques collaboratives, et dans une certaine mesure par les marketplaces. Une
plateforme telle qu’Amazon n’est pas qu’une base de clientèle de deux cents millions de clients, c’est
aussi une communauté de 2 millions de vendeurs.
Focus 4.1
Le cas de Rue89
Les chiffres publiés par VinceDeg sur Rue89 (« Riverains de Rue89, qui êtes-vous ? ») en 2008 :
600 000 visiteurs par mois sur Rue89 (d’après l’institut Nielsen).
45 000 utilisateurs enregistrés.
8 500 d’entre eux seulement se sont connectés sur leur compte en mai-juin 2008.
4 500 ont posté un commentaire au moins (sur la même période).
15 000 inscrits ont laissé un commentaire depuis la création du site, il y a un peu plus d’un an.
0,75 % des commentateurs (une trentaine) réalisent 80 % des commentaires.
Source : VinceDeg
Avec le Web 2.0, il n’y a pas de client isolé, ni même de segments distincts. Les audiences
interagissent. Elles se constituent dans une écologie fragile, les connaisseurs des systèmes dynamiques en
apprécient la nature, celle des interactions et des effets papillons. La communauté qu’on abreuve
quotidiennement d’informations dans une plateforme sociale interagit avec son cercle d’amis, qui sera
d’autant plus sensible à ces relais qu’il entend par ailleurs le bruissement de la marque. Dans cette
perspective, il n’y a plus de segments isolés, mais des groupes qui interagissent. L’action sur l’un a des
effets indirects sur l’autre, et le mix des médias doit avoir pour finalité de produire les interactions les
plus positives possibles.
Comprenons qu’avec cette idée il faut abandonner la conception traditionnelle de la segmentation pour
adopter un point de vue écologique. En segmentant, il ne s’agit pas d’isoler un groupe qui réagit de
manière homogène à un programme d’action donné, mais d’isoler des groupes qui ont un profil spécifique
d’influence. Le but pour chaque segment est d’obtenir un certain degré de recommandation qui influence
les autres segments.
Les médias eux-mêmes interagissent. L’opération de relation publique fournit aux sites Web la matière à
un contenu. Les articles et documents du site sont matière aux retweets et aux mises à jour des médias
sociaux, cette matière suscite des commentaires, des approbations et des actions. Les médias absorbent,
digèrent, transforment le contenu d’autres médias. Ils se hiérarchisent dans un rapport de production, de
transformation et d’autorité. Les blogs par exemple deviennent les éléments de référence qui fournissent
un contenu souvent condensé aux médias sociaux.
Figure 4.1 Structuration des réseaux sociaux autour du cœur de clientèle cœur
Le fait empirique est que la participation se distribue de manière inégale. Une infime minorité de
clients actifs produit l’essentiel des contenus. Ceux dont le niveau de participation est nul forment une
majorité passive. Cette pyramide ou échelle de participation réintroduit une idée de hiérarchie. En
conséquence, un certain ordre peut être décrit : puisque l’attention est sélective, et que la participation est
marginale, c’est une structure en cercles concentriques, qui distribue les moyens et les cibles, jouant de
toutes les interactions possibles selon le degré d’engagement. C’est ce principe qui motive par exemple
la stratégie fans first de Coca-Cola dans les médias sociaux : faire des fans les promoteurs de la marque
auprès du grand public. Les campagnes plus récentes reprennent ce principe en jouant et en systématisant
l’idée du partage.
Dans ce schéma de communication, un ordre général des canaux peut être dessiné. Le précurseur de
toute communication est très certainement l’événement. Ce peut être le lancement d’un produit, une fête,
une campagne, un rachat, une vente, des conférences, n’importe quoi qui peut être l’objet de
commentaires, de spéculations, de discussions.
Une matière à raconter une histoire. Une saga, un roman, un feuilleton, une épopée. Une geste, un conte,
une simple chronique. Un récit, un mythe, une fable. Une histoire. Mais il y a le support. Des images, des
textes, des films, des documents, des archives, cette mémoire dans laquelle on prend, on pique, que l’on
explore. Du contenu dans tous les cas. Le cœur de la communication devient le journal où les événements
sont racontés, des pièces à conviction doivent leur être associées. Vidéos, photos et autres document en
confortent l’édition. Un cœur qu’entoure la trame des réseaux sociaux qui rassemblent les fans, les
soutiens, les partisans, les amis, cette population qui rend le soin qu’on lui accorde en un pouvoir de
recommandation puissant.
Dans ce cadre, fidéliser c’est mobiliser les « fans » de la marque. Les médias ne sont pas pour autant
obsolètes, ils peuvent contribuer aussi à ce travail de mobilisation, même si le plus souvent leur rôle
restera, de manière traditionnelle, de renforcer la notoriété et l’image, de favoriser l’acquisition de
nouveaux clients. De nombreuses campagnes aujourd’hui ont pour finalité d’amener les consommateurs
vers les sites Web.
Dans cette logique de mobilisation, le but est naturellement d’encourager le prosélytisme, et faire des
clients fidèles les ambassadeurs et recruteurs de la marque. On notera que dans ce contexte, la distinction
entre politique d’acquisition et politique de fidélisation s’atténue dans la mesure où la fidélisation
devient un vecteur d’acquisition de nouveaux clients, de la même manière qu’on reconnaît depuis
longtemps le rôle critique de l’acquisition sur la fidélité des clients (Reinartz, Thomas et Kumar 2005).
Section 3 UBIQUISATION
La troisième vague d’Internet arrive avec la large diffusion des smartphones, dont la pénétration
approche les 60 % de la population à la fin 2010, accompagnée de celle des tablettes, e-books et jeux
vidéo, et dans un futur très proche celle des objets connectés dont les bracelets forment l’avant-garde.
Elle généralise l’accès à toutes les situations d’usage et tend ainsi vers une universalisation du réseau.
En tout point et à tout moment, il est possible d’être connecté au réseau, pour ne serait-ce que lire une
carte ou envoyer un signal de détresse. Cette universalisation qui passe par la différenciation des
terminaux conduit à un paradoxe très intéressant : plus nous sommes connectés, et plus l’information utile
est locale. L’intégration des réseaux, le caractère ubiquitaire que donne l’accès aux données du cloud,
quelle que soit l’interface employée : TV, smartphone, laptop, console de jeu, e-book, tablette, kiosque,
moins que de rapprocher des acteurs lointains, renforce les perspectives d’utilisation locales. Un Internet
pratique qu’on peut qualifier de trivial se met en place.
1 Le paradoxe du local
Partout mais en un seul endroit. L’universalisation de l’accès qui permet une quasi-ubiquité a une
conséquence intéressante : l’information la plus valorisée est celle relative à notre environnement
immédiat. Nous ne sommes jamais partout à la fois, et ce qui se passe quelques dizaines de mètres autour
de nous est plus important que ce qui se passe au loin.
Les technologies offrent désormais les moyens de répondre à ces intérêts. Ce sont les techniques de la
géolocalisation. Le GPS au premier plan qui, associé aux bases géographiques telles que celle de Google
Map, permet de qualifier la source des messages comme le fait si bien Twitter, et autorise la conception
de services qui s’adaptent au lieu où se trouvent les consommateurs. Des innovations telles que
Foursquare sont en train de fleurir. Ces plateformes recensent tous les lieux d’intérêts et l’intérêt que les
consommateurs leur témoignent. Elles donnent naissance à une multitude de nouveaux services. La
figure 4.3 illustre cette capacité d’associer les bases de données par des mashups, une carte et des
données de Foursquare.
Source : Weeplaces.com
Figure 4.3 Mashup Google Map et Foursquare – le ratio homme/femme à New York
Même si le nombre d’utilisateurs est réduit, les traces, les indications s’accumulent et couvrent la
plupart des lieux, accroissant l’utilité de l’information et entraînant la majorité de ceux qui ne contribuent
pas à la documentation de la carte. On comprend facilement qu’une adresse mieux étiquetée qu’une autre
risque d’emporter les choix et que pour les marques il va falloir trouver un moyen de s’y faire une place.
Pour donner une idée de la couverture nécessaire pour l’espace français (550 000 km2), à raison d’une
densité de 10 étiquettes à l’hectare, il faut 550 millions d’éléments. C’est ce que Twitter vient de
produire à l’été 2010. Les quelques millions d’utilisateurs de Foursquare, de Panoramio et d’autres
plateformes alimentent ainsi une base de données exhaustive et en renforcent l’utilité pour les
consommateurs les moins impliqués. Le crowdsourcing prend ici une importance déterminante : il
construit la valeur du service.
Pour le commerce et la gestion de la relation client s’organisent des espaces nouveaux où il va falloir
être présent soit simplement pour se signaler, soit pour délivrer une information contextuelle. Les cartes
numériques consultées par un GPS, un Webphone ou un PC ont toutes les chances d’être de nouveaux
supports pour l’affichage des marques à mesure que se diffuse leur usage. Les publicités extérieures sont
en quelque sorte intériorisées. Parallèlement, l’affichage extérieur qui peu à peu devient électronique
communique par les flash codes, et sans doute bientôt par d’autres techniques, avec nos assistants. La
carte et le territoire tendent à se confondre.
Au sein des zones commerciales, par l’interaction avec les points de contacts électroniques, un champ
immense s’ouvre pour la promotion digitale dont le ciblage désormais est totalement contextuel. Il a déjà
été largement installé au point de contact de la caisse, il s’installe dans les caddies (self-scanning) et
risque de se répandre dans les bornes électroniques dispersées dans les rayons sous la forme de balise ou
d’étiquettes électroniques.
À mesure que le territoire est cartographié et tracé, c’est à l’échelle locale, dans les points
d’interaction avec le monde naturel, que l’information trouve sa pleine valeur. L’espace de la bataille
sera un peu moins sur les vastes plateformes du Web, de plus en plus dans les interactions locales, les
premières soutenant les secondes. L’interaction avec l’espace physique et le lieu dépend des canaux :
RFID, NFC, Bluetooth, Flashcode facilitent l’interaction avec des objets localisés. La géolocalisation est
la clé du système : Wi-Fi, GPS, 3G et les cartes forment le centre du système, Google Maps
principalement. Le « sans contact » est aujourd’hui l’enjeu des systèmes de paiement.
Voilà qui va renouveler considérablement les perspectives ouvertes au début des années 2000 par le
géomarketing. À la question de la localisation optimale des points de vente, s’ajoute celle plus essentielle
de la gestion des interactions locales. La capacité des systèmes CRM se définira de plus en plus comme
leur aptitude à distribuer de manière contextuelle et localisée le message et l’offre utiles au client mais
aussi aux agents commerciaux.
EN CONCLUSION
L’environnement digital, s’il propose de nouvelles opportunités à la gestion de la relation
client en générant de nouveaux services, en permettant une communication plus contextualisée,
en offrant une disponibilité de tous les instants et en tout lieu, amène aussi de nouveaux risques
pour l’entreprise :
L’environnement digital incite à intensifier et à individualiser la communication au risque de
susciter des résistances et un sentiment d’intrusion de la vie privée.
Il peut réduire la qualité affective de la relation en encourageant l’usage d’interfaces
automatisées et perçues comme déshumanisées.
Il donne un nouveau pouvoir de choix au consommateur.
Il suscite de nouveaux critères de segmentation : celui du degré de participation et
d’engagement.
Il génère un filtrage de la communication, réduisant l’accès au client.
Il génère une surcharge informationnelle.
De manière synthétique, l’environnement digital affecte la gestion de la relation de deux
manières. Elle en systématise les principes : plus que jamais il est nécessaire et possible de
renforcer la relation en lui donnant une matière et un contenu, plus que jamais il est nécessaire
et possible d’individualiser cette relation, plus que jamais il est nécessaire et possible
d’accroître le rendement des politiques d’acquisition. Mais en même temps, ce nouvel
environnement en fragilise les conditions de réalisation. La relation se fragmente,
l’individualisation sépare, et l’acquisition est de plus en plus difficile. Pour faire face à ces
paradoxes, la doctrine de la gestion de la relation client nécessite par conséquent un certain
nombre d’inflexions et des réorientations dans sa mise en œuvre.
La base de données clients reste toujours la colonne vertébrale de la stratégie et le système
CRM est toujours aussi nécessaire, mais il doit être élargi en véritable système de Customer
Community Management. Des systèmes ouverts – à d’autres systèmes d’information, y
compris les systèmes d’information des clients – sont nécessaires. L’unité de l’individu a peut-
être perdu de sa pertinence, et c’est sans doute celle de microréseau qui doit être prise en
compte : celui du client et de son entourage.
La cohérence des programmes relationnels est un élément clé, mais plus importante encore est
la capacité de construire des structures relationnelles solides, durables, qui prennent la forme
d’espaces clients. Le design des interfaces joue dans ce domaine un rôle fondamental : utilité,
facilité d’utilisation, jouabilité, sensorialité, contrôlabilité, présence sociale en sont les traits
principaux. L’enjeu est la confiance dans les interfaces en plus de la confiance dans la marque.
Structurer les clientèles en une véritable société, bien au-delà de l’illusion participative.
Certains clients sont des aficionados, d’autres des visiteurs occasionnels mais reconnaissants,
d’autres militent, d’autres critiquent, certains recommandent, certains sont proches, d’autres
sont loin, certains veulent se rapprocher, d’autres juste garder un contact. Ils peuvent vouloir se
retrouver, échanger, et réclamer. Si l’idée de communauté de marque reconnaît qu’une fraction
des consommateurs peut renforcer son adhésion à la marque en partageant avec les autres
amateurs son amour de la marque, l’enjeu va désormais au-delà, il est d’organiser les
clientèles, de les structurer, de les hiérarchiser, d’animer les interactions entre les différentes
populations et les parties prenantes.
Dans ce flux abondant de l’information produite par les médias électroniques, la marque doit
assurer une présence continue par son contenu. Vidéos, slides, white papers, articles
scientifiques techniques, animations, blogs, images, musiques. La production de contenus
associés à la marque est nécessaire pour nourrir la relation.
Donner au client les moyens de contrôle de sa propre expérience de consommation est un enjeu
essentiel pour ne pas perdre le contrôle du consommateur.
L’environnement digital fait évoluer la relation client dans une direction finalement assez
lisible. Le contrôle des canaux one to one, même pleinement interactifs, n’est plus suffisant.
C’est l’environnement social lui-même qui doit être pris en charge : créer des espaces publics
où les clients se retrouvent, échangent, s’organisent, prennent la parole, en créer d’autres qui
servent de points de référence, catalogues, encyclopédies, vitrines officielles, et tolérer les
groupes qui se constituent en marge de l’édifice : associations, hackers et autres activistes.
Organiser les communautés est le nouveau souci du CRM. La question du respect (de la vie
privée, des opinions, du niveau de sollicitation souhaité) est plus que jamais fondamentale
pour maintenir le niveau de confiance à travers la multiplicité des canaux et le tissu social. La
continuité, la richesse, l’instantanéité du contenu et des transactions en forment une troisième
nécessité. Structurer la communauté, respecter l’intimité, enrichir la conversation et donner le
contrôle sont désormais les impératifs d’une politique de gestion de la clientèle actualisée.
Chapitre
5 Achat et Internet
Thomas STENGER,
Maître de conférences, IAE de Poitiers, laboratoire CEREGE
et chercheur associé à l’Institut des sciences de la communication du CNRS
Aurélia MICHAUD-TRÉVINAL
Maître de conférences, IUT Techniques de commercialisation,
Université de La Rochelle, laboratoire CEREGE
Objectifs
■ Découvrir et analyser les processus de recherche d’information des consommateurs et les nouveaux
parcours clients.
■ Connaître et analyser les comportements des consommateurs sur les sites marchands.
■ Analyser et concevoir les outils de recherche et d’aide à la décision d’achat en ligne.
■ Étudier le rôle des avis de consommateurs et recommandations en ligne.
■ Analyser et concevoir les stratégies de prescription en ligne sur les sites marchands.
Sommaire
Section 1
Enfin, on retiendra que l’interactivité peut avoir lieu en ligne ou en face-à-face. Elle ne peut être
réduite à un échange d’information ou à une dimension de contrôle sur cet échange. Elle n’est pas non
plus une propriété technique d’un outil ou d’un format. Dans le cas de l’achat en ligne, l’interactivité
correspond à un processus de co-construction entre l’acheteur et un système interactif d’aide à la décision
qui peut avoir pour objet toute facette de la décision d’achat – par exemple l’ensemble de références, la
structure des préférences, la structuration du problème décisionnel, la sélection d’alternatives, de critères
décisionnels, etc. (Stenger, 2006).
Section 2
Les recherches ont évolué, des premières études qui se focalisaient soit sur la navigation soit sur
l’achat en ligne, à de nouvelles approches des consommateurs en e-marketing prenant plus largement en
compte leurs expériences vécues. Les perceptions des internautes face aux sites marchands sont
également analysées, essentiellement en termes de qualité, de confiance et de satisfaction.
Les études consacrées à l’achat sur Internet soulignent toutes les fortes potentialités d’interactivité et
les possibilités d’accès et de contrôle de l’information par le consommateur grâce à des outils d’aide à la
décision d’achat en ligne. Les vertus de ces outils, souvent qualifiés d’interactifs, renvoient
essentiellement à des logiques décisionnelles de tri, de classement, de comparaison et de
recommandation. Les lecteurs intéressés par les fondements et méthodes de l’aide à la décision sont
invités à consulter les travaux de Roy (1985), Roy et Bouyssou (1993), Bouyssou (2006).
Focus 5.1
Tri et recherche multicritère
La page d’accueil d’eBay.fr propose plusieurs outils de tri pour accéder aux produits mis en vente
avec un moteur de recherche libre et un menu déroulant par catégories, une arborescence composée
de liens hypertextes (toujours par catégorie de produits) et quelques photos de produits
correspondant aux « listes d’intérêts très recherchés » sur eBay. Le visiteur est invité à créer son
propre « fil shopping personnalisé » afin de bénéficier d’une personnalisation de la page d’accueil.
Leboncoin.fr a opté pour la simplicité et l’approche par la localisation géographique avec une
simple carte de France (et des liens vers les régions françaises). La page d’accueil d’eBay reprenait
également ce principe il y a quelques années avant d’être abandonné.
Le cas des cavistes en ligne est très représentatif des problématiques marketing associées à la
recherche multicritère. Certains sites proposent de trier les vins par couleur, par pays et/ou par
région, ce qui est simple et adapté au grand public, mais trop vague pour les connaisseurs.
ChateauOnline, par exemple, après avoir essayé différentes formules, ne propose plus qu’un moteur
de recherche libre. À l’inverse, le site Wineandco propose un moteur de recherche détaillée très
étoffé (jusqu’à 9 critères) qui distingue la région et l’appellation (la plupart des consommateurs font
l’amalgame) et offre la possibilité d’acheter en primeurs (le principe étant seulement connu des
spécialistes).
Le marché de l’immobilier a été reconfiguré par Internet. Les sites Web tels que Seloger.com,
Explorimmo.com ou Pap.fr offrent l’accès en ligne à des bases de données d’annonces à l’aide de
moteurs de recherche très détaillés. Le marché est tellement vaste que les moteurs de recherche
multicritères correspondent à de véritables questionnaires, très précis, qui reposent notamment sur
les critères suivants : localisation, budget, surface, type de bien (maison, appartement, villa,
bureau…), nombre de pièces, de chambres, critères supplémentaires (nouveautés…), critères
avancés (terrain, ascenseur, type de chauffage, de cuisine, piscine…), etc. Ils se révèlent plus ou
moins complexes à l’usage selon les compétences de l’acheteur et la maturité de son processus
décisionnel. Par ailleurs, un outil d’aide à la décision multicritère implique une pondération de ces
critères (impliquant ainsi une compétence et une plus forte charge cognitive) ce que les outils
proposés sur le Web font finalement rarement.
2 Les outils de rangement ou classement
Les internautes ont souvent recours à des outils offrant la possibilité de classer les offres, par exemple
du moins cher au plus cher, par meilleure vente ou par ordre alphabétique. L’outil intervient généralement
lorsque l’internaute consulte une sélection de produits, il s’agit donc d’une phase intermédiaire du
processus décisionnel : après la définition du problème et avant le choix. Un pallier est franchi en terme
d’aide à la décision par rapport aux outils précédents qui se « contentent » de répondre à la demande de
l’utilisateur sous l’angle de la recherche d’information. Ici, l’aide à la décision (AD) est plus avancée, le
système intervient davantage : il ordonne, classe les produits ou les informations.
REMARQ UE
Certains sites Web affichent la possibilité de « trier » alors qu’il s’agit de rangement. Le « tri par prix » par exemple proposé par de
nombreux sites pour classer les produits par prix croissant ou décroissant… n’est pas un tri, mais bien un classement (ou rangement). Le
terme « filtrer » est parfois employé par les sites marchands, toujours avec une logique de classement.
Allez sur les sites Web marchands de votre choix parmi les exemples cités dans ce chapitre : Amazon, Fnac, Monsieurgolf, Golfplus,
PriceMinister, Madeinsport, WineandCo, ChateauOnline, Zalando.fr… et identifiez les outils de tri et de rangement. Vous pouvez constater
plusieurs abus de langage du point de vue des problématiques de l’aide à la décision…
Si la plupart des critères de rangement reposent sur des dimensions objectives et incontestables (taille,
prix, couleur, âge, genre, etc.), le rangement peut être effectué sur la base d’une évaluation par le vendeur
lui-même (c’est le cas par exemple de Devismutuelle), par des internautes (sur Zalando.fr, Darty.fr,
Fnac.com, Laredoute.fr) ou par des tiers prescripteurs en position d’expert, de critique. L’aide à la
décision est donc double puisqu’au rangement est associée une appréciation de l’offre. La section 4
détaille cette démarche qui s’inscrit dans le cadre d’un rapport de prescription en ligne. Notons toutefois
que certains responsables de sites marchands déclarent vouloir éviter la comparaison et le classement
des produits afin d’éviter tout conflit avec les fournisseurs qui se retrouveraient mal classés.
EXEMPLE
Ainsi, Darty propose pour la plupart de ses rayons de « cocher et comparer les caractéristiques des produits » pour 2 à 4 modèles. Il est
même possible d’imprimer cette comparaison, encourageant ainsi la réflexion mais aussi l’achat offline. La page de résultats présente un
tableau comparatif (ou matrice comparative).
L’aide à la décision apportée intervient à plusieurs niveaux. D’une part, l’outil effectue une
comparaison des caractéristiques communes en indiquant des valeurs précises sur chacune d’entre elles
(par exemple la taille de l’image pour un vidéoprojecteur). Cela permet non seulement de comparer les
offres, mais aussi d’apprécier les valeurs elles-mêmes (par exemple une taille d’image de 28 à 82 cm
est-elle une bonne performance pour un vidéoprojecteur ?). La comparaison avec d’autres
vidéoprojecteurs facilite la formation d’une opinion et potentiellement d’une meilleure expertise dans la
catégorie de produit). D’autre part, la mise en évidence des matrices comparatives permet à l’internaute
de découvrir de nouveaux attributs et des critères décisionnels qui lui étaient peut-être inconnus
auparavant.
Les sites Web offrent rarement de tels outils de comparaison. Plusieurs explications peuvent être
avancées. Tout d’abord, les e-commerçants éprouvent des réticences de fond à engager leurs visiteurs
dans des démarches comparatives. Ariely et Lynch notaient déjà en 2000 le manque d’interactivité et
d’aide aux consommateurs sur Internet, analysant cela comme une stratégie défensive des e-marchands,
qui redoutent de voir les internautes concentrer leurs préoccupations sur le prix. Ensuite, les coûts et les
ressources associées à la conception de systèmes de comparaison sont élevés. Ils impliquent une base de
données produits actualisée et qualifiée, puisque chaque offre doit être appréciée sur l’ensemble de ses
attributs. Les systèmes de comparaison constituent un exemple typique de mobilisation des systèmes
d’information marketing qui ne se cantonne pas à un usage interne (i. e. pour les marketers) mais qui sont
également dédiés à l’aide à la décision des consommateurs grâce au site Web marchand. Enfin, la
comparaison peut également être perçue comme une source de conflit avec les fournisseurs.
Des sites Web se sont spécialisés dans la comparaison des produits et services. Ils peuvent être
qualifiés de « comparateurs » généralistes ou spécialisés dans une catégorie de produits. Un examen de
ces sites révèle que la comparaison est quasi exclusivement monocritère et centrée sur le prix (Stenger
2009). En fait, il s’agit davantage d’outils de rangement que de comparaison. De véritables comparateurs
devraient être capables de proposer des comparaisons multicritères et pas seulement centrées sur le prix.
Certains sites sont conçus dans cette logique (cf. LesFurets.com pour l’assurance ou Devismutuelle.com).
Les sites comparateurs sont confrontés à d’autres problèmes, par exemple la frontière juridique est
parfois ténue entre comparaison objective et publicité comparative. Enfin, l’objectivité de la
comparaison ou du classement établis n’est pas évidente. La direction générale de la consommation, de la
concurrence et de la répression des fraudes (DGCCRF) a examiné les comparateurs de prix sur Internet à
plusieurs reprises (2007, 2012). Les résultats sont sans ambiguïté : les comparateurs manquent
singulièrement de transparence et leur modèle économique va même souvent à l’encontre d’une
comparaison objective.
EXEMPLE
L’indice de similarité entre la saison 1 de Dexter (série américaine qui raconte la vie ordinaire d’un serial killer et sa construction
identitaire) et la saison 2 ou 3 de cette même série est naturellement très élevé. L’indice de similarité entre les séries Dexter et Plus belle
la vie (série française familiale) est plus faible. Celui entre Dexter et ses consœurs américaines diffusées par Showtime, Californication
ou Weeds, est plus élevé. Le recours à ce type de système permet de dire aux internautes que : « les gens qui aiment Dexter aiment aussi
Californication et Weeds ».
Les moteurs des systèmes de recommandation sont composés d’outils de filtrage d’information
individuels et collaboratifs. Les données utilisées pour nourrir le système sont constituées par une
agrégation des comportements d’achat ou de la navigation de précédents visiteurs. Il s’agit d’automatiser
la recommandation et la personnalisation. Oufaida et Nouali (2008) dressent un état de l’art dans le
contexte du Web 2.0 et distinguent le filtrage à base de contenu, le filtrage collaboratif et les modèles
hybrides.
La démarche peut impliquer la collecte des préférences déclarées par les clients, par exemple par
questionnaire (ce qui est généralement la conception retenue en informatique) ou être transparente (à
partir de la navigation et/ou des achats sur le site marchand). Murray et Haübl (2009) plaident en faveur
de ces outils qui permettent de personnaliser les recommandations sans interroger directement les
utilisateurs à l’instar du système de recommandation d’Amazon qui est sans doute le plus connu et l’un
des plus sophistiqués (cf. annexe pour une analyse détaillée).
EXEMPLE
Les clients de la Fnac par exemple, connaissent bien les recommandations du type : « les internautes ayant acheté… ont également
acheté… ». Amazon procède également sur la base des mots clés utilisés dans son moteur de recherche : en affichant les « mots clés
inspirés de produits similaires » et encourage ainsi l’exploration en ligne. Amazon propose aussi « les clients ayant acheté… ont également
cherché… ». Les « autres articles » ou les « artistes liés », pour poursuivre l’exemple de la Fnac, s’appuient sur des recommandations
élaborées par le vendeur lui-même, à partir d’un codage de sa base de données produits par catégories, par auteur (dans le cas de livres,
de la musique ou des films par exemple) – cf. annexe pour plus de détails.
Il est essentiel de bien distinguer les recommandations du type : « nous vous suggérons également » et
« les internautes apprécient également » car la source de la recommandation est distincte. Dans le
premier cas, le site marchand s’engage, en tant que conseiller, en tant que prescripteur. Dans le second, ce
sont les internautes qui sont instrumentalisés par le site en tant que prescripteurs.
Focus 5.2
Agent de recommandation et matrice comparative : résultats
d’expérimentation
La recherche menée par Häubl et Trifts (2000) sur les « aides interactives à la décision des
consommateurs » est pionnière. Elle est présentée ici car elle pose les bases des intérêts et enjeux
de tels outils en e-marketing et des recherches menées depuis lors sur ce thème.
Häubl et Trifts proposent une classification des agents d’achat interactif basée sur la distinction
suivante : l’outil est conçu pour déterminer « quoi acheter » ou bien il est conçu pour savoir « à qui
acheter » ou « où acheter ». Il s’agit de la dichotomie traditionnelle employée en marketing entre
choix du point de vente et comportement dans le point de vente.
Ils comparent deux outils qui correspondent respectivement à deux étapes décisionnelles
successives : un agent de recommandation et une matrice de comparaison.
L’agent de recommandation permet au consommateur de mieux apprécier l’ensemble des alternatives
possibles dans un environnement d’achat en ligne à partir d’informations formulées par le
consommateur sur ses préférences et ses critères de choix (sa fonction d’utilité). C’est donc un outil
qui intervient dans la phase initiale de découverte de l’offre disponible. L’agent utilisé produit une
« liste personnalisée d’alternatives recommandées », basée sur trois types de paramètres fournis par
le consommateur : la pondération des attributs, le niveau minimum requis par attribut, le nombre
maximum de produits à paraître dans la liste. Une fois les attributs définis et pondérés, l’agent
propose une liste avec un classement et des scores selon les préférences déclarées par le
consommateur1.
La matrice comparative a pour objectif d’aider le consommateur à faire des comparaisons poussées
parmi les alternatives sélectionnées. Elle est conceptualisée comme « un outil interactif qui assiste
les consommateurs pour faire des comparaisons approfondies parmi les alternatives qui paraissent
les plus prometteuses d’après la première recherche » (idem). Elle apparaît donc dans une deuxième
phase. L’outil permet à l’acheteur d’organiser l’information sur les attributs de plusieurs produits
dans une matrice « alternatives x attributs » et de sélectionner toutes ces alternatives classées par
attribut » (ibid.). Les sites de Darty, la Fnac ou Devismutuelle offrent un exemple de comparaison
par attribut.
Les résultats des expérimentations menées par Haübl et Trifts2 indiquent que les deux outils testés
réduisent les efforts du « consommateur décideur » en termes de recherche d’information mais
augmentent la qualité des ensembles de considération3 ainsi que la qualité des décisions. L’impact
est donc doublement positif. Il y a à la fois allégement de la charge cognitive et amélioration de la
qualité décisionnelle. Haübl et Trifts précisent que, dans leur expérimentation, les outils utilisés sont
de très haute qualité et que, sur Internet, les systèmes souffrent d’imperfections et de biais (biais qui
peuvent éventuellement être volontaires).
Les aides interactives à la décision permettent idéalement aux consommateurs de prendre de meilleures
décisions tout en fournissant moins d’efforts. Il y a quelques années, Ariely (2000) signalait que cette
meilleure qualité décisionnelle s’accompagnait parfois d’une surcharge cognitive. Aujourd’hui, de
nombreux travaux montrent que les agents de recommandation peuvent à la fois réduire les efforts
(cognitifs en particulier) et améliorer la qualité de ces décisions d’achat. Haübl et Murray (2006) notent
toutefois que cette aide peut être ambiguë car elle destinée à l’acheteur… ou au vendeur. Ils parlent dans
certains cas d’« agent double » lorsque les outils ont le potentiel d’aider mais aussi d’influencer les
acheteurs dans leur prise de décision d’achat.
L’impact des agents de recommandation sur les décisions d’achat est bien réel. La probabilité d’achat
des produits recommandés serait deux fois plus élevée que pour les autres produits et leur influence serait
supérieure aux recommandations réalisées par des experts humains (Senecal et Nantel, 2004). Par
ailleurs, l’impact des recommandations ne se limite pas à l’achat en cours et peut être durable, les
acheteurs mobilisant les recommandations lors d’achats ultérieurs (Häubl et Murray, 2003).
En 2009, Murray et Haübl déplorent toujours le fait que les agents de recommandation n’aient pas été
davantage adoptés par les acteurs de l’e-commerce. Ils estiment qu’il faut les rendre plus faciles à
utiliser. Cela passe par une amélioration des interfaces et des modes d’interaction et implique ainsi la
coopération d’autres spécialistes, en management des systèmes d’information, informatique,
psychologie… L’objectif étant de rendre les systèmes plus humains.
Certains sites ont investi dans la conception d’agents virtuels, parfois qualifiés d’agents intelligents. En
pratique, ces outils ressemblent pour l’instant davantage à des interfaces ludiques de « foire aux
questions » (FAQ) qu’à de véritables outils de recommandation. Ils répondent aux questions posées par
les internautes dans une démarche de recherche d’informations. Ils jouent un rôle positif en termes de
confiance vis-à-vis du site marchand, d’intentions d’achat et d’intentions de recommander le site
(Lemoine et Notebaert, 2011). Des recherches ont montré que les gens apprécient d’interagir avec des
systèmes informatiques qui simulent l’interaction humaine comme les agents logiciels qui incorporent la
gestuelle des individus, une apparence humaine, le langage naturel (Häubl et Murray, 2003). Le rôle des
avatars en tant qu’agents virtuels de vente semble à ce titre valorisé par les consommateurs ; ils
renforcent la satisfaction vis-à-vis du commerçant, l’attitude vis-à-vis du produit et l’intention d’achat
(Holzwarth et al., 2006) – cf. Garnier, Poncin, 2013 pour une synthèse consacrée aux avatars en e-
marketing. Leur rôle ne doit cependant pas être surestimé car les attentes des internautes sont renforcées
par la présence de ces outils… ce qui peut générer de la déception.
EXEMPLE
Le lecteur peut converser avec Emma (MMA et La Redoute), Clara (Fnac), Anna (Ikea), Léa (Voyages SNCF, Paypal), et pourquoi pas
participer aux élections de Miss Client qui décernent chaque année le prix du meilleur agent virtuel.
Section 4
Les prescriptions en ligne, les recommandations des internautes sur Internet et le bouche-à-oreille
électronique (word-of-mouse) ont fait l’objet de travaux récents. Leur influence sur les comportements
d’achat et leur éventuel management intéressent à la fois les chercheurs et les praticiens du marketing.
On distingue respectivement les prescriptions de critiques « officiels » et les commentaires des
internautes. Deux perspectives complémentaires permettent d’appréhender ce phénomène. La première
analyse les relations et les savoirs échangés entre vendeurs, acheteurs et prescripteurs, dans le
prolongement d’une théorie de la prescription (Hatchuel 1995, 2010). La seconde s’inscrit dans la lignée
des recherches sur l’influence des médias et le bouche à oreille (Katz et Lazarsfeld 1955).
Focus 5.3
Trois formes de prescription fondamentales
Trois formes fondamentales de prescription, de complexité croissante et correspondant à trois
grands types de savoirs (manquants), doivent être distinguées : la prescription de fait, la prescription
technique et la prescription de jugement où l’intervention du prescripteur sur l’échange et sur le
processus décisionnel de l’acheteur va crescendo.
La « prescription de fait » apporte une connaissance plus grande sur l’état d’une chose ou de la
prestation acquise. Par exemple, ce bijou est une bague en or 750/1 000 (18k) de 0,99 gramme avec
0,0015 carat de diamants. La qualification de cet état est un savoir déjà détenu par l’acheteur mais
qu’il ne peut constater lui-même. Dernier aspect central : ce savoir ne peut être contesté (dans
l’exemple ci-dessus, il est en effet difficile de contester le poids en or ou le nombre de carats). Il
s’agit de dire « la vérité » sur des poids, des mesures, les propriétés d’aliments, de médicaments,
etc.
Lors d’une « prescription technique », l’expert ne se prononce pas seulement sur un état mais sur des
manières de faire, des techniques ; il va intervenir dans le processus d’achat en apportant des
notions initialement inconnues de l’acheteur. Par exemple : désigner des marques alternatives ou des
vendeurs inconnus, indiquer de nouveaux usages, le prévenir face à des dangers, des nuisances ou
des malfaçons. Le prescripteur comble ici une incertitude plus complexe qui va jusqu’à l’ignorance
des pratiques possibles. C’est typiquement le rôle de l’ingénieur, de l’architecte, du médecin. Il
fournit une carte plus riche du territoire à explorer ou un ensemble d’itinéraires pour aller vers un
point fixé par l’acheteur. Dans ce cas, l’acte d’achat se mue en un processus de délégation et de
contrôle.
Dans les deux formes précédentes, l’intervention du prescripteur porte sur la chose à acquérir ou sur
ses logiques d’utilisation. L’acheteur reste encore maître de son appréciation sur ce que serait la
jouissance ou l’utilité qu’il veut en retirer.
Avec la « prescription de jugement », la chose à acquérir mais aussi son mode d’appréciation sont
définis et évalués par le prescripteur. Les étoiles du guide Michelin et la plupart des revues de
consommateurs définissent des critères de jugement qui étaient inconnus ou non formulables pour
l’acheteur. La délégation du processus décisionnel vers le prescripteur est ici très élevée. Il y a une
double logique d’évaluation de l’offre et de définition des critères d’évaluation. Le cas du recours à
une prescription de jugement lors d’un achat en ligne est particulièrement riche puisque l’acheteur
dispose d’une plus grande liberté de recourir à des prescripteurs externes (en ouvrant simplement un
nouvel onglet sur son navigateur). L’acheteur n’a pas à redouter la « pression psychologique » que le
vendeur ne manque pas d’exercer en face-à-face. Les prescriptions de jugement sont ainsi
particulièrement propices à la vente en ligne.
Source : d’après Hatchuel (1995, 2010) et Stenger (2006, 2008).
Tableau 5.2 Les sept dimensions pour appréhender la prescription dans la relation d’achat en ligne
La forme reprend les idéaux types exposés dans le repère 8.3 : prescription de fait, technique et de
jugement. L’intensité des prescriptions est variable. Elle est appréciée selon le degré de structuration
potentielle du processus de décision d’achat. Plus la décision est déléguée vers le prescripteur, plus le
degré d’intensité est élevé. Sur Allocine.com par exemple, une critique telle que « voici le meilleur film
de l’année » ou une note de 19/20 sont d’une forte intensité tandis qu’« un film agréable » ou une note de
13/20 sont toujours prescriptifs mais d’une plus faible intensité.
Le recours à la prescription dans la relation d’achat en ligne renvoie à l’idée d’intervention du site Web
vis-à-vis du processus de décision de l’acheteur. En pratique, les sources de cette intervention sont
multiples. Il peut s’agir :
de prescripteur(s) tiers : ce sont le plus souvent des prescripteurs officiels, des experts, des guides
(tels que Parker pour le vin, le guide Hachette ou le guide Michelin) ;
du vendeur lui-même, c’est-à-dire du site Web qui rédige des avis critiques, affiche des notes, et
revendique ainsi le rôle de prescripteur légitime (par exemple Devismutuelle.com, 1855.com, la
Fnac également avec les conseils des « vendeurs experts ») ;
de clients, instrumentalisés comme prescripteurs, par le vendeur (par exemple « les préférés de nos
clients », « les meilleures ventes », « les clients qui ont acheté… ont également acheté… ») ou
s’exprimant délibérément pour exprimer leur avis sur le site (par exemple Amazon.fr, Fnac.com,
RueDuCommerce.fr).
Les sites marchands « jonglent » ainsi avec les prescripteurs. Ils se mettent en scène en tant qu’experts
dans la catégorie de produits ou bien, au contraire, s’effacent derrière des prescripteurs officiels. La
combinaison des deux est également possible, laissant au visiteur le choix du prescripteur en qui il aura
le plus confiance (cf. exemple dans le Focus 5.4). Cette combinaison est d’ailleurs souhaitable, pour le
vendeur, si le prescripteur tiers ne va pas dans le sens qu’il souhaite. L’identification du prescripteur
effectif est essentielle. Cette attribution de la prescription à un acteur, prescripteur par définition, même
s’il joue ce rôle symboliquement, enrichit fortement l’étude des relations d’achat en ligne et des pratiques
des e-commerçants. Cette question occupe en effet une place centrale dans la conception de la gestion de
la relation client car il s’agit d’un élément très distinctif de la stratégie de vente en ligne.
Pour chaque type de prescription, la compétence requise chez l’acheteur pour acquérir les savoirs est
variable. Cette dimension de compétence chez l’acheteur est cruciale pour toutes les catégories de
produits techniques ou culturels où le prescripteur doit non seulement prescrire des savoirs, mais veiller
à la « pédagogie » de la prescription. Certaines prescriptions, telles que les notes (par exemple 4 étoiles,
5 cœurs ou 95/100), ne requièrent qu’une très faible (voire aucune) compétence dans la catégorie de
produits, ce qui explique leur popularité. Nul n’est besoin d’être un spécialiste (en informatique, en
matériel sportif ou en chaînes hi-fi) pour comparer des produits selon le nombre d’étoiles décernées par
le prescripteur. D’autres impliquent une compétence plus importante.
EXEMPLE
Une critique d’expert pour expert : « Sans être en rupture avec le précédent, mais résolument moins french touch, IRM est un album très
Beck. La patte du producteur californien sied à merveille à la voix douce et mélodieuse de Charlotte Gainsbourg qui nous offre, en anglais
et aussi en français – ce qui est plus rare –, des textes vertigineux ou émouvants dont une perle de Jean-Pierre Ferland ».
La portée de la prescription est également variable. Elle peut être locale et n’être valable que pour un
produit ou, au contraire, plus vaste (par exemple 2001 est une bonne année pour les vins liquoreux). Le
savoir acquis est alors plus largement utilisable et transférable à d’autres projets d’achat. La prescription
peut même être globale et concerner l’ensemble de l’offre. C’est le cas pour la prescription d’un critère
décisionnel qui permet un véritable apprentissage chez le consommateur. Il pourra réutiliser les savoirs
prescrits. La prescription a donc non seulement une portée (potentielle) ponctuelle mais elle peut aussi
conduire à accroître la compétence de l’acheteur (dans la catégorie de produit) de façon plus durable et
être source d’apprentissage.
Lorsque le recours à la prescription structure le processus de décision d’achat, la prescription peut se
situer à différents niveaux du processus décisionnel. On peut, par exemple, distinguer les interventions
sur la définition du problème décisionnel, sur la sélection d’alternatives ou sur le choix d’une solution
particulière. Le plus souvent, les sites marchands privilégient les prescriptions qui interviennent dans les
dernières phases (sur la sélection des solutions envisageables ou sur le choix du produit). Elles sont ainsi
souvent situées sur la fiche produit afin de finaliser la commande en ligne.
Enfin, les différents types de prescription peuvent conduire à réduire l’ensemble des possibles (par
exemple proposition d’une sélection parmi l’ensemble de l’offre) ou à élargir le champ des possibles
(proposition d’une sélection alternative ou d’autres critères décisionnels). L’opération de la prescription
peut ainsi être considérée à travers le degré d’ouverture ou de réduction des possibles (i. e. des solutions
envisageables). En règle générale, les prescriptions s’inscrivent dans cette deuxième perspective car il
s’agit de réduire l’éventail de choix et de conduire l’internaute jusqu’au choix d’un produit/service.
Focus 5.4
La prescription mise en scène sur les sites marchands :
applications
Le site Web de Darty propose des espaces « bien choisir », « bien utiliser », « bien installer ».
Procédez à l’analyse de ces prescriptions à travers les sept dimensions du modèle de la prescription
en ligne.
Le site Web de Décathlon propose des vidéos « comment choisir », « comment entretenir ». S’agit-il
de prescriptions ? Comment les analysez-vous ?
Le site Web de Leroy Merlin offre des « cours de bricolage », des « guides » et un espace très riche
intitulé « nos conseils ». Procédez à l’analyse de ces zones du site Web à travers le modèle de la
prescription en ligne.
Les sites de la Fnac et d’Amazon ont adopté des stratégies de prescription différentes. Identifiez-les
et analysez-les à travers les sept dimensions du modèle. Repérez d’autres sites Web ayant suivi la
même stratégie de prescription.
Analysez les démarches de recrutements de « clients prescripteurs » et leur management sur les sites
de PriceMinister et de Oxybul Éveil et Jeux.
Une fois cette grille d’analyse maîtrisée, vous pouvez procéder à l’analyse (et à la conception) des
sites marchands de votre choix.
Focus 5.5
Recommandations en ligne : le cas du cinéma en France avec
Allocine.com
En France, le cas du site Web Allocine.com et son influence sur les entrées dans les salles de cinéma
a été étudié à plusieurs reprises (Belvaux et Marteaux 2007, Larceneux 2007). Ils s’inscrivent très
clairement dans la lignée des travaux cités ci-dessus, en particulier ceux de Dellarocas depuis 2003.
Belvaux et Marteaux (2007) comparent les effets des démarches marketing dans les médias, des
critiques professionnels et des recommandations des internautes sur les résultats commerciaux des
films. Ces trois variables ont une influence sur les entrées en salles, de façon séquentielle. Les
résultats de la première semaine de sortie en salle sont déterminants pour la suite. En bref, la
promotion n’a pas d’effet sur les avis des internautes, alors qu’elle influence négativement les
critiques professionnels pour les films à petit budget et positivement ceux à gros budget. Les avis
des critiques et des internautes se rejoignent pour les films à gros budget.
Larceneux (2007) étudie l’influence de l’avis des critiques et de l’opinion des internautes en tant que
recommandations potentielles sur le buzz (traduit par bourdonnement) et les entrées dans les salles
(plus exactement la prédiction du box-office). Le buzz est défini par deux dimensions : le volume –
nombre plus ou moins important d’individus qui évaluent et parlent du produit – et la valence –
dimension qualitative, qui représente l’évaluation moyenne et qui peut être positive ou négative.
Il distingue deux types de buzz : le premier est plutôt commercial, fondé sur des stratégies
marketing ; le second est non commercial a priori, fondé sur la volonté propre de certains individus
de transmettre leur opinion sur leur expérience vécue avec le produit, le service, tout en rappelant à
juste titre qu’il n’existe pas de vase clos entre les deux. Dans la seconde catégorie, il différencie
deux types de buzz indépendants sur Internet : celui émanant des professionnels experts, des
critiques, et celui émanant des internautes, souvent les premiers acheteurs, qui se sentent experts
dans la catégorie de produits.
Si les avis des professionnels et des internautes ne sont pas analysés en tant que tels (nature,
contenu, forme, origine, organisation, etc.), leur évaluation est réduite à une variable dichotomique
(positive/négative) pour faciliter le traitement statistique, cela permet de bien mesurer leur impact.
À partir d’une analyse causale, l’étude montre que les recommandations affichées sur le site
Allocine.com sont significativement corrélées au box-office après la première semaine ; ces
recommandations peuvent non seulement prédire, mais aussi influencer le box-office.
Yves ROY
Pour un site marchand, le système de recommandation (recommender system) est devenu l’un des
principaux leviers stratégiques, à égalité probablement avec la gestion de la chaîne logistique (supply
chain management). C’est la raison pour laquelle Netflix avait lancé en 2007 un concours doté
d’un million de dollars US et destiné à accroître la précision de son propre système d’au moins 10 % ; ce
prix a été gagné en septembre 2009 (http://www.netflixprize.com). Il est courant d’attribuer le succès
d’Amazon, qui nous servira d’exemple, à ses recommandations (Mangalindan, 2012) dont la technique a
été soigneusement brevetée dès 2001 (Linden, Jacobi, & Benson, 2001). Une anecdote plus récente,
l’affaire « Target et adolescente », a montré la puissance de tels outils.
Target est une grande chaîne de distribution aux USA. Deux ans avant de faire les unes pour un problème de fuite de données1, elle
s’était illustrée pour avoir suggéré des achats pour femme enceinte à une très jeune fille et provoqué l’ire de son père, avant que ce
dernier ne présente des excuses, par force (Duhigg, 2012).
1 Objectifs
Les systèmes de recommandation sur les sites marchands reposent sur une logique qui renvoie aux
méthodes de segmentation de marché. Rappelons que cette dernière marie trois sources d’information :
les caractéristiques des clients (CSP, socio-styles etc.), les caractéristiques de l’offre (marque, prix,
taille, performance…) et la relation entre cette offre et les clients (avantages recherchés, bénéfices
perçus, actes d’achat). Dans le vocabulaire des recommender systems, on a :
des utilisateurs (users) dont on peut connaître le profil selon deux volets : déclaratif, donc incomplet
et sujet à caution, et comportemental pour ceux ayant déjà un historique d’échanges avec le site ;
des articles, ou « trucs » (items), avec leur descriptif et, parfois, une analyse plus ou moins
automatique de contenu (content) ;
trois matrices de relations utilisateurs – articles, d’importance différente : les articles vus, après
recherche explicite ou navigation, les articles achetés et les articles évalués (ratings).
Tentons d’appliquer une logique traditionnelle de segmentation marketing à un internaute dont le profil
partiel était reconnu en 2010 par le site Amazon.fr. En appliquant des logiques interprétatives de type
socio-styles comme celles popularisées autrefois par B. Cathelat (1985), le raisonnement pourrait être le
suivant : c’est un homme (goûts musicaux), sans doute dans la cinquantaine (idem), probablement
enseignant (ouvrage de management), adepte de romans policiers (évident) et des contre-cultures… Donc,
si cet individu consulte un jour des ouvrages de médecine, il pourrait être tentant de lui recommander les
dernières parutions en matière de médecines alternatives, sophrologie… sans beaucoup chance de succès,
dans le cas présent. En pratique, ce type de raisonnement souffre de deux défauts qui le rendent peu
pertinent dans un contexte d’e-commerce massif :
Il suppose d’abord l’intervention d’un être humain pour qualifier les produits vendus et les
raccrocher à des « styles ». Avec un catalogue de la taille de celui d’un site comme Amazon, c’est
impraticable : le Mechanical Turk de la même société n’y suffirait pas.
Ensuite, chaque petite hypothèse émise ici n’est pas totalement dénuée de fondement mais contient un
niveau d’incertitude suffisant pour que le produit dérive très sensiblement de la réalité des faits.
Mechanical Turk : service permettant de faire travailler, moyennant une rémunération unitaire minime, un nombre indéterminé d’êtres
humains sur une question quelconque[2].
Les systèmes de recommandation efficaces sont directement issus des travaux sur le data mining et du
machine learning. Dans ce genre de système, tout repose sur deux piliers : des faits (consultation,
achats, évaluations) en nombre souvent considérable d’une part, un ou des algorithmes adaptés de l’autre.
La puissance informatique en croissance exponentielle, au sens strict, rend tout ceci commun, conduisant
certains à parler de fin des théories. Le concept à l’origine de ces systèmes de recommandation est le
filtrage collaboratif, apparu il y a plus de 20 ans (Goldberg, Nichols, Oki, & Terry, 1992) pour des
besoins de recherche d’information dans un système de messagerie (information retrieval). L’adaptation
de ces techniques au commerce a été quelques années plus tard renommée Systèmes de Recommandation
(Resnick & Varian, 1997).
La fin des théories est un courant de pensée qui considére que la puissance de calcul peut à elle seule suffire à prédire ce qui doit l’être,
sans qu’il soit nécessaire d’en comprendre le mécanisme sous-jacent. Stephen Wolfram, auteur de Mathematica, a lancé le concept en
2002 (Wolfram, 2002), repris par Chris Anderson quelques années plus tard (Anderson, 2008). En dépit des réticences du monde
académique, cette confiance accordée au calcul est à la base d’applications Web comme le moteur Wolfram Alpha
(http://www.wolframalpha.com) et, surtout, Google Translate (http://translate.google.fr). La vogue récente du big data (Tufféry, 2013) en
est une illustration.
L’objectif de tels systèmes peut-être résumé ainsi (Ricci, Rockach, & Shapira, 2011) : accroître le
nombre d’items vendus, vendre des items plus variés, accroître la satisfaction de l’utilisateur, accroître
sa fidélité, mieux comprendre ce qu’il veut. Pour atteindre de tels objectifs, le système devrait, selon le
guide d’évaluation le plus souvent cité (Herlocker, Konstan, Terveen, & Riedl, 2004) :
annotation dans le contexte (annotation in context) : fournir une liste ordonnée, filtrée des mauvais
messages et éventuellement annotée ;
trouver quelques bons items (find good items) : trouver des items dont la pertinence est maximale,
sans afficher généralement cet indicateur ;
trouver tous les bons items (find all good items) : exhaustivité des résultats ;
recommander des séquences (recommend sequence) : un item recommandé en implique un autre…
recommander des assemblages (recommend a bundle) : suggérer des items complémentaires ;
laisser naviguer (just browsing) : l’utilisateur n’est pas forcément engagé dans un véritable acte
d’achat et il faut quand même lui permettre de trouver des items susceptibles de lui plaire ;
rendre le système crédible (find credible recommender) : les utilisateurs testent la qualité du
système en vérifiant si des associations qui leur semblent évidentes sont reproduites, parfois même
en modifiant leur propre profil.
Un aspect particulier de cette crédibilité a été étudié depuis, celui de la persistence, qui consiste à
faire en sorte que la recommandation soit reproductible à contexte identique (Beel, Langer, Genzmehr, &
Nürnberger, 2013). Le système de recommandation d’Amazon met en œuvre la plupart de ces fonctions à
l’exception de celle concernant l’exhaustivité des résultats, rarement rencontrée en e-commerce pour des
raisons évidentes. La notion de bundle a même donné lieu à des épisodes cocasses, le site conseillant à
un internaute intéressé par un sac pour ordinateur d’acheter aussi la machine[3]. La variabilité des résultats
au fil des années, celle de leur présentation et la raréfaction de telles bizarreries illustrent le fait que,
depuis la publication initiale de ses principes de fonctionnement (Linden, Smith, & York, 2003), ce
système évolue continûment, sans que les détails n’en soient publics.
2 Exemple anonyme
Voyons la réaction de ce système de recommandation pour une consultation anonyme, après effacement
soigneux de l’historique du navigateur, dont les cookies (cf. Chapitre 9), ou une bascule en mode
« navigation privée », ce qui revient à peu près au même. Dans une logique user-to-user, nous sommes en
situation de « démarrage à froid » ou cold start (Herlocker et al., 2004) : aucune information préalable
sur notre profil ou notre historique de consultation ne peut aider le système de recommandation, qui
l’indique et renvoie une liste de best-sellers.
La forme comme le contenu peuvent varier légèrement selon le poste et le navigateur, car le site
pratique activement la technique de test A/B[4]. Le terme de « Meilleures ventes », constant, doit donc être
pris avec prudence. Après une première interrogation, par exemple sur le terme « SCRUM », la liste des
ouvrages renvoyés en référence semble pertinente mais le bloc de recommandations en bas de page ne
change pas. Les deux mécanismes, recherche et recommandation, fonctionnent manifestement de façon
indépendante, en 2010 comme en 2014. Ceci revient à constater que l’algorithme ne prend pas en compte
le texte des requêtes mais uniquement les articles vus explicitement, après un clic sur le lien, en
cohérence avec la logique item-to-item de l’article fondateur (Linden et al., 2003).
Un clic sur l’un des éléments de la liste suffit à renvoyer au site une information comportementale claire
contenant la référence de l’ouvrage, ce qui active l’algorithme paresseux du moteur de recommandation
qui donne cette fois une liste contextualisée (cf. chapitre 5 pour ce terme). Le thème choisi pour cette
consultation étant volontairement précis, les recommandations sont très efficaces. Il n’en irait pas de
même avec des romans, le comportement des acheteurs devenant alors très erratique et minimisant les
indices de similarité, quel que soit le choix retenu pour ces derniers.
Algorithme paresseux (lazy algorithm). Dans cette technique, les calculs ne sont faits qu’au moment précis où ils s’avèrent
nécessaires, et seulement sur une petite partie des données initiales. Dans un système de recommandations, calculer un indice de
similarité pour chaque couple de clients demanderait un temps de calcul et un espace de stockage démesurés. Avec la technique user-
to-user par exemple, il est plus raisonnable de déterminer « au vol » une petite liste de clients suffisamment voisins de l’internaute
connecté pour que leurs choix servent à la recommandation.
Indices de similarité. Si on ne s’intéresse qu’à l’acte d’achat, ou à celui de visionnage d’une notice d’article, les données collectées par
le site concernent un ensemble P d’articles, de cardinal p, et un ensemble C de clients, de cardinal c souvent très supérieur à p. Le
tableau de données aura donc la forme , matrice de taille c × p composée de 0 et de 1. En raisonnant sur deux articles, A et
B, on note le nombre de clients ayant acheté A et celui des clients ayant acheté à la fois A et B. Plusieurs
indices de similarité ou de dissimilarité peuvent être calculés à l’aide de ces éléments (Sneath & Sokal, 1973) :
Indice de Russel & Rao : . Si les deux articles n’ont jamais été achetés ensemble, il vaut 0. Pour atteindre 1, il faut que tous
les clients aient acheté à la fois A et B. Sa valeur dépend donc de la popularité des produits, et n’est donc que rarement utilisé.
Indice de Jaccard : . Même si les articles A et B sont peu vendus, le simple fait que tout achat de A implique l’achat de B et
vice-versa suffit à atteindre le maximum de 1.
L’indice du cosinus est une variante du premier qui a de meilleures qualités lorsque la popularité des articles A et B est différente. Il se
calcule comme : .
Notons que, pour ce type de calculs, les rôles des articles et des clients sont parfaitement interchangeables. Amazon travaille
officiellement en item-to-item, comme indiqué ci-dessus. On peut aussi calculer chacun de ces indices de similarité entre clients, en
logique user-to-user, la sommation s’effectuant sur les articles. Seul l’usage en sera différent.
Probabilités conditionnelles. C’est une vision compatible avec la précédente, moins géométrique et plus probabiliste. Les termes
employés ici viennent du market basket analysis (Han, Kamber, & Pei, 2011) ou analyse des tickets de caisse, une technique de data
mining créée pour la grande distribution. Avec les mêmes notations que précédemment, la probabilité estimée d’achat de A par un
prospect est la proportion des clients existants ayant acheté A, soit : , celle d’acheter A et B : . Cette dernière
valeur n’est autre que l’indice de Russel et Rao et est dénommée par les marketeurs niveau de support de la règle « A et B sont
achetés ensemble ». La règle « qui achète B achètera A » est mesurée par un niveau de confiance qui n’est autre que la probabilité
conditionnelle de A sachant B, soit : . Cette probabilité va de 0 (aucun achat commun) à 1 (tous les acheteurs de B
ont acheté A). Toutefois, si presque tous les clients ont acheté A, le niveau de confiance est proche de 1 sans que la règle « B → A » soit
d’un grand intérêt. On préfère donc calculer un effet de lift qui compare les probabilités conditionnelles ou non : .
Un lift de 1 signifie que la connaissance de « a acheté B » n’améliore pas la prédiction. Plus le lift est élevé, plus la connaissance de
l’acquisition préalable de B sera efficace.
Par ailleurs, l’ordre proposé n’est pas celui, tentant, lié au nombre de ratings positifs. Pourtant, les
auteurs de l’algorithme initial (Linden et al., 2003) évoquent fréquemment cette possibilité de prise en
compte des ratings dans leur article, en l’associant au mode simplifié de calcul dit Slope one.
Pente un (slope one), de Lemire et Maclachlan (2005). Les internautes sont ici qualifiés non pas par des achats mais par des notes
attribuées aux produits, de 1 (pas bon) à 5 (parfait) par exemple. Le calcul d’indices de similarité ou dissimilarité entre clients est plus
complexe que dans le cas achat / non-achat mais la distance euclidienne (racine carrée de la somme des écarts de notes) peut convenir
en première analyse. L’algorithme des proches voisins (kNN) est ensuite appliqué pour limiter le nombre de points de comparaison. Entre
le prospect et chacun de ses voisins, on peut estimer une régression linéaire de type sur les produits notés en
commun, ce qui donne une estimation de la note pour chaque produit non encore évalué par le prospect. En moyennant sur tous les
voisins, on obtient une prévision raisonnable de l’opinion du prospect. En pratique, il est fréquent que ce calcul soit simplifié en
, donc avec une pente (coefficient a) de un. Si mon voisin a noté 2 le produit A et 3 le produit B et si j’ai
noté 2 le produit B, alors il est probable que ma note pour le produit A soit 1.
Les chercheurs d’Amazon n’en sont pas restés à une technologie vieille de 10 ans. Le moteur utilise
quelques éléments complémentaires, dont probablement une forme d’association entre la requête initiale
et les articles visionnés, ainsi qu’une vision séquentielle, toujours en conformité avec (Herlocker et al.,
2004).
4 Compléments algorithmiques
Une description détaillée de l’ensemble des techniques utilisées par les systèmes de recommandation
serait hors de propos ici et le lecteur intéressé est invité à se reporter à des ouvrages de base tels
(Jannach, Zanker, Felfernig, & Friedrich, 2010) ou (Ricci et al., 2011). L’analyse des publications de
l’ACM et, en particulier, celles des conférences RecSys (http://recsys.acm.org) seront un bon
complément.
Le Wikipedia francophone (http://fr.wikipedia.org/wiki/Système_de_recommandation, mai 2014)
donne une définition traduite d’une version antérieure de la page en anglais, « les systèmes de
recommandation sont une forme spécifique de filtrage de l’information (SI) visant à présenter les
éléments d’information (films, musique, livres, news, images, pages Web, etc) qui sont susceptibles
d’intéresser l’utilisateur ». Les algorithmes et leurs critères de performance seront donc dérivés de ce
que l’on trouve pour les moteurs de recherche, par exemple. Et un critère peut ainsi être de maximiser
l’aire sous la courbe ROC comparant les items renvoyés pertinents et les items non pertinents
((Herlocker et al., 2004) ; les auteurs en proposent plusieurs autres.
Courbe ROC, Receiver Operating Characteristic. Créé par les inventeurs du radar, ce graphique trace la courbe de détection d’un
phénomène en fonction du seuil choisi par l’opérateur. En X, on place le taux de faux positifs, soit (1 – sélectivité), dans notre cas les
articles non pertinents pour l’utilisateur. En Y, on a la sensibilité, soit le taux de vrais positifs ou, ici, d’articles pertinents. Si l’aire sous la
courbe vaut 0.5, c’est que l’on a en fait une droite selon la première diagonale, donc un mode de sélection aussi « efficace » qu’un simple
pile ou face. Plus on tend vers 1, plus le système est discriminant.
Il faut ensuite déterminer quels éléments du contexte de l’utilisateur en cours de traitement sont
exploitables, caractériser la base de référence ou base renseignée au sens du data mining, et trouver la
combinaison d’algorithmes, ou algorithme hybride, qui sera performante. En premier, la recherche et la
navigation dans Amazon comme sur la plupart des sites marchands sont dites à facettes, c’est-à-dire que
l’utilisateur fixe par avance le type d’article (livre, CD…) et d’autres caractéristiques objectives comme
la langue, une fourchette de prix… Toutes ces caractéristiques sont parties intégrantes du catalogue et sont
renseignées pour chaque article, ce qui réduit considérablement la taille de l’espace de référence.
Amazon ne recommande pas de CD si vous regardez un livre. Difficile en revanche de savoir si leur
système tient compte ou non, dans sa version actuelle, de possibles influences croisées.
En sus de ses caractéristiques matérielles, chaque article peut être affublé de descripteurs ou étiquettes
(tags) que l’on peut mettre en correspondance soit avec les mots de la requête soit avec les tags des
articles consultés, ou déjà achetés. Amazon utilise au moins en partie cette technique. On parle alors de
filtrage sur contenu (content-based filtering). On calcule le vecteur de préférences de l’individu, à
raison d’une valeur par tag mentionné explicitement, dans le profil ou la requête en cours, ou
implicitement via les articles consultés. La base de référence est une matrice articles × tags. Elle peut
être obtenue soit analyse automatique de contenu de l’article, lorsqu’applicable, par exemple selon les
techniques de text mining (Weiss, Indurkhya, Zhang, & Damerau, 2005). Une alternative peut être une
indexation systématique par des professionnels, à la manière du Music Genome Project de Pandora[5], ou,
mais au risque d’une précision aléatoire, selon les commentaires des autres internautes, selon une forme
de folksonomie.
À défaut, on est dans le filtrage collaboratif (collaborative filtering) : les matrices fondamentales sont
des croisements des utilisateurs et des articles, que ceux-ci soient vus, achetés ou évalués. La situation est
très semblable aux matrices termes × documents du text mining et les techniques employées seront
presque identiques, les utilisateurs jouant le rôle de documents et les articles de termes. L’analyse
linguistique des proximités entre mots se traduit par la technique item-to-item chère à Amazon. À
l’opposé, les partitions de documents trouvent leur équivalent dans les profils génériques (clusters)
d’utilisateurs. La sélection d’articles proches de celui consulté fera alors appel à un calcul de similarités
ou distances déjà évoqué et à un algorithme comme les proches voisins, utilisé largement dans les
premiers temps des systèmes de recommandation.
Proches voisins, k-NN ou k-nearest-neighbours (Wong & Lane, 1983). Cet algorithme est l’un des premiers à avoir été utilisé pour les
problèmes de filtrage collaboratif. En logique item-to-item, comme chez Amazon, la distance d’un article à l’autre est calculée selon l’un
des indices déjà décrits en encart. Ces mesures se prêtant mal aux représentations graphiques, la figure ci-après reproduit le principe des
k-NN dans un espace euclidien à deux dimensions.
La vraie difficulté, quelle que soit l’approche retenue, est dans la taille des matrices à traiter, dont le
nombre d’éléments peut très largement dépasser le milliard. Par chance, il s’agit de matrices creuses
(sparse matrix), dénommées ainsi car l’écrasante majorité de leurs éléments sont nuls, pour lesquelles de
techniques efficientes en termes de calculs ont été développées depuis les années 1970. On peut ainsi
projeter les articles dans un espace de dimensions réduites par la décomposition en valeurs singulières
(Singular Value Decomposition), mais rien ne permet d’affirmer qu’Amazon emploie cette technique.
En conclusion, on remarquera que l’efficacité de telles techniques est une fonction croissante du
nombre de visiteurs / acheteurs, ainsi que, mais à un degré moindre, de celle du catalogue d’articles. Les
petits sites marchands ne pourront donc que difficilement produire des recommandations pertinentes.
Compte tenu de l’impact très négatif d’une mauvaise recommandation sur la vision que se fait le visiteur
de la crédibilité du système, l’intérêt d’un tel complément du site marchand devra être pesé
soigneusement. Les responsables de sites moyens se tourneront volontiers vers des bibliothèques
logicielles implémentant ces techniques, qui sont souvent disponibles selon une licence open source,
comme la bibliothèque de recommandations pour le Content Management System Drupal
(http://drupal.org/project/recommender). Mais les très grands acteurs du Web préféreront toujours
développer eux-mêmes cet aspect éminemment stratégique de leur activité, leurs équipes participant
régulièrement à la recherche académique.
[1] Voir également les publications du séminaire « Identités Numériques » de l’Institut des Sciences de la Communication du CNRS depuis
2011.
[2] Cf. http://www.mturk.com/mturk/welcome
[3] http://chandoo.org/wp/2008/01/12/amazons-recommendation-system-is-it-crazy/.
[5] http://www.lemondeinformatique.fr/actualites/lire-des-malwares-derobent-des-millions-de-donnees-des-caisses-de-target-56253.html
http://www.pandora.com/about/mgp.
Partie
Communication
3
Stéphane BOURLIATAUX-LAJOINIE
Maître de conférences, IAE
de Tours, laboratoire Vallorem,
Objectifs
Sommaire
Focus 6.1
One to one et one to few
Le marketing one to one a pour objectif d’adapter le prix, le produit, le packaging ou la distribution
à chaque prospect. La démarche one to one est liée à l’utilisation d’une gestion de la relation client
(GRC) et du data mining, l’analyse de ces données permet d’adapter les 4P aux attentes du
prospect. Par extension, le terme s’emploie pour un média qui permet une personnalisation de
l’annonce ou du service. L’interactivité du réseau Internet, sa souplesse de programmation et le
faible coût de la personnalisation d’une offre ont rapidement permis d’imaginer un très fort taux de
personnalisation. En publicité, il est très difficile d’arriver à un tel niveau de spécialisation du
message. L’absence d’identification volontaire (nom de connexion et mot de passe), les ordinateurs
familiaux fonctionnant sous un même compte, l’anonymat des cybercafés, sont autant de limites à la
connaissance de « qui » est l’utilisateur. Le volume de données collectées et à analyser est tel qu’il
est, à ce jour, plus rentable de travailler sur des segments de consommateurs qui semblent avoir les
mêmes comportements, on parle alors de one to few.
Mais ces notions évoluent très rapidement. Les récents travaux sur le « big data » (Fulgoni, Gian,
2013) permettent aujourd’hui d’envisager une extraction de données bien plus fine, et pour un coût
économiquement acceptable. Peu à peu le marketing se rapproche de l’utopie du one to one.
L’acceptation et l’utilisation du média Internet par les publicitaires vont donner une impulsion à la
création publicitaire. Les faibles coûts de création ainsi que l’évolution des langages de programmation
vont permettre l’apparition régulière de formats.
DÉFINITION
Une publicité intrusive est une publicité qui vient interrompre la navigation de l’internaute. Elle peut revêtir plusieurs formes :
l’ouverture d’une fenêtre en surimpression de la page visitée ou l’apparition d’un message nécessitant une réaction.
1 Le display
Premier élément de notre présentation, le display, plus ancien format de communication sur le Web, est
ici présenté au travers de ses formats les plus répandus. L’IAB-France (Internet Advertising Bureau) édite
sur son site Web (www.Iabfrance.com) des propositions de normalisation des formats publicitaires. Ces
recommandations sont aujourd’hui suivies par la majorité des agences de communication.
Focus 6.2
Le streaming
Le streaming est une technologie de lecture d’un fichier vidéo ou audio en temps réel. L’ordinateur
de l’utilisateur n’enregistre que quelques secondes du fichier (généralement 5 secondes) afin de
créer une zone tampon. Puis le fichier est diffusé durant les 5 secondes alors que les 5 secondes
suivantes se chargent dans la mémoire de la machine. Ceci permet de palier les variations de débit
du réseau Internet, d’éviter des temps d’attente trop longs sur les fichiers volumineux et enfin de
limiter au maximum les risques de piratage du fichier. En théorie, seules les 5 à 10 secondes
diffusées et les 5/10 secondes de mémoire tampon (cache) sont inscrites sur le disque dur de la
machine. Il existe plusieurs formats de fichiers en streaming. Il est important de modérer le succès
du streaming en notant sa dépendance aux débits des réseaux. Regarder une vidéo en streaming sur
un format billboard en disposant d’une ligne ADSL de 512 Ko s’avère impossible (effet de saccade
de l’image). Les récentes évolutions des débits des lignes permettent d’envisager à moyen terme une
augmentation significative de ce type de message. Les opérateurs offrent aujourd’hui des débits
théoriques allant jusqu’à 1 giga bit et la 4G est une évolution qui ouvre de nouvelles perspectives
pour le streaming sur les terminaux mobiles.
Il ne faut cependant pas oublier que la couverture 4G tout comme la couverture 1Gb reste, début
2014, relativement faible sur le territoire français.
1.2 Le capping
Comme nous l’avons vu, plusieurs formats de display sont intrusifs. Afin de contrecarrer l’effet négatif
qu’ils peuvent engendrer, les agences apportent une attention particulière à la diffusion de ces publicités.
Pour minimiser tout rejet tout en utilisant ces formats, elles mettent en place un seuil d’exposition
individualisé et sur une période donnée. Ce système de seuil se nomme le capping. Cette technique
s’appuie sur l’utilisation des cookies rattachés à un profil d’internaute.
Le fonctionnement est assez simple. Pour gérer le nombre d’expositions par utilisateur, le serveur de
publicité expédie sur la machine de l’internaute un cookie[6], une sorte de mouchard, qui s’inscrit sur le
disque dur et attribue un numéro de client au consommateur. Durant l’intervalle choisi (24 heures,
48 heures ou plus), le cookie se signalera à chaque connexion sur le site. Si le capping de la publicité Y
est de 3/24 heures, cela signifie que pour un même internaute (en réalité un même cookie) qui se connecte
au site plusieurs fois durant une période de 24 heures, il ne sera exposé à la publicité Y que trois fois au
maximum. Une fois ce seuil atteint, le serveur attribuera automatiquement un autre message à cet
internaute. Dans le même temps, un autre internaute qui n’a pas encore atteint son seuil de 3 occasions de
voir (ODV) se verra réafficher le même message, atteignant peu à peu son « cap ».
Cette technique permet donc de gérer individuellement le nombre d’ODV d’un message optimisant ainsi
son impact (Taylor et al., 2006). Cependant, elle se heurte à une limite importante. Il suffit à l’internaute
de purger ses cookies afin d’annuler tout décompte de ses ODV et de redevenir un « nouvel » utilisateur
pour le serveur de bannières, le bénéfice de la personnalisation des ODV est ainsi perdu.
2.5 Le call-back
Le call-back est l’association de la communication sur Internet et du téléphone. Avec cette méthode, il
est proposé à l’internaute de s’inscrire pour participer à un « événement » particulier durant lequel il
pourra interagir avec le site. La phase d’inscription sert à enrichir la base de données de l’annonceur en
lui permettant de collecter des informations de bonne qualité (l’internaute n’a aucun intérêt à mentir en
laissant ses informations sous peine de ne pas pouvoir participer). Lors du « jeu » une interaction est
réalisée entre les actions de l’internaute sur le site et son téléphone. En France, la SNCF avec sa
campagne « SOS bonnes excuses » et Orange avec sa campagne « Chabal et Orange Foot » se sont
particulièrement distingués dans ce type de campagne.
La campagne SNCF avait pour but de capter les utilisateurs professionnels. La campagne Web venait en
complément des messages radio. Sur le site Internet Sosbonnesexcuses.com il était proposé à l’internaute
une série de bonnes excuses pour arriver en retard au bureau ou en réunion. Il était demandé de laisser les
coordonnées nominatives, téléphoniques et mail de l’internaute ainsi que celles de son supérieur, puis la
société, le poste exercé et enfin la date et l’heure de la réunion. Quelques minutes avant la réunion, le
supérieur hiérarchique de l’internaute recevait un mail présentant une excuse plus ou moins fantaisiste
afin de justifier le retard. La force du call-back : que lors de la présentation de l’excuse via une vidéo en
ligne, le téléphone de l’interlocuteur sonne et un message personnalisé directement lié à la vidéo soit
diffusé. L’impression d’immersion de la personne dans le message publicitaire était très forte. Les
excuses étaient quant à elles suffisamment surprenantes pour ne pas être crédibles tout en étant
humoristiques afin de déclencher un affect positif. À titre d’exemple, les excuses les plus utilisées sur le
site SNCF furent : l’attaque par un gorille et la double vie d’agent secret. La campagne fut suivie d’une
relance personnalisée afin de proposer les offres professionnelles de la SNCF.
La campagne Orange-foot avait pour but de faire connaître les services sportifs (et principalement le
service Orange-foot) de l’opérateur mobile. L’utilisation d’un joueur connu comme Sébastien Chabal a
permis de créer un buzz important autour de l’opération de communication.
L’internaute était invité à laisser ses coordonnées sur un site d’inscription, il pouvait alors se connecter
sur le site où il visionnait une vidéo de Chabal hésitant à tirer une pénalité. Ce dernier prenait son
téléphone et appelait directement l’internaute (qui avait laissé son nom et son numéro de téléphone). Ce
dernier devait aider Chabal en choisissant à l’aide du clavier où tirer son penalty. L’internaute avait le
sentiment d’être en relation directe avec Chabal. La base de données ainsi constituée a permis de
proposer de nouvelles offres aux abonnés Orange (offres de découverte, augmentation des services liés
au forfait) et de tenter de conquérir de nouveaux clients.
Ce type de message interactif déclenche un buzz important auprès des internautes, mais il ne faut pas
sous-estimer l’importance de l’amorce de la campagne. Dans les deux cas illustrant ce paragraphe,
l’agence a beaucoup investi dans la préparation de la cible, créant l’attente afin de capter l’audience.
Une fois présentées les différentes possibilités de communication en ligne, il nous faut nous interroger
sur la mise en œuvre de ces créations.
Plusieurs éléments sont ici analysés, dans un premier temps nous proposerons quelques chiffres sur
l’évolution des investissements publicitaires sur Internet. Puis nous proposons une approche des outils de
choix pour le media planning avant de conclure par les méthodes de tarification.
Source : Adapté de l’étude kantar Media, Médiamétrie MIL 2013 M-S 00h-24h,
Afnic, Médiamétrie – OUI Q4 2013.
Internet, pour sa part, est en diminution importante (– 0,8 point), il faut voir ici l’importance croissante
des moyens de publicités hors agences. De nombreuses entreprises de taille modeste ont compris qu’elles
pouvaient, à tort ou à raison, se passer des services d’une agence de communication ou des services
payant pour communiquer sur leur fil Twitter, et leurs pages sur les réseaux sociaux. Cette sortie de la
publicité via un modèle payant est particulièrement sensible en 2013. Ce mouvement est une évolution
régulière puisque le passage 2011 à 2012 marquait déjà une baisse de 0.9 point des investissements
publicitaires sur le Web.
L’usage d’Internet comme média multiple (recherche, télévision à la demande, mail et échanges,
réseaux sociaux) tend pour sa part à augmenter, 82 % des plus de 15 ans utilisent Internet et la durée
moyenne de connexion (tout âge confondu) est de 1 h 11 par jour sans distinction notable de sexe ou de
CSP[9].
Enfin, dernier élément à retenir de l’année 2013, l’explosion de l’Internet mobile, phénomène qui va
probablement s’amplifier avec le déploiement des réseaux H+ et 4G.
Plus de 50 % des 15 ans et plus possèdent un smartphone et utilisent Internet sur ce support. On constate
un glissement des usages de l’Internet fixe vers l’Internet mobile sur les smartphones : réseaux sociaux,
surfs de courte durée, visionnage de vidéo, recherches ponctuelles sont autant d’activités qui ont migré de
l’Internet fixe vers le mobile.
Le cas des tablettes est plus complexe. Ces dernières sont moins facilement identifiées dans les études
car elles peuvent selon les modèles se rattacher à l’Internet fixe (en connexion wifi) ou mobile (en
connexion 3G, H+ ou 4G). Elles représentent tout de même 32 % des plus de 15 ans, avec une masculinité
relative (54 % d’hommes). Le glissement de l’activité de l’ordinateur fixe/portable vers la tablette est
moins net que dans le cadre des smartphones.
Ces évolutions dans les usages conduisent à repenser les campagnes publicitaires sur Internet. La mise
en place d’outils de communication « hors média Web » comme les applications gratuites, les sites Web
responsive[10] (ou application SaaS) sont autant d’éléments qui doivent aujourd’hui être inclus dans une
stratégie de communication en ligne.
2 Media planning et Internet
Le choix des différents supports de communication est un élément délicat pour les agences. Parmi les
outils existant pour effectuer ce choix, notre présentation expose deux principaux indicateurs ainsi que
leurs limites sur Internet : le GRP et le B de Morgenztein.
DÉFINITION
Le GRP se calcule de la manière suivante : taux de couverture (ou taux de pénétration) × répétition moyenne. Par exemple : un GRP de
200 signifie que la campagne va toucher en moyenne deux fois la population ciblée.
Deux critiques sont formulées à l’égard du GRP dans le monde physique : tout d’abord, il ne tient pas
compte du cumul d’audiences entre les médias ni même des recoupements d’expositions lors des
campagnes multimédias. Ensuite le GRP s’appuie sur l’identification du contact et de son ODV/ODE
(occasion de voir/occasion d’entendre), ce qui implique d’utiliser des panels et des supports bien
identifiés.
Ces limites sont connues mais sur Internet elles prennent un poids supplémentaire de par la nature du
média et les contraintes techniques.
Le GRP sur Internet a très rapidement intéressé les chercheurs (Bourliataux-Lajoinie 2000) et les
praticiens (en 2007 Carat propose une étude sur la mise en place d’un GRP spécifique à Internet)[11], mais
sa mise en œuvre empirique se heurte à deux grands problèmes techniques. Il est en effet très difficile de
mesurer avec précision le taux de couverture et la répétition sur Internet.
DÉFINITION
Les pages chargées ont une durée de vie dans le proxy. Une page comme celle de Google peut être gardée pendant plusieurs
secondes, seule la requête avec les mots clés est expédiée. En revanche les cours de bourse ou le prix des matières premières sont des
pages qui, de par leur rapide péremption, ne sont pas stockées dans le proxy.
Comment calculer ainsi un GRP fiable ? Les deux données fondamentales du calcul de ce taux souffrent
ici d’un manque de fiabilité dans leurs mesures. Il serait peut-être plus pertinent de ne s’attacher qu’au
nombre d’ODV en utilisant un système d’autodéclaration de la publicité. Dans ce dernier cas, peu importe
le nombre de duplications dans les différents proxys, seul l’affichage à l’écran du message publicitaire
active un appel sur le serveur qui gère la campagne d’affichage. De fait, ne sont comptabilisés que les
messages affichés et non les messages expédiés.
Nous constatons le très faible taux de clics du display. Cependant, il faut analyser ces chiffres en tenant
compte de l’impact de l’attention visuelle tel que l’eye-tracking le montre. Les chiffres donnés sont des
moyennes de clics, ils doivent être modérés par la prise en compte de la pression publicitaire.
REMARQ UE
Calcul de la pression publicitaire sur un site. Un site qui dispose de 50 pages avec 30 pages avec publicité (PAP) – soit une publicité
chaque 1,66 page – aura une pression publicitaire plus forte qu’un site disposant de 50 pages avec 10 PAP. La principale conséquence est
une diminution du taux de clics du consommateur. Plus ce dernier est soumis à une pression publicitaire forte, moins il clique sur les
bannières.
L’efficacité d’une publicité sur Internet comme sur tout autre média ne peut se résumer à un simple taux
de mémorisation ou un taux de clics, l’efficacité est multiple tout autant que les raisons qui poussent une
entreprise à communiquer. Il est important pour l’entreprise de bien cerner ses attentes en communiquant.
Les outils du Web permettent bien des formes qui s’intégreront dans un mix de communication.
4 La tarification
La tarification de la publicité est le dernier point de ce chapitre. Il existe deux grandes méthodes de
tarification : le CPM, coût pour mille, et le CPC, coût par clic (De Pechpeyrou, Goudey et Desmet 2002).
4.1 Le CPM
Le plus utilisé est le CPM ou coût pour mille. Selon SRI/Capgemini, le CPM représente 80 % de la
tarification du display en 2009. Dans ce cas, l’annonceur va payer à la régie « l’affichage » de 1 000
publicités, théoriquement sur 1 000 écrans, mais nous l’avons vu, le rôle des proxys peut perturber le
décompte des affichages. Le serveur de bandeaux décompte le nombre de requêtes exécutées mais ce
décompte est recoupé par un mouchard d’autodéclaration de la bannière. En effet, cette dernière pouvant
être dédoublée dans un proxy, les concepteurs ont intégré un système qui autodéclare l’affichage lorsque
celui-ci intervient. Un message dédoublé ne sera compté qu’une fois par le serveur de bandeaux, mais il
autodéclarera deux fois son affichage. Il est donc possible d’avoir une estimation plus fiable du nombre
réel d’affichages.
Ce système de tarification au CPM est particulièrement adapté pour créer la notoriété d’une marque ou
d’un produit.
4.2 Le CPC
Il est également possible de tarifier la publicité au CPC ou Coût par clic. Ce tarif au taux de clics se
base sur une exposition « gratuite » mais une tarification sur la réaction de l’internaute. L’annonceur ne
payera qu’en proportion du nombre d’internautes qui cliquent réellement sur le message. Le CPC est un
système de tarification lié à la performance de la campagne. Il est particulièrement utilisé pour recruter
des prospects, ces derniers cliquant sur l’annonce pour aller consulter le produit. Le principal problème
ici est de déterminer quand l’internaute devient réellement un prospect. Le taux de rebond[15] est un bon
exemple de consommateur qui clique sur une bannière sans se transformer en prospect.
Si l’on veut synthétiser l’utilisation du CPM et du CPC, on peut présenter le CPM comme plus
performant pour la création de notoriété alors que le CPC est plus performant pour la recherche de
prospects.
Focus 6.3
Tarification d’une bannière publicitaire
Hypothèse 1 – Tarification au CPM, les données
Un coût de CPM à 5 €.
Taux de clics sur la bannière de 0,1 %
Taux de conversion sur le site de 4 %
Vente d’un produit qui génère 20 € de marge
La publicité est déposée sur un grand site national durant une semaine : nombre d’impressions
observées 1 million.
Calcul du coût de la campagne
CPM = 5,00 €
Impressions = 1 000 000
Taux de transformation = 0,1 %
Coût de la campagne = 5 000,00 € (soit 1 000 000 x 5 € x 0,1 %)
Clics = 1 000,00 (soit 1 000 000 x 0,1 %).
Taux de conversion 4 % soit 1 000 x 4 % = 40 achats
Marge générée 40 x 20 = 800 €
Le coût de la campagne est de 5 000 € pour une marge générée de 800 €
La couverture de la campagne est de 1 000 000 ODV
Hypothèse 2 – Tarification au CPC
Un coût du CPC à 5 €.
Taux de clics sur la bannière de 0,5 %
Taux de conversion sur le site de 40 %
Vente d’un produit qui génère 20 € de marge
La publicité est déposée sur un grand site spécialisé durant une semaine : nombre d’impressions
observées 10 000
Calcul du coût de la campagne
CPC = € 5,00
Impressions = 10 000
Taux de transformation = 0,5 %
Coût de la campagne = 2 500 € (soit 10 000 x 5 € x 0,5 %)
Clics = 10 000 x 0,5 % = 500
Taux de conversion 40 % soit 500 x 40 % = 200
Marge générée 200 x 20 = 4 000 €
Le coût de la campagne est de 2 500 € pour une marge générée de 4 000 €
La couverture de la campagne est de 10 000 ODV
La tarification de la publicité sur Internet n’est pas uniquement un choix mathématique d’arbitrage entre
des coûts à l’unité ou au forfait. Le type de site et l’objectif de la communication sont autant d’éléments
forts pour le choix de la tarification.
Focus 6.4
Les indicateurs de trafic sur le site
Nombre de visites et nombre de visites uniques : indicateur servant à repérer la fidélité d’un
internaute, et l’impact d’une communication (via l’augmentation soudaine des nouvelles visites)
Nombre de pages vues par visite et durée de la visite : indicateurs qui permettent de mesurer le
comportement de navigation des internautes dans le site et ainsi de segmenter les visiteurs.
Taux de rebond sur la page d’accueil : indicateur qui permet de détecter un problème de
référencement du site ou d’image perçue.
Taux d’abandon par pages stratégiques : indicateur qui permet de détecter un problème dans la
conclusion de l’acte d’achat de l’internaute (procédure perçue comme trop complexe, problème
d’affichage sur les supports mobiles, etc.)
Les indicateurs publicitaires
Nombre de PAP (Page avec Publicité) : permet de gérer la pression publicitaire sur le site.
Nombre de publicités affichées : indicateur qui permettra une tarification au CPM.
Taux de clic des bannières / pop-up / interstitiel, etc. : indicateur de type CTR qui permettra de
gérer la facturation de l’espace publicitaire.
Taux de transformation : indicateur qui va permettre d’établir une forme de retour sur
investissement de la publicité affichée.
Bien évidemment ces indicateurs sont à calculer pour chaque support utilisé par l’internaute. La
navigation via un smartphone peut entrainer un taux de d’abandon supérieur à une navigation via un
ordinateur, ceci peut être notamment dû à des contraintes de rapidité et de disponibilité des connexions.
EN CONCLUSION
Après 20 ans d’utilisation, la publicité sur Internet marque aujourd’hui les premiers signes
d’une diminution des investissements.
L’utilisation d’Internet comme relais de support plus classique en publicité permet de renforcer
le capital sympathie de la marque et d’accroître la probabilité de mémorisation de la marque.
Mais comme nous l’avons vu, la mise en place d’un vrai plan média qui intègre le Web est une
étape complexe pour laquelle nous manquons encore d’indicateurs fiables. Les comportements
des usagers évoluent rapidement, aujourd’hui il est fréquent de redéfinir sa propre grille
télévisuelle en s’appuyant sur les systèmes de « replay ». Enfin, la tarification de la publicité
est aujourd’hui majoritairement liée au CPM, mais le développement de la publicité sur les
smartphones imposera rapidement de trouver d’autres modèles de tarification plus aptes à
traduire la réalité des comportements.
La publicité sur Internet sort de son enfance pour atteindre le stade d’un vrai média. La
dénomination de « communication 360° », chère aux agences, traduit bien cette relation.
Aujourd’hui Internet est un support naturel de communication comme peut l’être la presse ou
l’affichage. Il ne lui manque plus qu’à acquérir des outils de suivi et de tarification à la hauteur
de ses capacités.
[1] A ne pas confondre avec la V.O.D. ou Video On Demande qui s’apparente à de la location d’une vidéo.
[2]
http://www.converteo.com/blog-conversion/boite-a-outils/les-bannieres-qui-vendent-ou-la-fin-de-la-page-web/
[3] Le site www.tarifspresse.com propose un outil très utile pour estimer les coûts (hors promotion et offres spéciales) des différents
supports de presse.
[4] Il est automatiquement inclus dans Internet Explorer depuis 2004.
[5] Source : kantar Media, Médiamétrie MIL 2013 M-S 00h-24h, Afnic, Médiamétrie – OUI Q4 2013.
[6] Voir le chapitre sur le tracking des internautes pour les détails des cookies, de leurs utilisations et limites.
[7] Nous utiliserons le terme de monde réel en référence à la terminologie anglo-saxonne IRL pour « in real life ».
[10] Web responsive : se dit d’un site web qui « s’adapte » automatiquement aux différents supports tels les smartphones, les tablettes, les
ordinateurs.
[11] Voir l’article sur l’agence Carat et sa proposition de calcul de GRP http://www.strategies.fr/actualites/medias/r25025W/carat-invente-le-
grp-internet.html
[12] Le panel Médiamétrie/NetRatings est un panel représentatif de la population internaute française âgée de 2 ans et plus ayant accès à un
ordinateur de type PC à son domicile ou sur son lieu de travail. Le panel est composé de 25 000 panélistes dont 9 000 recrutés par
téléphone et 16 000 online. Il est redressé sur des critères sociodémographiques et un sous-échantillon online pour minimiser les biais
éventuels de surconsommation. Les résultats sont ventilés par lieux de connexion détaillés (source : Mediametrie.fr).
[13] Le terme renvoie à son opposé « site centric ». Ce dernier est largement détaillé dans le chapitre consacré au tracking des
internautes.
[14]
Un exemple vidéo commenté est disponible à l’adresse http://www.dailymotion.com/video/x1dhdy_referencement-google-eye-
tracking_news
[15] Le taux de rebond se manifeste par un consommateur qui arrive sur la page du site et fait immédiatement marche arrière. Il ne fait
qu’une entrée / sortie sur la page. Le chapitre sur le tracking des internautes revient en détail sur ce taux et sa signification.
Chapitre Search engine marketing
7 et référencement
Jean-Claude DOMENGET
Maître de conférences, Université de Franche-Comté,
laboratoire ELLIADD
Objectifs
Sommaire
Contrairement à une idée reçue et véhiculée par des agences ou des consultants SEO incompétents ou
malhonnêtes, les enjeux du référencement ne se résument pas à acquérir le meilleur positionnement sur un
ensemble de mots clés, dans les pages de résultat d’un moteur de recherche ou SERP (search engine
result pages). Ils relèvent au contraire d’enjeux e-marketing plus classiques nécessitant la mise en place
d’une stratégie de référencement et répondant à des objectifs précis.
Focus 7.1
La dimension stratégique du référencement
Philippe YONNET, directeur général de l’agence Search Foresight Groupe My Media
(http://www.search-foresight.com)
En quoi le SEO est-il devenu stratégique ?
La part du trafic issu des moteurs de recherche constitue au minimum une part substantielle du trafic
des sites Internet, et parfois une part très importante. Avec le temps, la concurrence sur Internet est
devenue très vive dans de nombreux secteurs d’activité, et développer ce canal est donc devenu de
plus en plus stratégique.
Pour quels types d’entreprise ?
Évidemment, en premier lieu pour les « pure players », qui se développent souvent d’abord en axant
tout sur le SEO, puis essaient de capitaliser en investissant leurs premiers gains (ou l’argent de leur
seconde levée de fonds) dans des campagnes classiques de notoriété. Mais aujourd’hui, le SEO est
devenu stratégique pour de nombreux acteurs plus établis ou franchement « brick and mortar », soit
pour développer leurs ventes, mais aussi pour défendre leur e-reputation, ou empêcher de nouveaux
entrants de pénétrer leur marché via ce canal.
Quels conseils stratégiques vous demande-t-on ?
À vrai dire, on nous demande surtout des avis sur les arbitrages à réaliser entre le SEA (Adwords)
et le SEO, ou le référencement et les autres canaux. Spontanément, on nous interroge aussi sur
l’opportunité de prendre des risques face aux pénalités de Google. Il n’est pas rare non plus qu’on
nous demande comment dépasser un concurrent grâce au SEO. Mais en réalité, c’est plutôt nous qui
apportons des éclairages stratégiques dans nos missions de SEO : l’optimisation pour les moteurs de
recherche s’étend à de nombreux sujets qui impactent non seulement les choix techniques, mais aussi
le marketing, le merchandising, la communication et les relations presse/publiques. Un SEO efficace
influence aujourd’hui les stratégies d’inbound marketing des entreprises, mais il doit aussi savoir
se nourrir des plans existants. Une fois cette dimension stratégique découverte par les clients, ils se
mettent à nous solliciter sur ces sujets.
L’évocation de plusieurs projets permet d’évaluer les enjeux. Au cours de la refonte d’un site, un souci
pour le référenceur est de ne pas perdre les positons et la visibilité acquises avec l’ancien site. La mise
en place d’un plan de redirection des pages existantes vers les nouvelles, via des redirections 301, est
alors indispensable[22]. Dans le cadre d’une activité à forte saisonnalité, il s’agit d’anticiper la montée en
charge des recherches et de prévoir notamment la production de contenus en amont. Dans le cadre d’un
projet de référencement de sites multilingues, plusieurs précautions doivent être prises en compte afin
d’éviter notamment la duplication de contenu.
Il s’agit de retenir la solution la plus efficace entre une situation idéale mais compliquée à gérer, d’un
nom de domaine par langue (monsite.fr et monsite.co.uk) à celle à proscrire de pages multilingues
(monsite.fr/welcome) ; en passant par un sous-domaine par langue (france.monsite.com) ou un répertoire
par langue (monsite.com/fr).
Enfin le cas du changement de domaine permet d’aborder le choix du nom de domaine. Ce choix est
crucial car le nom de domaine s’apparente à un nom de marque (Stenger, Bourliataux-Lajoinie, 2011).
Sous un angle marketing, soit la marque est déjà connue, il faut alors vérifier si le nom de domaine est
déjà réservé sur le site d’une société spécialisée comme Gandi.net ou Domaine.fr et s’acquitter de la
redevance annuelle pour en avoir la jouissance, soit il faut créer le nom ex nihilo. Dans ce cas, les
notions de positionnement de la marque, de valeur de marque, d’image de marque s’appliquent au choix
de nom du site Web. Celui-ci porte alors sur l’intégration ou non d’une référence explicite à l’activité ou
au service rendu par le site (ex. : quiestlemoinscher.com). Le nom de domaine va indiquer ensuite
l’origine territoriale de la marque ou son secteur d’activité, avec des suffixes ou TLD (Top Level
Domain) comme .fr pour la France, .de pour l’Allemagne, .com pour une activité commerciale avec une
ambition mondiale ou .org pour une organisation à but non lucratif. Il doit favoriser enfin la mémorisation,
anticiper les fautes possibles d’orthographe et se prémunir d’action de cybergrabbing de la part de
concurrents qui choisiraient un nom très proche du nom d’origine afin de profiter des erreurs des
consommateurs.
Cette présentation de la dimension stratégique du référencement permet de mieux situer les nombreuses
techniques d’optimisation utilisées pour référencer les contenus Web dans les moteurs de recherche.
Le référencement naturel des contenus Web relève d’un ensemble de piliers (technique, éditorial, liens).
Renforçant la définition d’une stratégie de référencement, la compréhension du fonctionnement des
moteurs permet de mieux situer les optimisations à réaliser in-site (technique, éditoriale, verticale), au
niveau du Netlinking et de s’outiller efficacement afin de réaliser les différentes tâches d’un référenceur.
2 Optimisation in-site
L’optimisation in-site comprend un ensemble de techniques d’optimisation technique, d’optimisation
éditoriale et d’optimisation verticale. Si l’optimisation technique porte plus sur un site Web, les
optimisations éditoriales et verticales sont à aborder au niveau des différents contenus Web.
Enfin, la réécriture d’URL permet de modifier des URL « exotiques » contenant un ensemble de
paramètres et de caractères spéciaux (&, ?, /, etc.). Elle n’a pas d’impact sur le positionnement mais
beaucoup plus sur l’incitation au clic (la présence de mots clés indiquant plus explicitement le contenu
accessible). La mise en place d’une réécriture d’URL passe par plusieurs étapes : vérifier que votre
choix d’hébergement autorise la réécriture d’URL ; lister les pages dynamiques dont l’URL comporte des
paramètres ; écrire les règles d’un nouveau schéma d’URL dans le fichier .htaccess qui correspond ;
changer tous les liens vers les pages dont l’URL a été réécrite ; vérifier qu’il n’y a pas d’erreur.
Focus 7.2
Duplicate content : le reconnaître, s’en prémunir
Par Sébastien Billard, expert SEO chez 3 Suisses.
Le duplicate content (littéralement « contenu dupliqué ») se définit comme le fait pour une même
page d’être accessible via plusieurs URLs. Au sens strict, il s’agit d’une duplication à l’identique
(code HTML + textes) d’une page Web sur plusieurs URLs. Cependant, dans la pratique, on
considère également comme étant du duplicate content des pages avec un contenu identique mais
dont le code HTML diffère légèrement. Le fait que des fragments de textes soient dupliqués sur le
site ou sur le Web est quant à lui qualifié de « near duplicate ».
Quelques sources courantes de contenu dupliqué :
Noms de domaine multiples (« www.monsite.com » et « www.monsite.fr »)
Sous-domaine multiples (« www.monsite.fr » et « monsite.fr »)
Mauvais canonisation de la page d’accueil et des répertoires (« www.monsite.fr/ » et
« www.monsite.fr/index.php »)
Identifiants de sessions passés dans les URL (« index. php ?sid=123 » et « index. php ?sid=456 »)
Inconsistances dans l’ordre des paramètres (« page. php ?couleur=rose&taille =42 » et « page.
php ?&taille =42 couleur=rose »
Réécriture d’URLs sans redirections (« /produit. php?type=chemise&color=rose » et « /chemise-
rose.php »)
Si les moteurs de recherche ne pénalisent pas le duplicate content en tant que tel, celui-ci n’en est
pas moins néfaste pour le référencement, d’autant plus que sa volumétrie est importante.
Les principaux problèmes posés par le duplicate content sont la dilution de la popularité
(PageRank) et l’épuisement du « budget crawl », c’est-à-dire du temps alloué par les moteurs à
l’indexation d’un site. Le temps passé à crawler de multiples fois les mêmes pages sous des URL
différentes est du temps perdu qui n’est pas passé à crawler d’autres pages plus utiles pour le
référencement.
Si les moteurs de recherche ont mis en place des protocoles de lutte contre le duplicate content
comme les balises link rel=canonical, la meilleure approche est toujours de traiter le problème à la
source en s’assurant que chaque contenu ne puisse être accédé que par une URL unique.
Comme vous pouvez le constater, ce premier niveau d’optimisation nécessite un minimum de
compréhension et de connaissance en langage de programmation.
Focus 7.3
Netlinking : priorité à la qualité
Par Olivier Andrieu, consultant SEO et éditeur du site Abondance.com
La notion de netlinking, ou action de rechercher des liens (backlinks) vers son site, a connu plusieurs
époques sur le Web. Longtemps, de nombreux Webmasters et référenceurs ont mis en place des
stratégies plus ou moins pernicieuses pour créer des liens factices pointant sur un site : on a alors
connu la grande époque des « annuaires SEO », des « communiqués de presse » (qui n’en étaient
pas, puisqu’il s’agissait plutôt de sites « poubelles », sorte de blogs ouverts acceptant n’importe
quel contenu assorti de liens, bien sûr), du « spamco » (ajout de commentaires sur les blogs ou dans
les forums, sans autre intention que d’ajouter un lien dans la signature) et autres joyeusetés.
Et puis un jour, Penguin est arrivé. Le filtre antispam de Google a alors fait un grand ménage sur le
Web, et notamment dans l’Hexagone. Il était temps !
Depuis 2012 donc, date à laquelle le manchot googlien a été lancé, la situation a changé avec une
réelle prise en compte (et de conscience) de la nécessité de créer du contenu de qualité permettant
d’attirer des liens naturels de bien meilleure qualité. Cette notion de « linkbaiting » (appâter le lien
avec des textes d’excellente valeur) demande certes beaucoup plus de temps à être mise en place,
mais elle est sans commune mesure avec les méthodes anciennes en termes de pérennité et
d’efficacité.
La morale de cette histoire « penguinesque » est donc qu’il est absolument nécessaire de rechercher
des liens naturels et de qualité. Bannissez toute méthode visant à créer des backlinks factices qui
deviendront vite « toxiques » !
Toutes ces actions qu’elles relèvent de l’optimisation technique, de l’optimisation éditoriale/verticale,
de l’optimisation du Netlinking n’ont pas véritablement d’intérêt si vous ne mesurez pas leurs résultats, à
travers l’utilisation d’outils SEO.
Focus 7.4
La « boîte à outils » d’un référenceur
Entretien avec Renaud Joly, responsable SEO (www.renaud-joly.fr)
Quels outils utilisez-vous ?
J’ai utilisé de nombreux outils durant mon parcours, je retiens : l’analyse du positionnement
(SEMrush, Myposeo, Yooda), l’analyse des liens pointant vers le site (Majestic SEO), l’analyse des
logs (Botify), la simulation de crawl du site (Deepcrawl, Xenu). Il ne faut pas oublier les outils
proposés par les moteurs de recherche qui sont une mine d’information gratuite sur le comportement
des moteurs concernés : Google Webmaster Tools, Bing Webmaster Tools, Yandex Webmaster
Tools. On peut y ajouter Google Analytics en Webanalyse.
En quoi sont-ils importants dans votre travail ?
Les outils vont permettre de gagner du temps, ce qui améliore l’efficacité car on peut mener des
actions plus rapidement. Les outils vont ramener des données que l’on ne peut pas se permettre de
vérifier manuellement, exemple : les crawlers, les contrôles positionnement. Ils vont pré-analyser
les données : rapport d’erreur, évolution. Ils vont permettre de systématiser les contrôles, ce qui
procure de la fiabilité et de la réactivité. Ils vont enfin permettre d’analyser les sites concurrents.
Quelles sont les différences entre ces outils ?
Les fonctionnalités sont assez proches. Les différences se font selon la volumétrie à analyser.
Certains outils sont calibrés pour des sites de taille moyenne de quelques dizaines de milliers de
pages, d’autres sont calibrés pour de gros sites ou des marketplace de plusieurs millions de pages.
Dans le second cas, l’industrialisation est plus poussée, avec par exemple la présence d’une API
permettant d’automatiser les transferts de données. Le prix est aussi adapté en fonction des volumes
à traiter.
Le domaine du Web Analytics est en lien direct avec le SEO et aujourd’hui dans une vision multicanal
et SEM, il a donné naissance au Digital Analytics[33]. Plusieurs outils sont gratuits. Outre Google
Analytics, www.google.fr/intl/fr/analytics/, la société AT Internet développe une offre complète avec Xiti
Free, www.xiti.com/. Une solution open source est également disponible avec Piwik, piwik.org/.
Ce domaine intègre un vocabulaire spécifique avec des notions comme celles de pages vues (nombre
de fois où un document est vu/lu dans un navigateur Web) ou de taux de rebond (pourcentage de visite
d’une seule page qu’elle soit la page d’accueil ou une autre page). La mesure d’audience et de
performance nécessite de se fixer des objectifs précis (par exemple : améliorer la fidélisation, augmenter
le panier moyen, etc.) qui vont être traduits en KPI (ou indicateurs clés de performance)[34]. Il s’agit
d’analyser des tendances, des variations, de suivre régulièrement les évolutions et de tester des pistes
d’optimisation.
En effet, parmi les bonnes pratiques souvent relevées, il est indiqué d’identifier les parcours des
utilisateurs, afin d’optimiser le tunnel de conversion et d’identifier les pages de sortie ; de réaliser des
A/B tests afin de vérifier les choix ergonomiques et de design.
Une solution comme Google Analytics présente de très nombreux tableaux de bord correspondant à des
dizaines de critères (nombre de vues, durée moyenne d’une visite, sites référents, flux de comportement,
etc.). Elle connaît des évolutions régulières ajoutant de nouvelles fonctionnalités et modifiant parfois les
grandes catégories qui sont actuellement : temps réel, audience, acquisition, comportement, conversions,
tracking mobile. Les critères qu’elles renferment permettent de répondre à un ensemble de questions : qui
sont vos visiteurs ? D’où viennent-ils ? Vos visiteurs sont-ils fidèles ? Quel est l’impact du marketing
viral ? Quelle est la part de vos visiteurs qui proviennent des moteurs de recherche ? Quel est votre
niveau de conversion par sources de trafic ? Quels sont les parcours de vos visiteurs sur votre site (pages
d’arrivée et de sortie) ? Etc.
Google Analytics propose de définir des objectifs de conversion, de les marquer et de mesurer les
résultats. Un objectif correspond à une page Web, à laquelle l’internaute accède après avoir effectué une
action souhaitée (ex. : un achat). Il se définit donc par une URL spécifique, un nom d’objectif, un
entonnoir de conversion (chemin d’accès à la page objectif), une valeur d’objectif (permettant de mesurer
le retour sur investissement).
Si ce chapitre a pour ambition première de permettre à des étudiants ou des professionnels d’évaluer
les enjeux du référencement naturel, nous évoquerons sous l’angle de la complémentarité quelques
principes du référencement payant[35].
Les solutions de « référencement payant par achats de mots clés » ou « achats de liens sponsorisés »
(SEA) sont à la fois complémentaires mais aussi en concurrence avec le référencement naturel (SEO).
En effet, s’il n’y pas de lien entre les deux en termes de positionnement, la concurrence existe en termes
de visibilité dans une SERP. Les liens sponsorisés peuvent occuper les emplacements les plus visibles,
sur certaines requêtes concurrentielles.
1 Google Adwords
Les solutions de référencement payant sont basées sur la vente de mots clés aux enchères. Cette
démarche conduit à afficher un titre d’annonce, un lien et un court descriptif vers une page Web ciblée ou
page d’atterrissage. La solution la plus connue est Google Adwords.
En complément d’une stratégie de référencement naturel, toute la stratégie d’Adwords repose sur
l’intérêt que peut avoir une entreprise à acheter une visibilité sur certains mots clés pour une période
donnée. Le principe de Google Adwords est de mixer l’enchère et la pertinence des résultats. En effet,
chaque enchère est pondérée d’un quality score qui note la pertinence d’une campagne et des annonces.
La tarification de cette démarche est déterminée au CPC (coût par clic).
En tenant compte des statistiques fournies par Google, il est possible de connaître le taux moyen de
clics pour un mot-clé acheté, en fonction du CPC investi. Il est également possible de prévoir une somme
maximale par clic allouée à l’achat d’un mot-clé. Ceci permet à l’entreprise cliente de gérer son budget
publicitaire avec une hypothèse minimale et maximale de coût.
Néanmoins, avec le système de CPC, les mots clés sont commercialisés aux enchères, ce qui peut être
vite onéreux pour des marchés concurrentiels, tels que l’assurance, l’automobile, les voyages, la banque,
etc. dominés par des acteurs de taille mondiale. L’étude du champ lexical (analyse sémantique) et des
budgets associés conduit généralement à éviter les mots génériques (voiture, voyage, assurance, etc.)[36]
sous peine de voir le budget mensuel alloué, épuisé en quelques heures. La combinaison de ces mots clés
avec d’autres plus spécifiques tels que la ville de l’entreprise est alors recommandée pour certains
professionnels. Ainsi, « assurance Angers » ou « assurance Pau » coûteront beaucoup moins chers que le
seul mot « assurance ».
EN CONCLUSION
La dimension stratégique du référencement passe par la prise en compte, à la fois des
évolutions passées et à venir des moteurs de recherche mais aussi de la recherche
d’information sur le Web ou sur mobile. L’histoire du référencement montre la capacité des
référenceurs à anticiper les évolutions des moteurs, lesquelles viennent soit d’innovations
techniques (ex. : le knowledge graph), soit de choix économiques stratégiques (ex. : le not
provided), soit le plus souvent en réaction à des pratiques devenues abusives (ex. : les filtres
Panda et Pingouin).
Depuis 2008-2009, le référencement a connu une accélération des évolutions touchant un
moteur de recherche comme Google. Complétant la recherche universelle, la personnalisation
des résultats a modifié les pratiques des référenceurs. Elle relève de différentes situations,
qu’elle soit en fonction de la localisation de l’internaute, de l’interface utilisée (.fr ou .com),
du fait qu’il soit identifié ou non et plus récemment de l’intégration des résultats de recherche
provenant de contacts sur Google+.
Autres changements importants, le déploiement d’une nouvelle infrastructure technique avec
Google Caffeine en 2010, améliorant la fraîcheur et surtout la capacité à traiter les
informations ; les modifications de l’algorithme (avec Colibri en 2013), faisant suite au
déploiement de deux filtres visant à pénaliser le spam (Panda en 2011 et Pingouin en 2012)[40],
conduisent à devoir réajuster régulièrement les stratégies mises en place. Si Google Caffeine
qui était une nouvelle infrastructure technique a amélioré la fraîcheur de l’index et la capacité
à traiter les informations, Colibri est un changement d’algorithme visant à améliorer la
pertinence des SERP. Entre les deux, les nombreuses mises à jour d’un premier filtre, Panda,
se sont attaquées aux fermes de contenus et ont visé à lutter contre le spam, tandis que celles
d’un second filtre, Pingouin, se sont attaquées aux fermes de liens et donc aux liens de
mauvaise qualité.
À l’arrivée, la multiplication des pénalités a notamment eu comme conséquence des actions de
dés-optimisation, dés-indexation, suppression de liens[41] là où les stratégies visaient
auparavant à sur-optimiser et à obtenir le maximum de backlinks.
Quant au Web sémantique tant annoncé, il imprègne déjà les moteurs de recherche. Citons à
titre d’exemple, les SERP de Google intégrant des contenus relevant de la base de
connaissance du knowledge graph1, proposant une fiche d’information basée sur des entités
nommées, correspondant à des noms d’individus, de lieux, d’organisations, etc.
En parallèle, les évolutions ne sont pas simplement à rechercher du côté de Google mais aussi
dans les façons même d’accéder à l’information. Des services de reconnaissance vocale
comme Siri sur iOS ou Google Now sur Android laissent entrevoir des changements
importants dans le métier de référenceur.[42]
[2] La société AT Internet publie un baromètre mensuel des parts de visites provenant des moteurs de recherche. À titre indicatif, Google
[4] Nous évoquons en italique et entre guillemets des verbatims de référenceurs « pionniers » recueillis pour une étude visant à proposer une
modélisation de profils de référenceurs ainsi que des trajectoires professionnelles et de formation (Domenget, Michel, 2014).
[5] Une page satellite est une page optimisée sur un ou plusieurs mots clés, destinée aux moteurs de recherche et visant le plus souvent à
contourner un frein au référencement.
[6]
L’association SEO Camp est une confédération internationale visant à développer l’image du métier de référenceur et à organiser des
événements autour du référencement et du SEM. www.seo-camp.org
[7] Voir notamment l’ouvrage de Xavier Delengaigne, Organiser sa veille sur Internet, Eyrolles, 2011.
[8] Voir l’article d’Olivier Andrieu : « Veille SEO : mes sources d’information anglophones »
www.abondance.com/actualites/20110818-8992-veille-seo-mes-sources-dinformation-anglophones.html
[9] Le sens du terme black hat en SEO diffère de celui en informatique. Il est employé pour « décrire le comportement d’un référenceur
qui utilise des techniques contraires aux guidelines de Google » (source : Wikipédia).
[10]
La certification expert référencement (CESEO) est un examen visant à valider des compétences professionnelles dans le domaine du
SEO. Voir ceseo.org
[11] Voir l’annuaire des formations SEO (2010) www.seo-camp.org/association/commissions/formation/annuaire et le palmarès des écoles
Internet (2013) etudiant.lefigaro.fr/fileadmin/templates/palmares_ecoles_internet_2013.htm
[12]
Voir le portail des métiers de l’Internet qui présente le métier de consultant en référencement naturel
metiers.internet.gouv.fr/metier/consultant-en-referencement-naturel
[13] Un CMS ou Content Management System est un type de logiciels destinés à la conception et à la mise à jour dynamique de sites Web
ou d’application multimédia.
[14]
Voir l’étude emploi des référenceurs en France en 2013 www.journaldunet.com/solutions/seo-referencement/profil-et-salaire-des-
referenceurs-en-france-en-2013-etude-seo-camp.shtml. Étude basée sur un questionnaire en ligne, disponible sur le site de l’association
SEO Camp, de septembre 2013 à janvier 2014. 440 répondants.
[15] Voir www.journaldunet.com/solutions/seo-referencement/recherche-universelle-seo-video-google-news-et-images.shtml
[16] Voir trois « méta-études » sur les comportements informationnels des usagers urfistinfo.hypotheses.org/1551, recherche d’information
sur le Web (RIW) et moteurs de recherche : le cas des lycéens tel.archives-ouvertes.fr/docs/00/71/91/99/PDF/QuachTat2011.pdf
[17] Voir https://support.google.com/websearch/answer/106230?hl=fr
[20] Le « not provided » correspond aux visites dont le mot clé tapé par l’internaute ne peut pas être déterminé, à la suite de la
généralisation du protocole de connexion sécurisée https par Google. Voir www.atinternet.com/documents/bientot-un-100-provided/
[21] Voir docs.abondance.com/question123.html
[22] Une redirection 301 est une redirection définitive à la différence d’une redirection 302 qui est temporaire. La première permet le
[24] Notons que cet exemple ne correspond en rien à un modèle d’optimisation des balises title, description et contient toujours des mots
[27] Le negative SEO regroupe un ensemble de techniques dont une attaque de liens de mauvaise qualité visant à « faire tomber » un site,
lui faire prendre une pénalité ou le faire « descendre » dans les SERP.
[28] Parmi les Google bombing devenus célèbres : la biographie officielle de George W. Bush en 1ère position sur la requête « miserable
failure » en 2003 ou la requête « Nicolas Sarkozy » renvoyant au site officiel du film Iznogoud en 2005.
[29] Dans son article sur l’esprit du PageRank, Dominique Cardon distingue un principe d’autorité, révélant la profonde inégalité en termes
de pertinence et d’importance des pages du Web, un principe de popularité, poussé par les logiques d’audience, un principe d’affinité, lié
à l’ascension des médias socionumériques et un principe d’efficacité mesuré par la satisfaction des internautes. Une difficulté de
compréhension vient du fait que ces principes ne recoupent pas les mêmes notions dans le jargon des référenceurs. Pour ces derniers, le
PR mesure la popularité, le TrustRank (évoqué supra) est un indicateur d’autorité. Pour éviter toute confusion, nous éviterons d’utiliser les
notions d’autorité et de popularité pour évoquer les critères de calcul de l’algorithme de Google.
[30]
On retrouve ce souci de transmettre ou non du « jus de liens » avec la distinction entre attributs dofollow et nofollow qui peuvent être
associés à un lien.
[31] Voir oseox.fr/referencement/maillage-interne.html
[32]
Voir adscriptum.blogspot.fr/2006/01/stratgie-de-liens.html
[33] Voir l’association : digitalanalyticsassociation.org
[35] Pour répondre à de nombreuses questions, voir le guide des liens sponsorisés de Florian Marlin, guide-liens-sponsorises.fr/
[36] Néanmoins, les annonces sur des mots clés génériques génèrent le plus de trafic et de conversions en volume mais à des coûts parfois
très élevé.
[37] https://support.google.com/adwords/answer/2497836
[38] Le JDN a proposé une étude des mots clés les plus chers www.journaldunet.com/ebusiness/publicite/mots-cles-adwords-les-plus-chers/
[39] Dans Google Adwords, le titre de l’annonce est limité à 25 caractères et la description se compose de deux lignes de 35 caractères
maximum chacune.
[40] Voir pour un résumé www.webrankinfo.com/dossiers/google-search/hummingbird
[42] google.fr/intl/fr/insidesearch/features/search/knowledge.html
Partie
Études et technologies
4
Manu CARRICANO
Professeur Escuela de Alta Dirección y Administración de Barcelone,
laboratoire Pricing Center de l’EADA
Laurent FLORES
Maître de conférences HDR Université Paris II et à l’INSEEC,
laboratoire LARGEPA
Objectifs
Sommaire
Bien sûr, une certaine disparité existe selon les pays : en 2012, les études online représentaient
respectivement 38 % et 45 % du total des modes de collectes au Canada et au Japon, alors que dans
certains pays comme la Bolivie ou au Pakistan, ce pourcentage des dépenses était quasiment nul. Sur ce
continuum, la France occupe une position intermédiaire avec 20 % des dépenses études en 2012.
Qualifiées d’études de la « 4e génération » (Galan et Vernette, 2000), les études online ouvrent une
nouvelle voie à l’industrie des études de marchés. Tour à tour manuelles (1re génération), informatisées
(2e génération), puis automatisées (3e génération), Internet offre aujourd’hui aux professionnels des études
de nouvelles opportunités de développement, tant en termes de coût, de rapidité, que de qualité et
d’efficacité grâce au développement de nouvelles méthodes et approches non disponibles jusqu’ici. C’est
ainsi que de nouveaux acteurs spécialisés ont émergé au début des années 2000, aux États-Unis pour
commencer, puis en Europe et en France[2], tandis que les acteurs historiques du marché[3] se contentaient
d’intégrer timidement les modes de recueil online.
Dans les sections suivantes, nous nous proposons de revenir sur les principales caractéristiques des
études online, en passant rapidement en revue les différents types d’études existantes. Qu’elles soient
quantitatives ou qualitatives, au-delà des avantages de rapidité et de coût offerts par la technologie, nous
insisterons plus particulièrement sur les nouvelles perspectives et méthodes que permet Internet. De
nombreux auteurs ont souligné, au-delà des aspects économiques, l’importance des bénéfices
« transformationnels » à attendre de cette technologie (Day 1994 ; Florès 2003 ; Grover & Al., 1996).
C’est sur ce dernier point qu’il semble en effet qu’Internet offre aux hommes d’études et de marketing de
véritables opportunités. Une place particulière sera donc accordée aux nouvelles perspectives qui
s’offrent (voir s’imposent) au métier des études à la fin de ce chapitre. Au préalable, une rapide revue
considérera le cas particulier des études online dont l’objet est « d’étudier le média » (à des fins de
mesure d’audience ou d’efficacité des sites Internet ou de la publicité online par exemple). Dans ce
dernier cas, Internet est alors non seulement le moyen d’études mais également l’objet d’études lui-même.
Pour bien situer les études qualitatives online, il est utile de le comparer à celles menées généralement
en « face à face ». Les principales différences entre les deux modes de collecte sont détaillées ci-
dessous.
Au-delà des méthodes elles-mêmes, l’ensemble des spécialistes du qualitatif semblent s’accorder sur le
fait qu’Internet a véritablement donné un nouvel élan aux études qualitatives sur Internet. Ce nouvel élan
est spécialement bien représenté par l’avènement récent des communautés d’études online. Lancées au
début des années 2000 par la société Communispace aux États-Unis, les Communautés d’études en ligne
(ou « Market Research Online Community » (MROC) en anglais) sont en plein développement et
représentent la nouvelle tendance de fond du qualitatif online et plus généralement des études online. En
effet, mariant tout à la fois les avantages du qualitatif et du quantitatif, elles permettent d’inscrire les
études dans la durée et vont dans le sens de développement d’études de plus en plus « relationnelles »[7].
Elles offrent de nouvelles perspectives aux études, le répondant, ou plutôt le participant, étant tout à la
fois questionné, questionne les autres participants mais aussi la marque, le tout dans un espace favorisant
le libre-échange, l’écoute, pour le développement d’études de plus en plus « connectées », comme l’ont
montré Schillewaert, De Ruyck et Verhaeghe (2009) et Florès (2008a).
Avant d’aborder les nouvelles perspectives offertes par Internet et plus particulièrement par les médias
sociaux, dans les paragraphes suivants, nous revenons d’abord sur la particularité des études online
s’intéressant au média lui-même. Comme déjà évoqué, dans ce cas Internet n’est pas seulement le moyen
de recherche mais devient l’objet de recherche lui-même.
Section 3
Dès l’origine, les études online se sont intéressées au média lui-même, et plus précisément aux mesures
d’audience de l’Internet. Le principal objectif de ces études est d’estimer la part de la population
connectée, de connaître les profils types des utilisateurs du média, de suivre leur navigation et d’estimer
la taille des audiences des sites qu’ils visitent (quels sites internet sont visités, à quelle fréquence, etc.).
En France par exemple, deux sociétés fournissent des données d’audience de l’Internet, ce sont les
sociétés Médiamétrie-Netratings et Comscore. Compte tenu de la spécificité des études audiences, nous
nous limiterons ici aux cas particuliers des études d’efficacité des sites Internet et de la publicité online.
Le lecteur intéressé pourra malgré tout obtenir plus d’information auprès des sociétés spécialisées ou
encore se référer aux actes des conférences de l’Esomar, de l’ARF aux États-Unis, ou encore de l’IREP et
du CESP[8] en France. Par ailleurs, sans faire partie véritablement de l’industrie des études de marchés,
signalons tout de même que la mesure d’audience des sites internet dite « site centric », et l’industrie du
« Web analytics » se sont fortement développées ces dernières années (en particulier avec la mise à
disposition gratuite de l’outil Google Analytics). Le « Web analytics » offre de nombreuses opportunités
d’analyse. Le lecteur intéressé pourra trouver dans l’ouvrage de J. Warren et N. Malo (2010) un excellent
résumé des fonctionnements et des possibilités d’analyse offertes par la collecte systématique des
statistiques de visites des visiteurs d’un site Internet.
De façon plus spécifique, nous détaillons dans les sections suivantes les études dites d’efficacité des
sites Web et celles ayant trait à la mesure d’efficacité de la publicité en ligne.
Source : Crmmetrix
Figure 8.2 Les 6 facettes de l’efficacité d’un site Web
2 Mesurer l’efficacité de la publicité online
Au 1er semestre 2010, selon Kantar Media ce sont plus de 1,5 milliard d’Euros qui ont été investis sur
de la publicité « display »[11] sur Internet. Le tout représente plus de 12 % des investissements médias en
France (12,2 % % : 4e média en France), soit une croissance de plus 12 % par rapport à la même période
en 2009. On le voit, Internet tire clairement une partie de la croissance des investissements médias, plus
de 60 % des annonceurs utilisant internet le faisant dans le cadre de campagnes pluri-média. C’est donc
naturellement que chercheurs et annonceurs se sont penchés sur la question centrale de la mesure de
l’efficacité de la publicité online.
Les chercheurs se sont penchés dès l’origine sur l’efficacité de la publicité online et comportement de
l’Internaute. Pavlou et Stewart (2000) soulignaient très tôt d’ailleurs que le consommateur devait être au
cœur des mesures d’efficacité de la publicité online, par opposition aux mesures dites objectives (taux de
click, etc.). Dans un article très remarqué, Drèze et Hussherr (2003) observent sur 49 sujets la relation
entre le taux de click et l’observation effective de l’annonce de publicité (bannières) par le biais d’une
méthode dite d’eye-tracking. Leurs résultats montrent que la zone d’exposition et la taille sont
déterminantes. Plus intéressant, les internautes de l’échantillon se révèlent capables d’identifier qu’il
s’agit d’une bannière de publicité sans regarder directement l’annonce, et de fait, évitent inconsciemment
dans certains cas de regarder les bannières. Les liens sponsorisés sont également très fréquemment
utilisés aujourd’hui, et des travaux récents ont démontré que l’attitude du consommateur à l’égard des
liens sponsorisés modérait fortement l’intention de cliquer sur le lien (Gauzente 2010).
Quels sont dès lors, les principaux déterminants de l’efficacité de la publicité online ? Baltas (2003)
apporte un début de réponse en distinguant des facteurs créatifs (taille de la bannière, longueur du
message, logo de la marque, etc.) de facteurs liés au média (durée de la campagne, dispersion des
médias, etc.) D’autres chercheurs ont aussi montré que les mesures d’efficacité devaient être intégrées
dans une perspective plus générale, liée au site lui-même (attractivité par exemple), au consommateur
(quel sens perçoit-il dans ces messages ?) et aux opportunités éventuelles de co-marketing entre autres
(Sudoh, Bevans et Sengupta 2002). Ces dimensions sont elles aussi explorées dans les approches des
professionnels du secteur.
De leur côté, les annonceurs éprouvent eux aussi le besoin de mesurer l’efficacité de leurs campagnes
online qu’elles soient « mono média » ou intégrées dans des plans plurimédias (ou 360°). En effet bien
au-delà du « taux de click », dont le taux moyen est aujourd’hui de l’ordre de 0,03 %, il est prouvé que la
publicité online a des effets substantiels sur la marque (Hollis, 2005). Dynamiclogic fut la première
société qui s’est systématiquement intéressée à la mesure de l’impact des campagnes online sur la
marque. En utilisant, une procédure d’échantillonnage dite de test/contrôle (via un recrutement en continu,
dit de « life sampling »), qui permet d’interroger des visiteurs des sites du plan média de la campagne
online, la société Safecount propose par exemple d’isoler les réponses des personnes exposées au plan
média (aux formats publicitaires, aux sites visités, et le nombre d’expositions qui permet d’établir des
courbes de réponses) et de les comparer à des personnes non exposées à ce plan[12]. Les différences
observées sur des indicateurs tels que la reconnaissance publicitaire, l’attribution, l’agrément ou
l’intention d’achat permettent de mesurer l’impact d’une campagne online. Lorsque la campagne online
fait parti d’un plan plurimédias, la reconstitution des expositions probables aux autres médias permettent
d’évaluer les synergies médias Internet et TV par exemple[13]. Il est également possible d’interroger les
membres d’un acces panel online pour réaliser des études d’efficacité publicitaire. Comme dans le
premier cas, afin d’isoler les exposés et non exposés au plan média, il est nécessaire de disposer d’un
outil de contrôle de cette exposition (comme pour le « life sampling », le tout est généralement mis en
place grâce par « taguage » de l’ensemble des publicités du plan média online).
Sous l’impulsion d’une progression significative des investissements en « display » et d’une croissance
exponentielle à venir, la part des études d’efficacité de la publicité online progresse et devient de plus en
plus une affaire de spécialistes (Dynamiclogic, Crmmetrix, Nielsen Online, etc.). À ce titre, le standard
idéal de mesure semble encore à définir compte tenu de la faiblesse des taux de participations enregistrés
tant en « life sampling » que sur acces panels, qui certes, semblent moins souffrir « a priori » de la non-
participation des internautes aux enquêtes, mais pêchent également par d’autres biais. Un rapport récent
publié aux États-Unis par l’Internet Advertising Bureau (IAB), en août 2010, recommande d’ailleurs à
l’ensemble des acteurs de « sérieusement » se pencher sur la question de la mise en place de standards de
mesure d’efficacité acceptée par l’ensemble de l’industrie[14].
Après avoir passé en revue les grands types et méthodologies d’études en ligne, il nous semble
maintenant important d’aborder les nouvelles opportunités offertes par le Web au métier des études. En
effet, comme nous l’avons dit, les bénéfices possibles peuvent aller bien au-delà de la rapidité et du coût.
Section 4
Les médias sociaux[15], définis comme « un groupe d’applications en ligne qui se fondent sur l’idéologie
et les techniques du Web 2.0 et qui permettent la création et l’échange de contenu généré par les
utilisateurs eux mêmes » (Kaplan et Haenlein, 2010), démontrent l’impérieuse nécessité pour les études
online de s’approprier la valeur créée par l’individu participant et ses interactions avec les autres
participants (et non le seul « répondant », rôle dans lequel l’individu était jusque lors trop souvent
cantonné dans les études traditionnelles). Quelques praticiens ont d’ailleurs bien saisi cette tendance de
fond puisqu’ils évoquent dans leurs écrits les concepts de « recherche connectée »[16] (Schillewaert et al.,
2009) ou encore de « community based research » (Florès, 2008a) pour faire référence au rôle de plus
en plus actif du participant, tour à tour répondant, participant et chercheur lui-même.
Avant d’aborder plus amplement cette tendance de fond liée au développement de méthodes d’études de
plus en plus « connectées » ou « relationnelles », nous rappelons, dans un premier temps, d’une part les
opportunités offertes par l’interactivité de la technologie, et d’autre part les opportunités fournies par la
traçabilité des échanges et des comportements via terminal mobile ainsi que sur Internet. Dans nos
propos, ces opportunités font écho aux bénéfices dits « transformationnels » de la technologie Internet, et
qui dépassent les seuls effets « automationnels » et « informationnels » liés à la rapidité, au coût et plus
généralement à l’efficience de process (Day 1994 ; Grover & Al., 1996).
EN CONCLUSION
Au terme de ce développement, force est de constater qu’en l’espace de 15 ans à peine,
Internet a véritablement bouleversé l’univers des études de marchés. Représentant aujourd’hui
le moyen de collecte majeur des études quantitatives (au niveau mondial), mais également un
objet d’études (les études d’efficacité média ou du « marketing digital ») significatif qui ne
cesse de croître à l’instar des investissements Internet qui représentent aujourd’hui plus de
15 % des investissements médias des annonceurs en France[24], il semble incontournable, que
la richesse des idées disponibles sur le Web doit pousser les responsables marketing et les
hommes et femmes d’études à plus que jamais valoriser ce nouvel espace de discussions et à
envisager le marketing de façon plus « humaine et conversationnelle ». Les bonnes idées sont
certainement plus que jamais disponibles, et au-delà des méthodes, ce sont bien la curiosité et
le sens critique qui pourront faire des études une fonction plus que jamais fondamentale dans
l’entreprise. Nous considérons donc que le Web au sens large, le Web 2.0 et les médias
sociaux en particulier, sont une chance extraordinaire pour permettre au métier des études de se
réinventer.
Au verbe « sonder », nous préfèrerons l’expression avoir « une conversation avec ses
clients », car plus en phase avec le contenu et la vocation même du fameux Web 2.0. Par
exemple, certaines marques ouvrent des espaces collaboratifs publics ou privés (avec certains
de leurs clients invités de façon privée et exclusive) qui sont des lieux d’échanges fructueux
pour la mise au point de nouveaux produits, de nouvelles campagnes de communication, un
feedback sur le lancement d’un nouveau produit, ou tout simplement avoir un avis sur une
initiative d’un concurrent, etc. À l’avenir, ou plutôt dès à présent, nous pensons que ce nouveau
type d’approche participative et collaborative devrait faire partie des possibilités « d’écoute
des marchés » que les responsables des études ne pourront négliger dans leur mission
quotidienne de compréhension et d’anticipation des besoins du consommateur. Comme nous
l’avons expliqué, ces méthodes doivent trouver leur place à côté d’autres méthodes de
sollicitation plus traditionnelles pour ainsi enrichir les possibilités de connaissance des
marchés mises à disposition des marques. Nous irons même plus loin en disant que les
marques qui se priveront de cette « recherche connectée » (Schillewaert, 2009) auront plus de
mal à rester pertinentes sur leurs marchés.
Le Web 2.0, les médias sociaux et le Web au sens large (incluant aussi la mobilité) sont de
toute évidence une formidable opportunité pour remettre le client au centre de l’organisation, et
du même coup faire des études de marché une fonction plus que jamais indispensable dans
l’entreprise. À l’ère du tout consommateur et du Web par les gens pour les gens, accessible
depuis une grande variété de terminaux et pendant toutes les phases du parcours de
consommation, le Web au sens large donc, offre une formidable opportunité pour toute
entreprise d’accentuer son orientation client et donc son orientation marché et d’ainsi
améliorer sa performance organisationnelle. Il sera intéressant d’observer dans les prochaines
années, comment les entreprises, petites, moyennes ou grandes, intégreront le Web 2.0 et ses
conséquences dans leur processus d’écoute des marchés. Comme nous l’avons dit dès 2008[25],
les études de marchés ont commencé leurs mues avec l’arrivée d’Internet, celle-ci est loin
d’être achevée et réserve aux chercheurs et praticiens de belles perspectives d’avenir dans un
métier qui devra demeurer tout à la fois « scientifique » de par les méthodes rigoureuses (et
mathématiques) qu’il met en œuvre, mais aussi de plus en plus « artistique » dans sa capacité à
intégrer les changements et les nouveaux modes de vies de notre société « hyperconnectée ».
[2] Citons pour exemple les sociétés BrainJuicer, Crmmetrix, Comscore, Insight Express.
[3] En France citons par exemple les sociétés Ipsos, Ifop ou encore TNS Sofres.
[4]
Dès le milieu des années 90, la disponibilité de multiples outils en ligne tels www.surveymonkey.com gratuits ou presque, faciles à
prendre en main ont contribué à « populariser » le tout.
[5]
Pour plus d’informations le lecteur peut se référer au guide Esomar sur les 26 questions qu’un acheteur d’études devrait poser à son
fournisseur de panel online (« 26 Questions To Help Research Buyers Of Online Samples » : http://www.esomar.org/index.php/26-
questions.html).
[6] Nous remercions vivement notre confrère Daniel Bô de l’institut d’études QualiQuanti pour la mise à disposition de son « Book des
études online » qui a permis d’illustrer et d’enrichir plus encore nos propos, en particulier, sur les access panels online et les études
qualitatives.
[7] Pour un tour du marché et des pratiques aux États-Unis, les lecteurs pourront se référer au rapport de Forrester sur le sujet :
http://www.forrester.com
[8] Irep : Institut de recherche et d’études publicitaires (www.irep.asso.fr) ; Cesp : Centre d’études des supports publicitaires
(www.cesp.org).
[9] Résultat issu de la base de données normées SiteCRM de la société crmmetrix : http://fr.crmmetrix.com
[11]
Le « display » fait référence à l’ensemble des formations du type « bannières », et ne prend pas en compte les dépenses en « search »
des annonceurs (publicités sur mots clé sur Google par exemple) qui représentent toujours la majeure partie des investissements des
annonceurs.
[12] Pour plus d’informations sur la méthodologie de « life sampling » : www.safecount.net
[14]
Pour plus d’informations et consulter le rapport de l’IAB : http://www.iab.net
[15] Nous renvoyons le lecteur désireux d’approfondir le sujet vers le chapitre 3 de cet ouvrage : « Les médias sociaux ».
[17] Pour plus d’information ou pour lancer une session : www.branddelphi.com ou http://fr.crmmetrix.com
[18] L’ensemble de ces statistiques est mise à disposition de façon gratuite par Allociné sur le site www.allocinepro.fr
[19] Rapport Google du 17 août 2009, « On the Predictability of Search Terms »: http://googleresearch.blogspot.com
[20]
Voir en particulier sur le sujet les recherches du professeur Stéphane Gauvin de l’université Laval au Canada :
http://entreprisedigitale.typepad.com/main
[21] Conférence Esomar « Panel Research », Orlando, 28-30 octobre 2007.
[22] « Finding a Place for Market Research in a Big Data, Tech-Enabled World », Knowledge @ Wharton, 29 janvier 2014.
[23] Depuis juin 2007, il est possible de poser des questions aux membres de FaceBook via « FaceBook Polls ». Grâce à des mini sondages,
on peut poser des questions simples dont les réponses sont payantes. Leur coût varie de 0,10 $ à 1 $ plus un coût d’activation de 5 $. Pour
plus d’informations: http://www.techcrunch.com/2007/06/01/facebook-polls-launches-tonight-marketing-research-paradise/.
[24] Source IAB France (www.iabfrance.com).
[25] Interview de L.Florès, « Les études de demain seront une science, mais aussi un art », Nouvel Economiste, 31/10/08.
Chapitre
9 Technologies d’Internet et vie privée
Objectifs
Sommaire
Il n’est pas nécessaire de revenir sur les objectifs d’un marketing personnalisé ou sur les spécificités du
e-commerce, largement détaillés dans tout cet ouvrage. Nous nous plaçons résolument dans une optique
marchande, au moins indirectement, et en B to C, ce qui exclura plusieurs applications des mêmes
technologies à d’autres formes d’interactions. Les éléments de contextualisation de la situation impliquant
l’utilisateur seront détaillés ensuite, avant de décrire les outils dont dispose le vendeur pour en tirer parti,
qui nous conduirons au titre suivant, traitant d’exemples d’usage.
1 Domaines connexes
L’application probablement la plus prometteuse des techniques de localisation, contextualisation et
communication est l’Internet des Objets, M2M. Le nombre global d’objets connectés croît très rapidement
: toute palette d’une certaine valeur est équipée en GPS – GSM et assortie de capteurs adaptés à ses
fragilités, comme des enregistreurs de température pour les denrées périssables. C’est pourtant plus un
robot qu’un terminal au sens où nous le définissons plus bas, car son but premier n’est pas l’interaction
avec un humain. Un lien avec le marketing existe, par exemple via la fonction logistique, mais nous
préférons renvoyer le lecteur à une littérature plus spécialisée, par exemple (Perera, Zaslavsky, Christen,
& Georgakopoulos, 2014).
Les applications non marchandes ne manquent pas non plus : gestion de la ville, des déplacements, de
la santé, de la dépendance… Les liens avec l’e-commerce et l’e-marketing étant plus ténus, nous
choisissons de ne pas en traiter ; le lecteur pourra se reporter à (G9+ & Renaissance numérique, 2013)
pour un premier aperçu.
Le C to C fait un usage intensif de la géolocalisation et autres techniques de profilage ou
contextualisation : toutefois, en nous plaçant dans l’optique du fournisseur du service de mise en relation,
de ses prestataires et de ses affiliés, la différence d’approche avec une relation de type B to C n’apparaît
pas suffisante pour quelle fasse l’objet d’un développement spécifique.
L’analyse est différente pour le B to B. Si on trouve quelques propos prédisant une bonne rentabilité aux
services contextualisés dans ce domaine[3], plusieurs des concepts centraux dans ce chapitre, comme le
terminal, la localisation, le profil, l’individu… devraient être largement redéfinis pour conserver leur
pertinence.
2 Notion de contexte
Découvrons les éléments du contexte d’une connexion entre un utilisateur et un vendeur via un
scénario : la consultation d’un service de météorologie depuis les coordonnées (6,95199 Est, 45,44503
Nord), obtenues soit par GPS soit parce que la station de base de l’opérateur située à ce point a détecté
que la source du signal était très proche. Cette information est suffisante pour délivrer les prévisions
météo en Haute Tarentaise, pas pour cibler une communication efficace sans en préciser le contexte.
Tentons de compléter :
Le géocodage inverse ou géoréférencement nous situe sur la carte de la station de Val d’Isère, près
du sommet du Rocher de Bellevarde et de l’arrivée de nombreuses remontées mécaniques ; donc a
priori dans un contexte « sport ».
De décembre à avril, le contexte se précise en « ski » et en « randonnée » ou « VTT » en juillet-
août. En dehors de ces périodes, le contexte général se mue en « travaux publics ».
En février, vers 11 h 30, la probabilité d’avoir à faire à profil de skieur affamé est très élevée, ce
qui peut justifier une communication pour le restaurant d’altitude situé juste en contrebas. En
revanche, une offre spéciale avant 11 h 40 dans un bar du Front de neige ne concernera que les bons
skieurs[4].
Le même jour, à 7 heures du matin, le profil devient « pisteur », cible d’intérêt modeste.
Idem dans la journée si le terminal n’est pas un smartphone mais une tablette ou un ordinateur
portable : « employé », que ce soit de la STVI ou du restaurant.
Et, depuis un smartphone un peu ancien et avec un forfait bloqué, nous pourrions avoir un « enfant »,
sous la surveillance de ses parents ou d’un moniteur.
En revanche, s’il est possible d’identifier l’utilisateur par l’un des moyens décrits dans ce
chapitre et de constater la présence de ses « amis » d’un réseau social quelconque installés sur la
terrasse située à trois virages de là[5], les possibilités de monétisation deviennent considérables.
Sauf par temps de neige…
La notion de contexte pour les applications informatiques fixes ou mobiles a été définie et
opérationnalisée une première fois dans l’étude (Schilit et al., 1994) mais elle est un peu restrictive.
(Dongsong, Adipat, & Mowafi, 2009) comparent les définitions apparues ultérieurement et nous
adopterons une version légèrement modifiée de celle qu’ils proposent[6] : le contexte est toute information
immédiatement accessible, dont la présence éventuelle d’autres entités, qui va influencer la relation entre
l’utilisateur et le terminal chargé de diffuser un service à son intention, ainsi que modifier ses préférences
pour la forme et le fonds de ce service. Pour le vendeur du service, connaître le contexte d’utilisation
permet d’adapter le contenu délivré, tout en adaptant son apparence aux contraintes identifiées. Les
éléments de ce contexte comportent :
un device ou terminal à travers lequel le service est fourni, soit en mode autonome soit, le plus
souvent, couplé à des serveurs via un réseau informatique ;
les contraintes liées à ce dernier, comme la bande passante disponible ;
l’environnement physique, localisation, orientation, luminosité… ;
les autres entités proches, comme des terminaux secondaires, d’autres utilisateurs identifiés… ;
l’utilisateur, cible du service et en interaction avec son terminal ;
et l’activité supposée du premier, par exemple son degré d’attention (Schmidt, Beigl, & Gellersen,
1998).
La récupération des informations de contexte peut être, selon l’analyse de (Chihani, Bertin, & Crespi,
2011), basée sur les capteurs physiques du terminal et ses capacités de traitement en local ou centrée sur
la plateforme de création du service. De même, certains éléments comme la localisation physique seront
estimés en temps réel tandis que d’autres, dénommés logiques par (Dongsong et al., 2009), résultent
d’une accumulation préalable de données suivie d’un traitement ; les systèmes de recommandation sont de
ce dernier type.
3 Terminal
Traduire device par appareil comme le fait Google[7] masque la fonction de cette chose : servir
d’interface entre le monde numérique, constitué des équipements des opérateurs, du vendeur et de ses
prestataires et le monde analogique dans lequel se meut l’utilisateur. Autant alors reprendre un terme
informatique ancien et désignant précisément cette fonction. Le terminal d’autrefois était passif (dumb
terminal), c’est-à-dire sans capacité de traitement autonome et piloté intégralement par les systèmes
centralisés ; les plus anciens se souviendront du Minitel et tous des téléviseurs d’il y a 3 ans ou plus,
voire de la plupart des panneaux d’affichages basés sur la même technique. La notion de contexte devient
alors très succincte, plus adaptée à un marketing de masse.
Nous nous limiterons ici aux terminaux « intelligents » (smart devices). Pour mériter ce qualificatif, le
terminal doit posséder trois au moins des cinq éléments suivants :
une interface homme-machine ou IHM pour interagir avec l’utilisateur ;
la possibilité de réaliser des calculs en local ;
un espace de stockage local ;
la capacité de communiquer avec plusieurs autres équipements TI ;
celle d’interagir avec l’environnement immédiat, capteurs ou actuateurs. Donnons quelques
exemples et contre-exemples :
Une puce RFID est une forme primaire de d : c’est un capteur, à intégrer dans une solution plus
large. Un badge de télépéage, par exemple, n’est rien sans le système de lecture qui, à son tour,
ne répond que partiellement à notre définition.
Un feature phone est un terminal passif : l’absence de b et c font que la fonction d est limitée au
transport de la voix ou de textes à un opérateur unique.
Un système de navigation GPS, dans un véhicule, se contente d’écouter les signaux GPS, sans
aucune interaction réseau contrairement à l’AGPS des smartphones.
Tandis, qu’un automate programmable, dans un atelier, possède presque toutes nos
caractéristiques, malgré un intérêt marketing limité.
En revanche, certains panneaux d’affichage comportent maintenant une caméra permettant non
seulement de détecter la présence d’un prospect mais aussi son genre et autres caractéristiques,
ainsi que la possession d’un smartphone. Ce sont des terminaux exploitables.
Suit enfin tout ce qui ressemble à un ordinateur personnel : pour l’instant fixe, portable, console
de jeux, tablette, smartphone, smartwatch ou Google Glasses.
Une contextualisation efficace nécessite de déterminer le genre de terminal, ses capacités essentielles
comme la dimension d’affichage, son identité sur le réseau et, si possible, un identifiant unique et
pérenne.
REMARQ UE
Le LDCC (Lausanne Data Collection Campaign) est une campagne de collecte d’informations de géolocalisation de mobiles à grande
échelle, ayant eu lieu de 2009 à 2011 dans la ville suisse de Lausanne. Organisée par le Nokia Research Center en collaboration avec
l’Université de Lausanne et l’École Polytechnique Fédérale de la même ville, cette expérimentation a consisté à doter 200 volontaires
plutôt jeunes de smartphones avancés pour l’époque, des Nokia N95. Ces terminaux étaient équipés d’un logiciel de traçage de la
localisation de l’utilisateur et de son comportement en termes d’appels et d’envoi ou réception de SMS. Les données, étaient transférées à
intervalles réguliers par Wifi, anonymées puis mises à disposition de chercheurs, mandatés sur un sujet précis ou libre de leurs
investigations.[8]
5 Profil de l’utilisateur
Les premières tentatives d’exploitation des logs des sites Web marchands se limitaient bien souvent à
quelques notions d’un intérêt plutôt modeste, comme les hits ou pages vues, les visites ou visites
uniques… L’objectif est maintenant de déterminer l’identité précise de l’utilisateur qui interagit avec le
service, de façon à pouvoir déduire du croisement du contexte de l’interaction en cours et de la
connaissance de son historique ses goûts habituels, son activité présente, voire son état d’esprit et ce
qu’il est susceptible d’apprécier dans l’instant, voire ce qu’il fera dans les minutes qui suivent
(Do & Gatica-Perez, 2014). Tous les vendeurs n’ont pas les compétences nécessaires à l’obtention d’un
tel degré de précision mais les services de Web Analytics ne manquent pas.
Il convient toutefois de distinguer deux cas : la connexion en mode Web et le travail avec des
applications sur mobiles ou Apps. En mode Web, par défaut, le degré d’anonymat est élevé car le site ne
reçoit qu’une identification de session ; même si cette identification peut être sauvegardée d’une session à
l’autre sur un même site, seul le parcours habituel peut être reconstitué. En invitant l’utilisateur à créer un
compte, même limité à un simple pseudonyme, le vendeur gagne immédiatement la capacité de relier des
sessions en provenance de différents navigateurs ou de différents terminaux[9]. Si, comme c’est fréquent,
l’utilisateur tente de réutiliser son pseudonyme pour différents services, l’information qu’il est possible
de collecter s’enrichit.
Cela devient réellement efficace lorsque le vendeur peut associer la session avec une identité ayant un
vrai caractère personnel : il peut exiger, moyennant quelques services supplémentaires, la divulgation de
renseignements comme le lieu de résidence ou, très intrusif, la date de naissance. Mais ceci reste
déclaratif (self-asserted) et donc potentiellement biaisé : nous en restons encore à une forme de pseudo-
identité ou pseudonymity (Hansen et al., 2004). Si ces déclarations sont validées socialement, par les
« amis » de l’utilisateur sur un réseau social, elles deviennent plus crédibles ; c’est la justification du
social login ou social sign-in, le « Connectez-vous avec votre compte Facebook ». Étape ultime, si le
compte est associé à une adresse de livraison et des coordonnées bancaires, comme c’est le cas pour
Amazon ou PayPal, l’identité de l’utilisateur est vérifiée, il est « unique dans la foule » pour reprendre le
titre de (de Montjoye, Hidalgo, Verleysen, & Blondel, 2013). Il devient alors impossible pour
l’utilisateur de réfuter ses actions et le coût d’un retour à l’anonymat devient considérable.
Si le terminal lui-même est facilement identifiable et qu’il est raisonnable de supposer qu’il n’a qu’un
seul utilisateur régulier, la propagation d’une identification forte obtenue légitimement sur un site à
d’autres vendeurs qui ne disposent que de l’identifiant du terminal n’est qu’une simple question
contractuelle ; sauf dans l’Union Européenne, où ce genre de marché de données est très contraint. La
quasi-totalité des mobiles entre dans cette catégorie, tous ceux qui dépendent en réalité d’un Store, soient
les trois grandes familles du marché ; lequel Store réclame des données personnelles assez précises,
restant néanmoins déclaratives, et les valide socialement par un couplage avec des services de
communication ou de partage « offerts ».
Les smartphones ou autres objets portables sur soi (wearables) présentent même un avantage sur les
tablettes, pour le vendeur du moins, car ils sont presque toujours très proches physiquement de
l’utilisateur (de Montjoye et al., 2013), lequel est presque toujours unique. Et le processus
d’identification n’est pas limité aux échanges de type Web, car la plupart des Apps s’autorisent l’accès à
certaines informations contenues dans le terminal, ainsi qu’au réseau pour les échanger avec leur
concepteur, via d’autres protocoles que ceux du Web. Nous en reparlerons.
La construction d’un profil exploitable n’est plus alors qu’un processus en quatre étapes :
identification de l’utilisateur ;
captation d’informations de navigation ou d’usage d’applications, de localisation ou d’autres
éléments de contexte ;
stockage avec l’identifiant comme clé et enrichissement par échanges, si l’identifiant est partagé ;
modélisation du comportement. On notera à propos de cette dernière qu’elle fait le plus souvent
appel, comme dans (Do & Gatica-Perez, 2014), à deux niveaux distincts, calculés séparément et qui
sont associés ensuite pour en accroître le pouvoir prédictif :
Des modèles génériques d’une part, qui ne sont pas liés à l’utilisateur autrement que par un petit
nombre de caractéristiques qu’il partage avec un grand nombre de congénères, comme des données
sociodémographiques, de marque de terminal. Le premier avantage de ces modèles est qu’ils
permettent des prévisions dans une situation de « démarrage à froid » (cold start) (Schein, Popescul,
Ungar, & Pennock, 2002), c’est-à-dire quand l’utilisateur vient d’être identifié et que l’on ne dispose
que d’un historique réduit. Par ailleurs, ces modèles sont fiables et stables car validés sur des
volumes importants de données.
Des modèles propres à l’utilisateur et basés sur son comportement (Jai, Burns, & King, 2013). Ils
peuvent être plus précis à terme mais aussi plus volatils car dépendant des aléas de la vie courante.
6 L’écosystème du vendeur
Remarquons avant de passer aux exemples que la relation commerciale médiatisée par la plateforme de
services, l’infrastructure physique et le terminal est autrement plus complexe que le face-à-face entre un
vendeur et son client. Nous avons donné un cadre décrivant le rôle de chaque objet et nous préciserons
quelques-unes des technologies plus loin. Voyons d’abord les acteurs : peuvent être impliqués
directement dans cette relation les éditeurs de logiciels, du système d’exploitation, des applications, du
navigateur Web, le constructeur du terminal, les opérateurs de réseau, ceux de réseaux de contenu, le
vendeur du service, les régies publicitaires, les fournisseurs d’analyses et les courtiers en information.
L’éditeur du système d’exploitation (OS) du terminal a accès aux caractéristiques du terminal et à toutes
les informations stockées localement. Ce n’est que depuis une dizaine d’années que les trois grands que
sont Apple, Google et Microsoft ont mis en œuvre une stratégie tirant partie de cet avantage. Apple,
fidèle à son choix initial d’informatique propriétaire, a été pionnier, suivi par Google qui tentait de
protéger sa principale source de revenus. Microsoft, comme souvent en retard, a attendu la sortie de
Windows 8 pour lier étroitement le fonctionnement de son OS à l’existence d’un compte de services en
ligne, Graal de la personnalisation.
Que les trois éditeurs tentent de pousser leur propre navigateur d’abord sur leur OS puis, à défaut, sur
ceux des concurrents relève de la même logique : identifier l’utilisateur. Même la fondation Mozilla
s’essaie à cette stratégie avec son offre Sync et, si la galaxie Linux semble faire exception, elle ne
représente guère que moins de 1,5 % du nombre des clients du Web[10], Google Android et ses extensions
propriétaires exclus. En l’absence de connexion explicite l’utilisateur n’est certes pas identifiable
facilement mais la force du couplage entre le navigateur et l’OS du même éditeur est que la connexion aux
services de ce dernier devient implicite et permanente[11].
Les concepteurs d’extensions au navigateur ou d’Apps et les vendeurs de services en ligne ne
bénéficient pas des mêmes avantages : la protection entre sessions des navigateurs pour le mode Web, la
gestion des permissions des applications pour les terminaux mobiles et le passage obligé que constituent
les Stores pour ces dernières leur laissent moins de latitude pour accéder à des informations privilégiées.
Les opérateurs de réseaux et les services associés sont fréquemment soumis aux règles de secret de la
correspondance et, qu’ils le soient ou non, ont appris à différencier leur activité de contenant de la
gestion des contenus. La stratégie de convergence de Vivendi au tournant des années 2000 n’a pas été
couronnée de succès ; si Google veut devenir opérateur Internet avec son projet Loon[12], ce n’est que sur
un marché de niche. Opérateurs de téléphonie, FAI, opérateurs d’infrastructure, accélérateurs du Web
comme Akamai (CDN – Content Delivery Networks), hébergeurs et autres fournisseurs de cloud
computing peuvent fournir des informations de géolocalisation mais n’entrent pas plus avant dans la
fourniture de services dépendant du contexte. Nous verrons quelques exceptions à ce principe plus tard.
Enfin, le vendeur du service ne travaille pas seul mais au cœur d’un réseau de partenaires. Certains lui
fournissent les moyens de construire son offre et de la personnaliser : vendeurs de contenus, services de
recommandation et, plus généralement, firmes spécialisées en data mining qui vendent des informations
de qualification de l’utilisateur (Personal Information Brokers[13]). Les sociétés de Web Analytics
comme Xiti vont fournir des outils de mesure de performance du site ou de l’application, et d’autres
comme le français Criteo des outils de reciblage (retargeting) pour optimiser les taux de conversion.
L’offre sera enfin monétisée soit par de la publicité ciblée placée sur le site ou dans l’application par une
régie (adverstising network), la plus connue étant Google Adsense[14], soit en revendant des informations
nominatives dans les pays où une telle pratique est autorisée, c’est-à-dire à peu près le monde entier sauf
l’Union Européenne.
Voyons maintenant quelques exemples d’applications en insistant plus particulièrement sur celles à
destination des terminaux mobiles. Entre 2010 et 2014 le taux d’équipement en terminaux mobiles
intelligents a plus que doublé en Europe, rattrapant progressivement celui observé aux USA (GSMA
Intelligence & Boston Consulting Group, 2013), avec un volume de données échangées moitié moindre.
Les taux de croissance de 5 % l’an pour les données contre moins de 2 % pour la voix montrent
cependant que le smartphone et ses dérivés mobiles sont d’abord des terminaux informatiques, et parfois
aussi des téléphones. Ceci explique l’insistance placée sur les Apps dans la suite.
DÉFINITION
La loi de Moore. Gordon Moore, fondateur et alors CEO de la société Intel, avait prédit en 1969 que le nombre de transistors fondus sur
un même circuit intégré (ou puce) doublerait tous les 18 mois. Même si on annonce régulièrement que cette loi atteindra bientôt ses
limites, elle n’a fait l’objet que de déviations minimes depuis. On considère à tort que Moore parlait de puissance des machines : nombre
de transistors par puce et puissance de calcul sont certes liés mais de façon complexe.
Le même Moore avait d’ailleurs ajouté, et c’est moins connu, que le prix des usines nécessaires augmenterait en même proportion. Ceci
explique que, quand bien même le nombre de fondeurs est très faible et qu’Intel domine largement ce marché, le moindre retournement de
conjoncture suffit à placer l’essentiel de la profession dans le rouge.
La force de ce regroupement tient en particulier en ce qu’il permet de construire un accès privilégié aux
données à caractère personnel décrivant l’utilisateur des équipements et services. Tentons une analyse
forcément schématisée des pratiques des quelques grands du Web :
Laissons de côté la mise à disposition des entreprises de services de type cloud computing, très
développées chez Google, Amazon et Microsoft, moins chez les autres acteurs. Cette offre B to B,
très rentable, est plus un sous-produit des infrastructures mises en place pour construire les services
B to C, ainsi que des technologies développées pour ce faire.
La vente de terminaux n’est que rarement rentable, sauf chez Apple que l’iPod a sauvé au début des
années 2000. Il semble que Microsoft perde gros avec la Surface, ce qui ne l’a pas empêché de
racheter la division mobiles de Nokia, elle-même déficitaire.
Le terminal est là pour pousser l’OS, iOS chez Apple, Windows Phone, Android et bien peu
d’alternatives. Lequel OS, associé non seulement au terminal mais, souvent, à un utilisateur unique,
constitue la porte d’entrée vers la qualification de ce dernier. Facebook est encore absent de ce
segment, Amazon tente de l’investir avec son offre Fire, qui s’est récemment étendue aux
smartphones. Tizen de Samsung, Firefox OS de la fondation Mozilla sont l’illustration, même
modeste, du rôle pivot de l’OS pour d’autres acteurs.
Avec l’OS viennent le navigateur Internet, le kit de développement, visible seulement des
développeurs d’applications, et le Store, point de passage obligé pour installer leurs créations. Ce
dernier a trois fonctions : assurer une sécurité relative pour l’utilisateur, via une forme de filtrage
des applications malintentionnées, fournir à l’éditeur de l’OS des revenus réguliers, et faciliter la
création d’applications pour attirer de nouveaux utilisateurs. Microsoft est toujours à la peine sur ce
point. Enfin, et est-ce accessoire, la liste des applications installées est un élément de profilage non
négligeable, validé qui plus est par les paiements effectués.
Les autres constituants de ces plateformes peuvent être considérés aussi bien comme des produits
d’appel destinés à capturer puis fidéliser de nouveaux utilisateurs que comme des outils de profilage
encore plus puissants. Citons rapidement :
Les moteurs de recherche, Google dominant largement Microsoft Bing, et leurs compléments
comme les outils de suggestion (Google Suggest) et autres barres d’outils.
La cartographie : les déboires d’Apple sont connus, tandis que la stratégie de Microsoft de
mise à disposition des Here Maps de Nokia, en mode déconnecté et en parallèle avec Bing
Maps est peu compréhensible.
Les outils bureautiques en ligne, qui semblent plus être une offre dirigée vers les entreprises. À
preuve, ni Apple ni Amazon ne s’y risquent.
La messagerie : les vidéos Gmail Man[17] parlent d’elles-mêmes.
Les réseaux sociaux : Facebook est ici incontournable.
Cette dernière fonction illustre bien le deuxième rôle de ces services. Le réseau social Google+ reste
en effet confidentiel mais, alors que la firme avait interrompu sans hésiter des services pourtant
prometteurs comme Wave, Google+ semble destiné à durer en tant que pivot de la qualification de
l’utilisateur, par unification des identifiants : la dernière modification des conditions de confidentialité
publiée par Google en est la preuve comme l’est la barre de menus apparaissant en haut des pages
Google.
Nous allions oublier les assistants personnels : Apple Siri, Google Now et maintenant Microsoft
Cortana sont la forme ultime de convergence des services, et dont de convergence du profilage. Pris
indépendamment, les fonctionnalités semblent alléchantes : après tout, l’utilisateur est peut-être souvent
assez distrait ou préoccupé par son travail pour oublier de passer chercher son fils à l’école en rentrant à
son domicile. Mais, dans un article datant de plus d’une décennie, (Dobson & Fisher, 2003) forgeaient
déjà le terme de géo-esclavage (geoslavery) : tout en reconnaissant largement les bénéfices de la
géolocalisation, ils dénonçaient la capacité d’un maître à exercer un contrôle sur les déplacements de
l’individu comme des « risques sociaux sans précédent dans l’histoire humaine ». La technique ayant
évolué depuis, Michael & Clarke (2013) préfèrent le terme d’« überveillance », comparant même
l’éthique des affaires (business ethics) à un oxymore.
3 Applications contextualisées
Deux autres tendances lourdes ont marqué ces dernières années : l’effacement progressif des standards
« ouverts » et la vassalisation rapide des innovateurs. La première a été dénoncée par l’inventeur du
Web, Sir Tim Berners-Lee dans plusieurs interviews[18] : l’apparition des Apps fait progressivement
reculer le Web ordinaire, basé sur le protocole HTTP et le codage HTML. La recherche d’ergonomie
conduirait ainsi à la « mort du Web », pour reprendre les termes de (C. Anderson & Wolff, 2010), donc la
fin de son caractère universel au profit d’une ghettoïsation autour des grandes plateformes. Ce n’est
d’ailleurs pas limité au Web lui-même, à en juger par l’effacement progressif du SMS, standard
international d’échange de textes courts, au profit d’applications de clavardage (chat), comme WhatsApp,
dont la valeur ajoutée reste à démontrer mais qui se prêtent d’avantage au profilage.
L’autre est plus naturelle dans une économie ouverte : les grands acteurs laissent volontiers les petits
entrepreneurs inventer des modèles d’affaires, tout en contrôlant leur développement. Ils fournissent
quand même l’infrastructure, surtout dans le cas d’applications composites comme les mashups, assurent
la commercialisation via les stores, en mesurent le succès avec leurs services de Web analytics. Lorsque
le modèle s’avère pertinent, les grands acteurs ont le choix entre un rachat ou le développement d’un
service concurrent.
EXEMPLE
Timely est une application Android développée par des étudiants de l’École polytechnique fédérale de Zurich et commercialisée à
l’automne 2013. Il ne s’agit que d’une simple horloge, faisant aussi office de réveille-matin et de minuteur, dotée il est vrai de fonds
d’écran plutôt esthétiques. Quelques mois plus tard, en janvier 2014, l’application était rachetée par Google pour une somme non publiée,
rendue gratuite tout en voyant ses capacités de traçage légèrement augmentées.
La liste des services utilisant la géolocalisation ou d’autres fonctions contextuelle est donc très volatile
et nous n’en donnerons que quelques illustrations, en nous concentrant sur les Apps au détriment du Web.
Commençons par celles offrant nativement des services de localisation dans l’espace, souvent couplée
avec de la navigation entre points. En France, Mappy ou Michelin tentent de résister à la pression des
plateformes comme Google Maps, soit en proposant un mode non connecté, donc indépendant des
imperfections du réseau mobile, soit par une précision accrue ou des compléments d’information. Depuis
le rachat de Nokia par Microsoft, qui fournit maintenant les Here Maps, la première stratégie est devenue
délicate, tandis que Google StreetView peut gêner la seconde.
Le guidage peut se comprendre aussi en intérieur ou de façon indépendante de la localisation GPS :
(Lorenzi, Vaidya, Chun, Shafiq, & Atluri, 2014) décrivent ainsi un système de navigation dans les parcs
nationaux des USA utilisant des QR Codes (voir annexe) comme marqueurs, et l’associant à des
techniques de gamification pour redonner le goût aux citoyens de visiter ces parcs. De façon plus
générale, le GPS est inopérant en intérieur et nous verrons plus loin comment pallier cette défaillance.
Mais les applications de la localisation en intérieur sont nombreuses, comme le guidage dans les rayons
d’un hypermarché. (Hosbond & Skov, 2007) décrivent en détail le fonctionnement d’un chariot sensible
au contexte (context-aware shopping trolley), à une époque où les smartphones étaient rares : la
transcription en 2014 est immédiate.
Les applications de réalité augmentée superposent des informations thématiques à une image prise par
le mobile, pour donner à l’utilisateur des éléments d’interprétation de ce qu’il voit. Des musées
proposent ce genre de service, comme le Château de Versailles pour faciliter la compréhension de
l’organisation de ses célèbres jardins, là encore en y ajoutant des jeux[19]. La réalité augmentée n’est pas
toujours liée à la notion de géographie : les techniques de reconnaissance visuelle d’objets permettent de
l’employer aussi pour faciliter la tâche de techniciens de maintenance, et le couplage de l’image avec des
capteurs physiologiques peut donner lieu à la création d’applications de contrôle de sa propre santé (J.
Anderson & Rainie, 2014).
Plusieurs stratégies d’affaires utilisent les services géolocalisés comme un avantage concurrentiel ;
c’était déjà le cas du pionnier Craiglist lors de la décennie précédente. Cette société, qui éditait des
annonces classées sur le Web depuis 1995, fût l’une des premières à comprendre l’intérêt d’un mashup :
en superposant aux cartes de Google Maps et en superposant aux cartes des étiquettes renvoyant sur ses
propres listes, la compagnie a connu un succès rapide, bouleversant l’économie des journaux locaux
comme celle des agents immobiliers. Plus récemment, la compagnie de location de véhicules de tourisme
avec chauffeur Uber a rendu son modèle attractif en offrant ce que les taxis traditionnels ne proposaient
pas, des applications de géolocalisation mobile pour faciliter les transactions[20], générant indirectement
des troubles sociaux dans plusieurs pays. AirBnB, qui propose à des particuliers de louer une partie de
leur logement à des touristes de passage, utilise aussi largement la géolocalisation : comme pour Uber,
cette dernière n’est pas à la base du modèle d’affaire mais elle y contribue pour une part importante.
Il est possible de combiner les avantages de la géolocalisation et des réseaux sociaux, pour construire
des applications géosociales, comme le fameux FourSquare au tournant de la décennie. L’engouement
soudain pour cette application a suscité des suiveurs, comme Gowalla, absorbé très vite par Facebook
pour construire son offre Places.
EXEMPLE
L’application FourSquare avait introduit le concept de check-in, combinant géolocalisation et gamification : se déclarer comme présent
dans un lieu permettait d’accumuler des points, de recevoir des badges et, pour finir, de devenir mayor de ce lieu.
Une telle mode ne pouvait que soulever des détournements : PleaseRobMe proposait, de façon plutôt ironique, à des malandrins de
consulter la liste des domiciles dont le propriétaire venait d’effectuer un check-in à une certaine distance. Comme Twitter conserve ce
concept, PleaseRobMe a changé de cible. C’est la force des API que de combiner des données en provenance de plusieurs sources, dont
des grands fournisseurs comme Google Maps, pour construire un service innovant, fût-il du plus mauvais goût. Ainsi GirlsAround.me, cité
par (Keith, Thompson, Hale, Lowry, & Greer, 2013), mashup basé sur FourSquare et Facebook et dont l’intitulé seul suffit à déterminer
l’objectif ; cette application a été retirée de l’Apple Store dès 2012[21].
Ce modèle de partage de localisation pour le plaisir a vite perdu son intérêt : dès 2011, soit peu de
temps après l’acquisition de Gowalla, Facebook a replacé la géolocalisation comme un des éléments du
contexte global de l’utilisateur[22] au lieu d’un simple jeu. Google a suivi plus tard en renommant son
Places en My Business et, en 2014, FourSquare subsiste mais a lui aussi évolué, cette fois en un système
de recommandation collaborative. Parmi les services plus sérieux apparus dans l’intervalle, il faut citer
la réplique à l’interdiction de l’usage des détecteurs des radars de contrôle de vitesse dans nombre de
pays : le service Coyote, s’appuyant sur un terminal dédié, est maintenant concurrencé par l’application
mobile Waze. Cette dernière, n’utilisant que le smartphone et ses capteurs est certes plus dépendante de
la couverture 3G et, de façon amusante, réintroduit la gamification des débuts des applications
géosociales.
Rappelons les objectifs que nous poursuivons pour maximiser l’efficacité de la personnalisation des
services offerts :
identifier le terminal, au moins de façon transitoire et, de préférence, de façon pérenne ;
déterminer sa position, sa vitesse, son orientation ;
savoir quels sont les objets actifs, dont les autres terminaux, situés à proximité ;
pouvoir suivre un internaute dans le temps, sur différents sites et depuis différents terminaux, même
s’il n’est identifié que par un pseudo ou un user ID affecté par un service de traçage comme Google
Analytics ;
connaître l’identité de cet internaute et pouvoir associer des données provenant de sources
multiples.
Nous ne verrons ici que quelques-unes des techniques utilisables, toutes légales et fréquemment
employées ; cette liste s’allonge régulièrement. Un cas très détaillé montrant la variété de techniques et
leur combinaison a été publié récemment[25] : (Center for Media Justice, 2013) décrit dans sa première
partie l’emploi généralisé par Wal-Mart, premier distributeur mondial, des outils de suivi du client en
ligne ou dans ses magasins. Le ton est ensuite un peu polémique mais toujours très bien documenté.
Cette adresse est attribuée par le FAI ou l’opérateur du réseau, souvent de façon dynamique par
DHCP : si cette adresse change au moins en partie d’une session à l’autre, comme c’est le cas général
pour les pour les terminaux mobiles en 3G ou 4G, les capacités d’identification par ce moyen sont
réduites. Mais, pour les box ADSL, la tendance est à l’adressage fixe chez la plupart des FAI. En
analysant les logs des serveurs Web, il devient alors possible de suivre les actions successives en
provenance d’une même adresse IP et donc, peut-être, du même terminal.
De proche en proche, on peut espérer mieux cerner l’utilisateur. En apparence seulement : Proxad,
c’est-à-dire Free.fr, est assez aimable pour répondre à une requête DNS inverse en renvoyant un nom de
domaine partiellement masqué ici. La suite de lettre fbx suggère qu’il s’agit d’une freebox, donc un
routeur qui joue aussi le rôle de NAT, translation d’adresse. Il est possible d’identifier l’adresse
publique de la box et donc le domicile, mais ce dernier peut abriter plusieurs terminaux, dont certains de
passage. Ce système de NAT est employé dans la plupart des réseaux entreprises et l’usage de proxy par
certains utilisateurs méfiants produit le même résultat.
Les nouvelles fonctions de HTML5, dont le WebRTC qui commence à être utilisé par la vidéo,
permettent de reconstituer les adresses masquées par le NAT. Mais rien n’est fiable, et les tentatives
d’identification du poste et du navigateur par la simple signature de ce dernier (Eckersley, 2010) relèvent
plus du domaine de la recherche. La diffusion progressive d’IPv6, où le NAT disparaît et où chaque poste
bénéficie d’une adresse publique ne change que peu de choses à cette relative imprécision. Les
implémentations récentes du protocole n’utilisent plus comme les versions primitives l’adresse MAC du
terminal pour construire l’adresse IPv6 : le préfixe de cette dernière n’identifie donc plus que le domicile
ou l’entreprise sur le réseau duquel le terminal est raccordé.
Ceci n’empêche pas la géolocalisation, au moins approximative : la résolution DNS inverse reproduite
plus haut comprend le nom officiel du Nœud de Raccordement d’Abonnés auquel est attaché la box,
flouté ici ; sachant qu’un NRA dessert entre 500 et 5 000 abonnés ADSL, dans un rayon d’un ou deux
kilomètres, la précision est très correcte. Ce serait moins vrai dans une entreprise disposant de plusieurs
sites, et probablement aussi avec des mobiles, pour lesquels des solutions plus efficaces existent.
L’adresse IP et ce qui lui est associé ne sont cependant pas des données anodines : même
« généralisées » comme le pratique Google après quelques mois de rétention des logs, ou lors de
communication de ceux-ci à des tiers, les adresses IP amputées de leurs derniers chiffres peuvent être
souvent désanonymées (Toubiana & Nissenbaum, 2011), ce qui justifie leur classement comme données à
caractère personnel.
6 Services ou espions ?
Voyons maintenant une catégorie d’apps, plus répandue qu’il n’y paraît, dont la seule raison d’être est
la captation d’informations. Elle répond à un adage quelque peu trivial : « si c’est gratuit, vous êtes le
produit ». Trouver des exemples ne sera pas difficile, surtout sur les terminaux mobiles : il suffit de
s’intéresser aux permissions des apps.
Sur les trois principaux OS mobiles que sont Apple iOS, Google Android et Microsoft WindowsPhone,
chaque application installée réclame pour son usage l’accès à certaines ressources du terminal. Ainsi, une
application comme un navigateur Internet ou un client de messagerie aura besoin d’un accès réseau, et le
second profitera d’un accès en lecture à la liste des contacts enregistrés sur le téléphone. Une application
que nous reverrons à propos de la sécurisation du poste, Smarter Wi-fi Manager, ne demande que l’accès
à la localisation approximative via les antennes, ce dont elle se sert pour activer ou désactiver le Wi-Fi ;
mais il est vrai que son modèle d’affaires repose sur la vente simple.
Prenons maintenant, toujours sur le système Android, une application parmi d’autres dans la famille des
« lampes de poches », qui activent le flash du mobile de façon statique : l’application Super-Bright Led
Flash de Google Play Store indique quelques-unes des permissions revendiquées : l’accès à la fonction
de contrôle du flash est nécessaire par construction, mais à quoi peuvent bien être utiles l’obtention de la
liste des applications en cours d’exécution, la capacité de prendre des photos ou le contrôle du Wifi ? La
taille même de l’application, 5Mo, est une indication qu’elle contient nettement plus que les quelques
lignes de code indispensables au service rendu.
La Federal Trade Commission, dans ses conseils aux concepteurs d’application (FTC, 2013) leur
suggère que « s’ils n’ont pas un besoin impératif d’une information, le plus simple est de ne pas la
collecter[31] » mais ces recommandations n’ont aucun caractère coercitif. Les Stores font surtout respecter
la transparence des permissions, suggérée elle aussi dans ce rapport, mais ils n’interviennent sur leur
nécessité que de façon irrégulière. Notons d’ailleurs un changement subtil intervenu dans le
fonctionnement de Google Play. À chaque mise à jour de l’application, l’utilisateur est prévenu si les
permissions ont changé ; jusqu’il y a peu, les ajouts étaient mis en évidence par un bandeau « NEW »,
lequel a disparu depuis.
Pour les concepteurs soucieux d’accroître la variété des informations collectées sans paraître ignorer
les bonnes pratiques, l’ajout de « fonctionnalités » à la pertinence discutable est une voie fort pratique.
Le plus simple est souvent de s’adosser à une plateforme de services comme Facebook à travers de
fonctions de partage social, qui nécessitent très vite un accès aux contacts, à la localisation, au réseau…
Les éditeurs de jeux se sont fait une spécialité de ces extensions et King (Candy Crush Saga) n’est pas en
reste, alors même que son modèle d’affaires est le freemium.
Nous choisissons d’arrêter là cette liste d’outils mais il n’est guère difficile de la compléter.
On l’a vu, les moyens de collecte et de traitement de l’information potentiellement sensible permettant
de qualifier l’internaute et son comportement sont considérables. Il nous reste à étudier si et par quels
moyens une forme de vie privée peut être préservée. Privacy peut se traduire comme vie privée ou
intimité, ce qui n’est pas équivalent : d’une part la tranquillité, ou droit à être laissé seul[32], d’autre part
le contrôle sur ce qui doit être ou non divulgué. (Rochelandet, 2010) y ajoute l’autonomie individuelle, ou
indépendance par rapport à un contrôle externe, qui recoupe partiellement avec les deux premiers volets.
Nous verrons en premier que l’internaute n’est pas toujours aussi autonome qu’il le souhaiterait, abusé
qu’il est par ses sens et ses biais cognitifs. Puis, comment le législateur ou, à défaut, une forme de
responsabilité de la part des acteurs permettent de réguler les actions intrusives et d’en modérer les
aspects les plus préjudiciables. Enfin, par quels moyens certains internautes tentent de récupérer une
forme de contrôle sur ce qu’ils divulguent.
1 Faiblesses de l’internaute
Le consommateur de services basés sur le contexte, applications mobiles ou sites Web « intelligents »,
n’a souvent qu’une vision floue des informations qu’il met à disposition des vendeurs : soit qu’il n’ait pas
pris conscience du fonctionnement des applications, soit qu’il méconnaisse la précision des informations
collectées ou qu’il en minimise l’importance, soit qu’il pense avoir le contrôle sur ce qu’il divulgue.
Voyons-le sur deux exemples.
Commençons par la géolocalisation. Nous avons vu dans les exemples d’usage qu’un nombre
considérable d’applications mobiles obtiennent l’autorisation d’accéder à cette information, sans que la
nécessité pour l’utilisateur en soit claire. Dans une expérimentation fort astucieuse, (Fu, Yang, Shingte,
Lindqvist, & Gruteser, 2014) ont vérifié que les utilisateurs n’en avaient pas conscience.
Lorsqu’elles deviennent plus visibles et supposent une forme de consentement éclairé, les notifications
peuvent entraîner des effets pervers sous l’effet de l’illusion de contrôle comme nous allons le voir. Les
évolutions récentes de la directive européenne « Protection des données dans le secteur des
communications électroniques »[33] rendent illégal l’usage de cookies sans le consentement préalable des
utilisateurs. On voit donc apparaître progressivement des notifications plus ou moins discrètes sur les
sites européens ou extérieurs. Certaines sont très voyantes et appliquent le principe opt-in, comme celle-
ci, sur un site professionnel.
Nombre de sites, dont ceux de certains éditeurs français, n’appliquent pas encore cette règle. Mais la
plupart choisissent une logique opt-out et une certaine discrétion, comme le montre l’exemple de Google
reproduit ici, qui apparaît en bas de la première page vue.
Focus 9.1
Étude de Fu et al., 2014
Les auteurs ont demandé à des possesseurs de smartphones Android d’installer une application
construite pour l’occasion et de vaquer à leurs occupations pendant quatre semaines. La première
semaine, cette application ne faisait presque rien d’autre qu’enregistrer les demandes d’accès de
l’application en premier plan aux informations de localisation ; néanmoins, sur toutes les versions
récentes d’Android, une petite icône GPS clignote alors dans la barre de notification. Une petite
moitié de leur effectif a constitué un groupe de contrôle : après un rappel de l’existence de
l’application espion, la lecture d’un article du New York Times a servi de sensibilisation au
tracking mais le fonctionnement de l’espion est resté inchangé. Pour le groupe expérimental,
l’espion a commencé à afficher une notification en superposition transitoire de l’application en
premier plan, offrant à l’utilisateur des détails comme l’historique de ses demandes et la liste des
applications tout aussi indiscrètes.
À la fin de l’expérience, les individus des deux groupes ont été confrontés aux logs de l’espion. Ceux
du groupe de contrôle n’avaient pas changé leur comportement pendant la période et se déclaraient
stupéfaits par le comportement indiscret de leurs applications. La notification par défaut et les
avertissements de la presse sont donc inefficaces. À l’opposé, les membres du groupe expérimental
avaient déjà cessé d’utiliser certaines de leurs applications, les avaient parfois désinstallées et
remplacées par d’autres.
Ceci conforte les résultats d’une enquête du Crédoc citée dans un rapport récent de la CNIL (CNIL,
2012b) : fin 2011, à la question « Souhaiteriez-vous avoir la possibilité d’interdire la transmission de
votre localisation à des entreprises commerciales ? », 81 % des utilisateurs de mobiles répondaient
« oui ». Simplement, les solutions de traçage sont conçues pour rester en dessous du seuil de l’attention.
Au regard de l’étude (Fu et al., 2014) citée auparavant, il se peut fort que ce dernier genre de
notification soit inefficace car non réellement visible : est-ce délibéré ? (Acquisti, Adjerid, &
Brandimarte, 2013, p. 72) laissent entendre que ceci a moins pour but de sensibiliser l’utilisateur que de
le laisser seul face à ses responsabilités[34]. Leur affirmation repose sur une étude de 2012 réalisée par
deux des auteurs (Brandimarte, Acquisti, & Loewenstein, 2012).
Focus 9.2
Étude de Brandimarte et al., 2012
Elle combine les résultats de trois expérimentations menées sur des étudiants confrontés au choix de
divulguer ou non des informations. Ces données sont d’un degré de confidentialité variable, du banal
à l’intrusif, et ils ont toujours la possibilité de ne pas les renseigner. Pour les deux premières
expériences, ils sont placés dans la situation d’alimenter un réseau social en cours de création. Tout
d’abord, les étudiants donnent plus d’information, surtout sensibles, s’ils sont certains qu’elle sera
publiée que si elle n’a qu’une chance sur deux de l’être. La deuxième expérience ajoute un possible
élargissement de la publication de ces données et montre là encore que l’impression de contrôler
rend moins visible cette divulgation accrue.
La troisième expérience relate des réponses à une enquête assez intrusive : ils peuvent ne pas
répondre à toutes les questions mais aussi, selon les groupes, choisir avec une granularité plus ou
moins fine ce qui sera publié ou non. Dans cette étude, plus le contrôle de publication est fin, plus
les données sont renseignées et plus la publication est autorisée, faisant diminuer paradoxalement la
protection des données personnelles.
L’évolution récente des paramètres de confidentialité d’un réseau social comme Facebook répond
très exactement aux mécanismes mis en évidence par (Brandimarte et al., 2012) : en lui laissant la
possibilité de choisir plus finement qui pourra voir les éléments de son profil, Facebook incite
l’utilisateur à dévoiler plus d’information exploitable par la firme qu’il ne l’aurait souhaité.
Cette forme d’aveuglement est un aspect plus pernicieux de la « fracture numérique » (Digital
Divide), terme employé à l’origine pour distinguer les humains équipés de ceux qui ne le sont pas.
La prospective à 10 ans publiée par le Pew Internet Research Center (J. Anderson & Rainie, 2014)
et résultant de la consultation de nombreux experts relève que « les gens vont continuer, même à
contrecœur, à privilégier la facilité et les récompenses immédiates à leur intimité et que seul le haut
du panier pourra bénéficier de cette dernière1 » même si (Keith et al., 2013) observent au contraire,
sur un montage expérimental, que les utilisateurs, même les plus sensibles au bénéfice perçu des
services, en divulgent in fine moins qu’ils ne déclaraient vouloir le faire.
Une dernière réserve doit être émise concernant ces études : à en croire (Gao, Rohm, Sultan, & Pagani,
2013), l’attitude d’évitement du risque, ou prudence, n’a pas la même importance selon la culture de
l’utilisateur. Leur modèle, dérivé de la « théorie de l’action raisonnée », ajoute aux « prédicteurs » de
l’attitude envers le marketing mobile, elle-même « prédictrice » de l’adoption d’applications et autres
activités mobiles, une mesure du comportement innovateur de l’individu et une autre de sa réticence à
dévoiler des informations personnelles et à faire l’objet d’un profilage. Ce modèle est testé dans trois
régions du monde, Chine, USA et Europe de l’Ouest, sur un peu plus de 450 étudiants à chaque fois. La
plupart des coefficients sont stables entre les groupes sauf précisément celui du lien entre prudence et
attitude : il est non différent de 0 aux USA, significativement négatif en Chine, intermédiaire mais toujours
significatif en Europe. Ceci alors même que les internautes européens sont mieux protégés que leurs
homologues étasuniens, ce que nous allons voir immédiatement.
2 Protection par la régulation
Nous avons vu qu’il existe une asymétrie d’information manifeste, aux sens de (Akerlof, 1970), entre le
système des vendeurs et de leurs soutiens et l’utilisateur. Les excès inévitables de cette asymétrie
appellent à l’établissement d’une régulation, externe si elle provient des États, interne si elle résulte de
l’évolution des pratiques des vendeurs.
La régulation se focalise, lorsqu’elle existe, sur la notion de DCP (Données à Caractère Personnel) ou
PII (Personally Identifiable Informations) en anglais. Une DCP est un élément d’information qui, seul ou
en association avec d’autres aisément accessibles, permet d’identifier de façon unique un individu. La
documentation de la Commission nationale informatique et libertés (CNIL, 2012a) propose une gradation
du caractère identifiant d’une donnée : négligeable, comme les seuls prénoms et pays de résidence, faible
si l’on ajoute le nom, car certains sont rares, important en ajoutant la date de naissance, maximal avec
tout ou partie de l’adresse postale ou, dans notre cas, le DSLAM desservant en ADSL le domicile. C’est
selon ce principe qu’en 2011 la Cour de Justice de l’Union européenne a statué que l’adresse IP d’un
terminal était une donnée personnelle[35].
La France est un des premiers pays à s’être dotés d’une législation spécifique, en réaction aux excès de
sa propre administration : le projet SAFARI[36], lancé en 2013 et ayant fait l’objet d’une polémique en
1974, consistait à utiliser un identifiant unique, le NIR[37], pour toutes les bases de données
administratives à granularité individuelle, permettant ainsi des croisements entre fiscalité, santé,
famille… La loi « Informatiques et Libertés » de 1978 a instauré des règles plutôt strictes et confié à la
Commission nationale informatique et libertés (CNIL) le soin de les faire respecter. Internet n’était pas
encore répandu mais, depuis, le caractère illusoire d’une loi purement nationale est devenu évident.
L’union Européenne a progressivement construit un corpus sur ce sujet, stabilisé en 2002[38] mais
continuant à évoluer. Ces directives sont est plus tolérantes que le droit français de l’époque, en réponse
aux demandes des acteurs du secteur. Il a été transcrit peu après en droit local dans le cadre de la Loi
pour la confiance dans l’économie numérique (LCEN, 2004-575) qui corrige certains excès de la Loi de
1978. En dépit de cette relative libéralisation, l’efficacité de cette législation n’est pas négligeable.
(Goldfarb & Tucker, 2011) estiment ainsi qu’elle a fait chuter le bénéfice qu’il était possible d’attendre
des pratiques de tracking de 65 %.
Outre-Atlantique, la régulation est surtout affaire d’autorégulation, même si plusieurs législations
spécifiques proposent une protection de l’intimité aux mineurs, aux handicapés et aux utilisateurs de
services financiers. Nous avons déjà évoqué les publications de la Federal Trade Commission (FTC
Staff Report, 2009), reprises telles qu’elles par l’Interactive Advertising Bureau, une association
professionnelle. Cette dernière publie sur son site nombre de rapports à propos des bonnes pratiques et
de la conformité à ces dernières[39]. Ces règles se trouvaient déjà dans (Barnes, 2003) : 1, informer le
consommateur de la collecte, 2, lui donner le choix pour chaque usage, 3, donner l’accès pour
corrections, 4, conserver en sécurité, 5, se conformer aux principes FLIP (Fair Location Information
Practices) et être auditable. Compatibles en somme avec les directives de l’Union européenne. Mais, sur
la page consacrée à ses motifs, l’IAB place en premier la « lutte contre les excès de la réglementation ».
Rien d’étonnant alors que ce point semble figurer en bonne place dans les négociations en cours sur
l’accord transatlantique[40] (Transatlantic Trade and Investment Partnership).
4 Parades techniques
Les révélations d’Edward Snowden sur les pratiques de la NSA, ayant valu le prix Pulitzer au
journaliste Glen Greenwald du Guardian (Greenwald, 2014), sont peut-être le début de ce que l’activiste
Susan George nomme « l’effet Dracula » : la mise en pleine lumière du vampire est la seule façon de le
faire disparaître. Rien d’étonnant alors que les grands du Web, à commencer par Google, aient été
prompts à protester sur les exigences gouvernementales, car leur divulgation a eu pour effet d’inquiéter
les citoyens et, par ricochet, de révéler leurs propres pratiques.
La sortie récente et le probable succès d’un smartphone sécurisé, le BlackPhone[47], dont le slogan
comporte le terme « ahead of advertising » ou « débarrassé de la publicité », est symptomatique. Ce
terminal, bien qu’animé par une variante du système d’exploitation Android, est incompatible avec le
Google Play Store et les applications de l’éditeur et ce n’est pas le fait du hasard. De même, ProtonMail,
un service de messagerie discret et chiffré lancé fin mai 2014 a vu les capacités prévues pour ses 6
premiers mois d’activité épuisées en à peine plus d’une journée, laissant bien des candidats dans l’attente
qui ont jusqu’à début juillet rassemblé 350 000 $ de dons. Cet engouement suscite donc des vocations
mais aussi quelques déconvenues : le service de SMS protégé d’origine française Perseus devait briller
par un système de chiffrement original et « à l’épreuve de la NSA[48] », lequel a été cassé facilement et
rapidement[49].
L’option « Do Not Track » des navigateurs, abondamment critiquée par les associations de
professionnels lors de son activation par défaut dans les nouvelles versions, n’est en pratique respectée
que par une faible partie des annonceurs, obligeant l’utilisateur à filtrer lui-même les balises. On ne
compte plus les extensions de navigateurs supposées protéger la navigation d’un traçage trop intrusif :
AdBlock et ses variantes ont longtemps été populaires mais sont maintenant soupçonnés de négocier le
non-blocage de marqueurs avec les publicitaires. Ghostery reprend le flambeau assez efficacement en
2014, même si l’existence d’un site frère destiné cette fois aux entreprises peut surprendre. L’Electronic
Frontier Foundation, organisation à but non lucratif qui critique ouvertement le modèle d’affaires des
éditeurs des outils précédent, propose un Privacy Badger supposé être plus performant. Les réglages de
ces différentes extensions ne sont pas simples pour l’internaute moyen qui, bien souvent, s’en tient aux
valeurs par défaut, c’est-à-dire aucun filtrage ou presque (Malandrino & Scarano, 2013).
Les internautes qui sont pistés non pas par des publicitaires mais par des états policiers, avec les
conséquences que l’on imagine, utilisent des techniques plus pointues de préservation de leur anonymat,
comme les re-mailers anonymes, les serveurs proxy situés dans des pays démocratiques, des réseaux
chiffrés comme TOR (The Onion Router). Rien de ceci n’est hélas totalement sûr, comme le rapporte
Imperva (2011), mais des sites liés à Reporters sans frontières (http://surveillance.rsf.org et
https:www.wefightcensorship.org) permettent de suivre les évolutions de cette lutte.
EN CONCLUSION
Terminons ici par quelques conseils de bon sens, sans vocation à l’exhaustivité :
Vos navigateurs devraient être paramétrés pour effacer tous les cookies, historique de
navigation et contenu du cache dès la fermeture de l’application. C’est très facile dans Internet
Explorer et Firefox mais il faut un peu chercher avec Google Chrome.
Profitez-en pour activer, si elle ne l’est pas, l’option « Do not track » et refuser les cookies
tiers.
Les réglages des navigateurs mobiles sont moins développés que ceux de leurs homologues sur
ordinateur : vous devrez donc effacer manuellement et périodiquement, dans le menu
Paramètres, ce qui doit l’être.
Attention : Adobe Flash Player maintient son propre cache de données, qui fait l’objet de
nombreuses attaques. Voyez la marche à suivre sur le site de l’éditeur, Adobe[50].
Certains moteurs de recherche sont moins indiscrets que ne l’est Google : IxQuick ou
DuckDuckGo en sont des exemples.
Vous n’avez jamais de raison valable de donner des informations personnelles sensibles
comme votre date ou votre lieu de naissance. Le vendeur ne s’en servira peut-être pas mais, en
cas de fuite de données, c’est l’élément indispensable aux usurpations d’identité. Si la saisie
de la date est imposée, le 6 juin 1944 est d’actualité, facile à mémoriser et elle vous permettra
de profiter de publicités pour des assurances obsèques.
De même, s’autoriser quelques fluctuations typographiques dans le patronyme ou l’adresse
n’est pas réellement déloyal ; mais pas non plus très efficace, connaissant la puissance des
algorithmes de dé-doublonnage (data cleansing).
Rooter son terminal, comme recommandé par Tim Berners-Lee[51], est, pour le paraphraser, la
seule manière de s’assurer qu’il ne serve pas des intérêts autres que le vôtre, par exemple de
contrôler ce que font réellement les apps. Consultez tout de même l’annexe technique pour
comprendre les risques d’une telle opération.
Vous pouvez aussi décider que, comme le déclare Vinton Cerf[52], « la vie privée est peut-être
une anomalie » et que « qu’il sera de plus en plus en plus difficile de la conserver ». La
deuxième proposition est peu discutable mais, pour ce qui est de la première, rappelez-vous
que M. Cerf, créateur en son temps des protocoles TCP/IP et donc d’un système décentralisé,
travaille désormais pour Google.
Annexe UN PEU DE JARGON
Cette annexe n’existe que pour vous éviter de recourir de façon excessive à votre moteur de recherche
favori. Toutefois, en raison des contraintes de volume, tout ceci est largement simplifié et un recours à
des sources plus complètes est conseillé.
1 B to C et consorts
Il convient parfois de distinguer les formes de commerce selon la nature des participants. En B to C
(Business to Consumer) nous avons la forme traditionnelle plaçant face-à-face un vendeur et un acheteur
particulier. Le B to B (Business to Business), l’acheteur devient un professionnel, et les modalités de
l’interaction changent. Le C to C traite des échanges entre particuliers mais, pour qu’ils nous concernent,
médiatisés par un service, par exemple Leboncoin.fr.
Le M2M ou Internet des objets est un peu isolé dans cette liste : pas directement de commerce ici,
simplement la communication ente objets « intelligents ».
3 Téléphonie cellulaire
Cette technique de communications sans fil a été créée pour résoudre un problème redoutable, celui de
la pénurie de fréquences radio disponibles. Poser deux fibres optiques côte à côte permet de doubler le
débit de liaisons fixes, tandis qu’il faut obligatoirement deux fréquences différentes et bien séparées pour
obtenir le même effet en sans-fil. La solution tient dans une logique cellulaire représentée dans le schéma
suivant :
Chaque point d’accès dénommé station de base et représenté par un petit carré, dessert les mobiles
dont il est le plus proche, en relayant les communications de et vers les mobiles sur le réseau fixe de
l’opérateur et, de là, soit vers le réseau téléphonique public pour la voix, soit vers l’Internet pour les
données. L’ensemble des points d’accès forme un pavage de la zone de couverture, que l’on espère sans
zones blanches. Si la zone à couvrir est divisée en 10 cellules, il est possible en théorie de desservir
jusqu’à 10 fois plus de terminaux qu’avec une cellule unique et cela présente l’avantage de réduire la
consommation énergétique du terminal. Les vrais pavages sont donc très irréguliers, la distance entre
points d’accès et donc la taille des cellules étant d’autant plus petite que la population attendue est
importante et fonction aussi des obstacles à la propagation des ondes radio. En campagne, on peut trouver
des cellules d’un rayon de quelques kilomètres, qui deviennent plus petites dans les zones denses. Il faut
alors gérer la position et les déplacements du mobile :
Savoir à quel point d’accès il est raccordé : c’est le rôle du Home Location Recorder, un serveur
spécialisé géré par l’opérateur.
Ne pas perdre la communication lors du passage d’une cellule à une autre, comme ce serait le cas en
Wifi : c’est pour cela que le terminal négocie en permanence avec plusieurs points d’accès.
Depuis la radiotéléphonie (1G), la téléphonie cellulaire a évolué par étapes, de façon souvent
incompatible dans les différentes régions du monde. Ainsi la 2G, toujours utile pour les zones très peu
denses, repose sur la technique GSM en Europe, CDMA aux USA. Les débits de données sont ridicules et
donc aucun service n’est digne d’être signalé, même après l’introduction de GPRS, première tentative de
connexion de données de mode paquets et non plus minutes. EDGE, ou 2,5G, apporte des débits
descendants – du site Web vers le terminal – pouvant aller jusqu’à 384 kbits/seconde, autorisant le relevé
de courriels mais peu de navigation. Cette technologie est bien souvent la seule disponible dans la
campagne française, les obligations des opérateurs ayant été fixées en termes de population desservie et
non de surfaces, réduisant le nombre de points d’accès désormais dénommés NodeB.
C’est ainsi que UMTS, ou 3G, couvre plus de 80 % de la population mais de loin pas tout le
territoire %. Les débits théoriques de 2Mbits/seconde à l’origine ont parfois triplé avec le passage en
3G+ (HSPA) ; en pratique, ils sont nettement réduits par la densité d’utilisateurs, la qualité des
équipements des opérateurs et les nombreux obstacles à la propagation des ondes. LTE, pour Long Term
Evolution, forme ce qui est annoncé comme 4G, 3.9G selon les puristes. Cette fois, les débits maximaux
annoncés sont proches de ceux de la fibre optique à domicile, soit plus de 100 Mbits/s. En pratique et en
fonction du contexte les débits sont comparables à ceux d’un très bon ADSL, voire plus, ou d’un réseau
Wifi d’ancienne génération ou un peu chargé. La diffusion de la 4G est progressive depuis 2010, sauf aux
USA où nombre d’opérateurs ont sauté l’étape 3G et sont donc paradoxalement en avance. Un aspect
surprenant de la 4G est qu’elle fonctionne en mode paquets exclusivement, étant donc non compatible
avec la téléphonie ; les terminaux, à la réception d’un appel, basculent donc en mode 2G ou 3G, ce qui
ralentit sensiblement le trafic IP.
4 TCP/IP
À peu près la seule pile de protocole qui subsiste à grande échelle pour les couches 3 et 4 du modèle
OSI. IP correspond à la couche 3, réseau et TCP et quelques cousins à la couche 4, transport.
IP (Internet Protocol) définit la structure des blocs d’information, ou datagrammes, qui peuvent
circuler sur le réseau : un datagramme va contenir un en-tête et une charge utile ( payload ). L’entête
permet l’acheminement du datagramme à travers un réseau complexe, via une série de routeurs. Pour
chaque datagramme reçu, le routeur examine d’abord l’adresse du terminal destinataire afin de déterminer
auquel de ses voisins immédiats il faut le transférer ; si le destinataire est sur son propre sous-réseau, la
livraison est immédiate. Il peut aussi détruire le datagramme en fonction de règles de filtrage ou si le
réseau de sortie est saturé, ou le mettre en file d’attente pour gérer les priorités des types de flux, faisant
par exemple passer les flux de voix sur IP (VoIP) avant le trafic Web. Ces blocs d’information sont
généralement petits, de quelques centaines d’octets en moyenne, et un bon routeur en traitera plusieurs
dizaines de millions par seconde ou d’avantage pour les modèles d’opérateurs (carrier class). La box
fournie par le FAI est elle-même un petit routeur.
L’adresse de l’expéditeur fait aussi partie du datagramme, pour permettre au serveur de renvoyer une
réponse : c’est elle qui joue un rôle important dans la qualification de l’internaute.
Il y a deux variantes d’IP : IPv4 est le plus ancien, et est caractérisé par des adresses codées sous la
forme a.b.c.d où chaque nombre est autorisé à varier dans la plage 1,254, les valeurs extrêmes 0 et 255
étant réservées à des usages particuliers. Les blocs d’adresses, ou classes, sont attribués aux opérateurs
Internet par l’ICANN. À leur tour, les opérateurs affectent les adresses disponibles à leurs clients soit de
façon permanente pour les entreprises, soit de façon transitoire (protocole DHCP) pour les clients
particuliers et les mobiles.
IPv6 est le remplaçant désigné, confidentiel depuis 20 ans mais en passe de s’imposer en raison de la
pénurie d’adresses IPv4. Outre de nombreuses améliorations, en particulier dans le domaine de la
sécurité, la partie la plus visible d’IPv6 est la nouvelle forme des adresses, comme le montre l’exemple
ci-dessous :
5 DHCP/NAT/proxy/pare-feu
Les concepts réunis ici le sont parce qu’ils peuvent, chacun dans son rôle, gêner la qualification de
l’internaute. DHCP (Dynamic Host Configuration Protocol, RFC 2131 & 2132) est avant tout une
commodité permettant d’éviter la nécessité de configuration manuelle du poste client, avec affectation
automatique d’une adresse IP, de l’adresse du routeur par défaut et autres paramètres utiles. Les adresses
de box ADSL sont attribuées de cette manière par le FAI les ayant distribuées, comme le sont celles des
postes clients du réseau domestique, cette fois par la box elle-même, celles des mobiles par l’opérateur
et, souvent, celles des postes d’entreprise par le système mis en place par l’administrateur local. Pour
tous ces postes clients, et à la distinction des serveurs, ces adresses sont transitoires, affectées pour une
durée précise dénommée bail ; si le poste est éteint puis rallumé, l’adresse IP change. Ce procédé,
coutumier en IPv4, a été reproduit en IPv6 (RFC 3315) mais il est remplacé efficacement par le NDP
(Neighbor Discovery Protocol) où l’adresse est composée du préfixe du réseau et soit de l’adresse MAC
du terminal (RFC 4862) soit, ce qui est plus discret, d’un numéro aléatoire (RFC 4941, activé par défaut
dans Microsoft Windows).
Le NAT (Network Address Translation) est un mécanisme de traduction d’adresses IPv4 fréquent sur
les routeurs d’entreprise et systématique sur les réseaux domestiques situés derrière une box : son but
premier est de pallier la pénurie d’adresses IPv4. Chaque poste du réseau local se voit affecter par
DHCP une adresse définie par la RFC 1918 : ces adresses, comme les 10.x.x.x ou les 192.168.x.x ne sont
jamais routées sur l’Internet public. Pour accéder aux ressources du Web, les postes monde extérieur, un
poste d’adresse 192.168.x.x devra donc passer par un système de translation ou un proxy. Le système de
translation ou NAT va intercepter le paquet envoyé par le client et le réexpédier au serveur destinataire
en remplaçant l’adresse de l’expéditeur par sa propre adresse et le port expéditeur par un port attribué de
façon unique au client, de façon à pouvoir transmettre sans erreur la réponse du serveur au vrai client. De
la sorte, le client reste inaccessible de l’extérieur sauf pour les réponses à ses propres questions et le
seul élément visible est l’adresse IP publique du NAT. Nombre d’entreprises y voient un instrument de
sécurisation de leur réseau, selon le concept de security by obscurity[54]. Bien que gênant pour
l’identification de l’internaute, ce sentiment de sécurité est souvent illusoire ; de plus, cela entraîne la
création d’un maillon faible (SPoF – Single Point of Failure). Pire, le remplacement de communications
UDP par des connexions TCP génère un net ralentissement des applications multimédia comme la vidéo.
Les adresses privées existent toujours en IPv6, avec le préfixe fe80 :: (RFC 3484) : elles permettent de
distinguer rapidement les communications locales et globale et de filtrer de façon appropriée. Le concept
de NAT existe aussi (RFC 4864) mais est considéré comme non nécessaire, voire nocif et à éviter, sans
pour autant que cela fasse l’unanimité[55].
Un proxy ou serveur mandataire va jouer le même rôle de masquage des adresses des postes du réseau
local, à ceci près qu’il ne propage pas tous les types de paquets TCP. On aura donc des proxy http, pour
le trafic Web, des mail proxys pour la messagerie… Étant spécialisés, ces proxys peuvent appliquer des
règles de filtrage adaptées aux protocoles en cause : existence et type de pièces jointes pour les courriels,
liste noire de sites Web, types de fichiers téléchargés, présence de virus… On parle de DPI pour Deep
Packet Inspection : au-delà du simple examen des adresses et ports source et destination, le contenu de la
charge utile (payload) est examiné et, si nécessaire, modifié.
Un pare-feu est un simple filtre de datagrammes IP, selon le contenu de l’entête. Il peut être intégré au
poste de travail, comme c’est le cas pour toutes les versions récentes de Windows ; ou installé sur le
réseau de façon à distinguer plusieurs zones dotées d’un niveau différent de sécurité. Certains pare-feu de
réseau combinent les fonctions présentées dans cette section et on parle alors d’Unified Threat
Management. Les systèmes d’exploitation de mobiles n’ont pas de pare-feu intégré : on trouve des
applications qui remplissent cette fonction efficacement mais qui nécessitent que le téléphone ait été au
préalable rooté.
6 Métriques Web
Tout serveur informatique maintient un historique de son activité dénommé log. Du temps de la marine à
voile, les informations capitales du navire étaient stockées dans une bûche (log) évidée placée sur le
pont : en cas de naufrage, il subsistait un petit espoir que ce log flotte et puisse être récupéré. Le log d’un
serveur Web liste toutes les requêtes HTTP qu’il reçoit selon soit le format standard NCSA, soit un
format étendu W3C.
[2] L’Union européenne tente de pousser ICT pour technologies de l’information et de la communication. Le reste du monde parle d’IT
(Information Technology) et une comparaison sur Google Trends rend un jugement sans appel.
[3] http://www.examiner.com/article/location-based-services-b2b-offer-better-return.
[4] https://www.flickr.com/photos/mountainlight/5606497089/in/photostream/
[5] http://www.remontees-mecaniques.net/bdd/reportage-5042.html
[6]
« Any Real-Time Information or Entity That Influences the Interaction Between Mobile Device Users and Mobile Applications,
as well as Potentially Changes the Preferred Behavior of Those Applications », p29
[7] Règles de confidentialité, https://www.google.com/intl/fr/policies/privacy/key-terms
[8] Le site https://research.nokia.com/page/11367 décrit brièvement cette expérience, probablement une des plus importantes en Europe, et
liste les publications en ayant été tirées. Nous employons dans ce texte quelques résultats de (Do & Gatica-Perez, 2014) mais une
description plus détaillée du dispositif est donnée dans (Laurila et al., 2012).
[9] Selon le vocabulaire Google Analytics, on passe d’un client ID (cid) à un user ID (uid).
[12] Des ballons dirigeables pour raccordement Internet des pays pauvres, http://www.google.com/loon/.
[13] Voir le reportage Data Brokers dans l’émission 60’ de CBS News, http://www.cbsnews.com/news/the-data-brokers-selling-your-
personal-information/. Voir aussi l’une de ces firmes sur http://www.beenverified.com.
[14] http://www.googleadservices.com
[15]
« Where you are, who you are with, and what resources are nearby » (Schilit et al., 1994, p85) et, quelques lignes plus haut, « Such
context-aware systems adapts […] to changes to such thing over time ».
[16] Obligation faite à IMB, alors en situation d’hégémonie, de séparer dans sa facturation ce qui relevait du logiciel de la partie matérielle,
en vertu des lois anti-trust alors en vigueur aux USA. Cet épisode est considéré comme ayant permis la création de l’industrie des éditeurs
de logiciels.
[17] http://www.youtube.com/watch?v=ckZalvopRJQ&feature=kp.
[18] http://www.cnet.com/news/tim-berners-lee-on-its-25th-anniversary-the-web-still-needs-work-q-a/.
[19] http://www.01net.com/editorial/604740/visitez-les-jardins-du-chateau-de-versailles-smartphone-en-main/.
[20] http://www.lemonde.fr/economie/article/2013/02/18/des-start-up-a-l-assaut-des-taxis_1834155_3234.html.
[21] Le site correspondant n’affiche plus qu’une page de garde. Cf. http://www.examiner.com/article/girls-around-me-as-a-mirror-of-social-
networking.
[22] http://www.lemondeinformatique.fr/actualites/lire-facebook-abandonne-places-mais-pas-la-geolocalisation-34476.html.
[23] http://www.lepoint.fr/societe/un-systeme-infaillible-pour-compter-les-manifestants-01-05-2014-1818319_23.php.
[24] http://www.club-assureur.com/fr/assurance-auto-pay-as-you-drive-la-controverse.
[26] http://www.emailretargeting.com/.
[31]
Traduction libre de If you don’t have a specific need for the information, don’t collect it in the first place (p. 6).
[32] “Right to be left alone”, in S.D. Warren, L.D. Brandeis, « The right to privacy », Harward Law Review 4 (5) (1890) 193–220.
[33]
http://europa.eu/legislation_summaries/information_society/legislative_framework/l24120_fr.htm
[34] Worse, they might become a case of « responsibilization »—a situation in which individuals are « rendered responsible for a
task which previously would have been the duty of another … or would not have been recognized as a responsibility at all. »
[35] Scarlet Extended vs SABAM, http://eur-lex.europa.eu
[36]
http://www.cil.cnrs.fr
[37] Numéro d’inscription au répertoire, souvent dénommé numéro de Sécurité sociale.
[38] « Directive 95/46/CE » puis « Directive 2002/58/CE du Parlement européen et du Conseil du 12 juillet 2002 concernant le traitement des
données à caractère personnel et la protection de la vie privée dans le secteur des communications électroniques ».
[39] http://www.iab.net/guidelines/compliance_programs.
[40] http://ec.europa.eu/trade/policy/in-focus/ttip/.
[41] Cf. « Google, Amazon, Apple : l’OCDE lance l’offensive », Le Figaro Économie, 21/01/2013.
[43] http://www.zdnet.fr/actualites/nouveau-vol-de-donnees-personnelles-pour-les-clients-orange-39800783.htm
[45] http://pro.clubic.com/entreprises/google/actualite-702071-google-moteur-recherche-droit-oubli.html.
[47]
https://www.blackphone.ch
[48] http://www.clubic.com/antivirus-securite-informatique/actualite-585290-sms-perseus-application-android-messages-indechiffrables.html.
[49] Présentation informelle au SSTIC’14, Symposium sur la sécurité des technologies de l’information et des communications, Rennes,
juin 2014 (https://www.sstic.org/2014/actes/), cf. Hervé Schauer Consultants, Lettre n°119, juillet 2014.
[50] http://forums.adobe.com/message/4278569
[51] http://www.zdnet.com/apps-no-root-your-device-serves-others-berners-lee-7000010661/
[52] http://www.businessinsider.com/google-vinton-cerf-declares-an-end-to-privacy-2013-11
[55] http://ipv6friday.org/blog/2011/12/ipv6-nat/
[56] http://www.lemondeinformatique.fr/actualites/lire-des-malwares-derobent-des-millions-de-donnees-des-caisses-de-target-56253.html
Glossaire
Apps : terme désignant les applications plus ou moins complexes conçues à destination
des terminaux mobiles puis, par extension, aux environnements assez fermés comme
Chrome OS ou l’IHM Modern UI de Windows 8. Les Apps sont disponibles sur un Store.
FAI (Fournisseur d’Accès Internet), pour ISP (Internet Service Provider). C’est le
prestataire qui assure la liaison entre votre réseau domestique ou d’entreprise et le reste de
l’Internet. Il peut être propriétaire de la liaison physique, câble, fibre ou paire
téléphonique qui vous sépare de son Point de Présence (PoP) le plus proche, ou la louer à
un autre opérateur. Il est seul responsable de cette liaison, des services offerts et des
adresses IP fournies. On parle habituellement de FAI pour l’Internet fixe ou les réseaux
Wifi publics et d’opérateurs pour le cellulaire.
MAC (Media Access Control) : l’adresse MAC est définie au niveau 2 du modèle OSI et
est attribuée par construction à l’interface réseau du terminal. Elle est obligatoirement
unique sur le réseau, généralement unique au monde et habituellement non modifiable,
du moins par le profane. 63:22:C1:CF:9D:27 est une adresse MAC valide, bien
qu’imaginée, définie sur 96 bits. Les premiers chiffres alphanumériques désignent le
constructeur de l’interface et donc, souvent, celui du terminal.
Mashup : application Web ou app mobile dont la réalisation repose sur l’assemblage des
fonctionnalités de deux ou plusieurs applications préexistantes. Un des premiers exemples
fut la superposition des coordonnées de maisons à vendre du site Craig’s List sur les
cartes de Google Maps. Une telle construction suppose que les concepteurs des
applications servant de briques autorisent un tel usage et aient fourni les éléments
techniques (API) nécessaires pour ce faire. C’est le cas avec Google Maps, que l’on
retrouve dans une proportion importante de mashups.
NFC (Near Field Contact) : mode de transmission de données à très courte distance,
typiquement quelques centimètres, par ondes radiofréquences. C’est le principe du «
passe Navigo » de la RATP, avec une carte passive sans contact. Depuis le milieu des
années 2000, au Japon, la plupart des ordiphones incorporent une puce NFC qui permet
un dialogue très rapide avec des dispositifs comme portillons d’accès, terminaux de
paiement… En Europe, la diffusion de ces outils se généralise, mais lentement.
RFC (Request for Comments) : joue sur l’Internet le rôle d’une norme technique,
représentant le consensus obtenu par l’IETF (Internet Engineering Task Force) auprès
des parties prenantes. Le style en est très contraint, pour éviter toute ambiguïté qui
pourrait conduire à des mises en œuvre incompatibles.
Rooter : les systèmes d’exploitation des trois grands éditeurs fonctionnent en mode
protégé, empêchant l’utilisateur de réaliser certaines actions techniques, au prétexte de
questions de sécurité. Pour installer des applications de gestion fine des droits, comme un
pare-feu local, il faut faire sauter cette protection en remplaçant une petite portion du
système d’exploitation. Dans les mondes Android et Windows Phone, on parle de mode
root en référence à l’administrateur des machines Unix et Linux. Chez Apple, ceci
s’appelle jailbreak ou évasion, tout un programme. Cela rend caduque la garantie
constructeur dans tous les cas. De plus, toute mise à jour de l’OS renvoie à la situation
initiale.
SMS (Short Message Service) : message textuel court transmis en détournant les
protocoles de signalisation qui complètent le transport de la voix chez les téléphonistes
mobiles, le GSM en Europe. Ce message est techniquement limité à 160 caractères, dont
140 utiles ; c’est cette valeur qui a servi à définir la taille des messages Twitter. L’opérateur
SFR avait déposé la marque commerciale texto mais, depuis 2009, ce terme est devenu
générique.
SPoF (Single Point of Failure) : point unique de défaillance. On désigne par ce terme un
équipement ou un logiciel à travers lequel doivent transiter toutes les informations, et
donc dont la défaillance entraîne un arrêt complet de toutes les opérations concernées.
C’est précisément dans l’idée de faire disparaître ces SPoF que la plupart des protocoles
de l’Internet ont été conçus, avec plus ou moins de bonheur.
SSL (Secure Sockets Layer) auquel a succédé TLS (Transport Layer Security) : cf. RFC
2246 & 4347. Mode de communication chiffré entre client et serveur. L’entête du
datagramme reste en clair mais le reste ne peut être analysé en cours d’acheminement.
Chapitre 1
ABBATE J. (1999). Inventing the Internet, Cambridge, MIT Press.
ABBATE J. (2010). « Privatizing the Internet: Competing Visions and Chaotic Events, 1987–1995 », IEEE
Annals of the History of Computing, vol. 32, n° 1, pp. 10-22.
ANDERSON C. (2009). La longue traîne, Pearson Education, 2e ed.
ANDERSON C. (2009). Free!, Pearson.
BARBA C., ALARCON P., GRATADOUR J-R., ISAAC H., OUALID P., VOLLE P. (2011). « Le commerce
électronique: évolution ou révolution? », Entreprises et Histoire, 64, p. 167-182.
BERNERS-LEE T. (2000). Weaving the Web, Harper Business.
BOMSEL O. (2010). L’économie immatérielle. Industries et marchés d’expérience, Gallimard.
BOMSEL O. (2007). Gratuit ! Du déploiement de l’économie numérique, Gallimard (Folio Actuel n°
128).
BRETON P. (2000). Le Culte de l’Internet. Une menace pour le lien social ?, La Découverte.
BROUSSEAU E. et CURIEN N. (2007). Internet and Digital Economics, Cambridge University Press.
BRUNTON F. (2013). Spam, A Shadow History of the Internet, Cambridge, MIT Press.
CASTELLS M. (2001). La société en réseaux, Fayard.
CASTELLS M. (2002). La galaxie Internet, Fayard.
CECERRE G., ROCHELANDET F. (2012). « Modèles d’affaires numériques, exploitation des données
personnelles et performances des sites web : une évaluation empirique », Revue Française de
Gestion, vol. 38, 224, 111-124.
CERUZZI P. (2012). « Aux origines américaines de l’Internet : projets militaires, intérêts commerciaux,
désirs de communauté », Le Temps des Médias, n° 18, pp. 15-28.
CRAIN M., « The Revolution will be commercialized: finance, public policy, and the construction of
internet advertising », Thèse soutenue en 2013 à l’Université d’Illinois, USA.
CURIEN N. et MAXWELL W. (2011). La neutralité d’internet. La Découverte.
DELL M. (2000). Le modèle direct. Une stratégie révolutionnaire, Maxima.
DOMINGUEZ G. (2009). « Business models des places de marché électroniques : une taxonomie pour
décrypter leurs enjeux », Systèmes d’Information et Management, 14(2). 39-64.
FAUCILHON J. (2010) Rêveurs, marchands, pirates : que reste-t-il du rêve de l’Internet ?, Le Passager
Clandestin.
FLICHY P. (2001). L’imaginaire d’Internet, La Découverte.
FLICHY P. (1999). « Internet ou la communauté scientifique idéale », in « Internet un nouveau mode de
communication ? », Réseaux, n° 97, vol. 17, pp. 77-120.
GALLEZOT G. et SIMONNOT B. (2009). L’entonnoir. Google sous la loupe des sciences de l’information
et de la communication, C&F Editions.
GAO J., SHENG B., CHANG L. et SHIM S. (2002). « Online Advertising – Taxonomy and Engineering
Perspectives », accessible en ligne à http://www.engr.sjsu.edu
GRISET P. (2010). « L’émergence d’Internet, entre imaginaire universel et réalités américaines », Le
débat, n° 160, p. 133-150.
HAGEL J., ARMSTRONG A. G. (1999). Bénéfices sur le net, Ed. d’Organisation.
ISAAC H., VOLLE P. (2014). E-commerce : de la stratégie à la mise en œuvre opérationnelle, 3e éd,
Pearson Education.
KOTLER (2005). Le marketing selon Kotler – ou comment créer, conquérir et dominer le marché,
Pearson Education.
LASICA J. D., 2006, Darknet : La guerre d’Hollywood contre la génération digitale, M21 éditions.
LEMOINE J. F. (2010). « Les recherches en e-marketing : état des lieux et perspectives », Management et
Avenir, n° 32, pp. 109-112.
LENDREVIE J., LÉVY J. et LINDON D. (2009). Mercator : Théories et nouvelles pratiques du marketing,
Dunod.
LÉVY P. (2000). World Philosophie, Le champ médiologique, Odile Jacob.
LICKLIDER J. C. R., TAYLOR ROBERT W. (1968). « The Computer as a Communication Device », reprinted
from Science and Technology, April.
MALIN E. et PÉNARD T. (2010). Économie du numérique et de l’Internet, Vuibert.
MASSIT-FOLLÉA F. et DELMAS R. (coord). (2002). « La gouvernance d’internet », Les Cahiers du
Numérique, vol. 3, 2.
MASSIT-FOLLÉA F. (2012). « La gouvernance de l’Internet. Une internationalisation inachevée », Le
Temps des Médias, n° 18, pp. 29-40.
MASSIT-FOLLÉA F., MÉADEL C. et MONNOYER-SMITH L. (2012). Normative Experience in Internet
Politics, Presses des Mines.
MASUTTI C. et PALOQUE-BERGES C. (dir.) (2013), Histoires et cultures du libre, Framasoft.
MCLUHAN M. (1968). Pour comprendre les média – les prolongements technologiques de l’homme,
Mame/Seuil.
MORIN-DESAILLY C. (2013). « L’Union européenne, colonie du monde numérique ? », Rapport
d’information n° 443 (2012-2013) fait au nom de la commission des affaires européennes.
MUSIANI F., SCHAFER V. et LE CROSNIER H. (2013). « Net neutrality as an Internet Governance Issue: The
Globalization of an American-Born Debate », Revue française d’études américaines, pp. 47-63.
MUSIANI F. (2012). Nains sans géants. Architecture décentralisée et services Internet, Presses des
Mines.
NAUGHTON J. (1999). A brief history of the future. The origins of the Internet, Londres, Weidenfeld &
Nicolson.
NEGROPONTE N. (1995). L’homme numérique, Robert Laffont.
OCQUETEAU F., VENTRE D. (2011). Contrôles et surveillances dans le Cyberespace, Documentation
française.
PALOQUE-BERGES C. (2012). « La mémoire culturelle d’Internet : le folklore de Usenet », Le Temps des
Médias, dossier « Internet dans l’histoire, Histoire de l’Internet », n° 18, pp. 111-123.
PRAS B. (2012). « Entreprise et vie privée: le « privacy paradox » et comment le dépasser ? », Revue
Française de Gestion, vol. 5, n° 224, pp. 87-94.
PROULX S. (2004). La révolution Internet en question, Québec Amérique.
REBILLARD F. (2012). « La genèse de l’offre commerciale grand public en France (1995-1996) : entre
fourniture d’accès à l’Internet et services en ligne « propriétaires », Le Temps des médias, n° 18,
pp. 65-75.
SCHAFER V. (2012a). « Internet et avant ? », in Letonturier, É. Les réseaux, CNRS Editions, pp. 73-84.
SCHAFER V. (2012b). La France en réseaux (années 1960-1980), Nuvis.
SCHAFER V., Le Crosnier H. (2011). La neutralité de l’Internet, un enjeu de communication, CNRS.
SCHILLER D. (2009). Digital Capitalism: Networking the Global Market System, Cambridge, MIT
Press.
SERRES A. (2000). Aux sources d’internet: l’émergence d’Arpanet, Thèse de Doctorat en Sciences de
l’Information et de la Communication, Université Rennes 2, http://tel.archives-ouvertes.fr/tel-
00312005/
STENGER T., COUTANT A. (2013). « Les sites de réseaux sociaux professionnels au service du marketing :
le cas Viadeo », Communication & Organisation, 43, pp. 283-289.
STENGER T. (2011). « Internet, e-marketing et e-commerce », in Stenger T. et Bourliataux-Lajoinie S., E-
marketing & E-commerce – Concepts, outils, pratiques, Dunod, pp. 9-38.
THIERRY B., SCHAFER V. (2012). Le Minitel, l’enfance numérique de la France, Nuvis.
TURNER F. (2013) Aux sources de l’utopie numérique : De la contre-culture à la cyberculture, Stewart
Brand, un homme d’influence, C&F Editions.
VERNETTE E., DUBOIS P. L. (2001). « Contributions et pistes pour la recherche en « E-marketing » –
editorial », Recherche et Applications en Marketing, vol. 16, 3, pp. 1-8.
VOLLE P. (2011). Marketing : comprendre l’origine historique, MBA Marketing, Editions
d’Organisation, Eyrolles, pp. 23-45.
WIENER N. (1962). Cybernétique et Société, Union Générale d’édition.
WOLTON D. (1999). Internet et après ? Une théorie critique des nouveaux médias, Flammarion.
Chapitre 2
ALLARD L., BLONDIAU O. (2007). 2.O ? Culture Numérique, Cultures Expressives, Médiamorphoses, n
° 21.
ALLOING C. (2013). Processus de veille par infomédiation sociale pour construire l’e-réputation d’une
organisation – Approche par agents-facilitateurs appliquée à la DSIC de La Poste. Thèse de Doctorat,
Université de Poitiers.
AMINE A., SITZ L., (2007). Émergence et structuration des communautés de marque en ligne, Décisions
Marketing, n° 46, pp. 63-75.
ARNOULD E. J. et WALLENDORF M. (1994). Market-oriented ethnography: interpretation building and
marketing strategy formulation, Journal of Marketing Research, 31, November, pp. 484-504.
BADOT O., CARRIER C., COVA B., DESJEUX D., FILSER M., (2009): « L’ethnomarketing : un élargissement
de la recherche en comportement du consommateur à l’ethnologie » ; Recherche et Applications en
Marketing, vol. 24, n° 1/2009, 13, pp. 93-111.
BALAGUÉ C., DEVALCK K. (2013). « Using Blogs for Soliciting Consumer Feedback: The Role of
Directive Questioning Versus No Questioning », Journal of Interactive Marketing 27, pp. 62-73.
BENAVENT C. (2011). « Management de la relation client à l’ère digitale », in Stenger T., Bourliataux-
Lajoinie S. (coord.). E-marketing & E-commerce – Concepts, outils, pratiques, Dunod, pp. 39-62.
BENGHOZI P.-J. (2006). « Communauté virtuelle : structuration sociale ou outil de gestion ? »,
Entreprises et Histoires, n° 43, juin, pp. 67-81.
BERNARD Y. (2004). La netnographie : une nouvelle méthode d’enquête qualitative basée sur les
communautés virtuelles de consommation, Décisions Marketing, 36, 49-62.
BERNHOFF, J. AND LI C. (2008). « Harnessing the Power of the Oh-So-Social Web », MIT Sloan
Management Review, Vol. 49, n° 3, pp. 36-42.
BOULLIER D. (2012b). « L’attention : un bien rare en quête de mesures », Sciences de la société, 87,
pp. 129-145.
BOUQUILLION P., MATTHEWS J. T. (2010). Le web collaboratif. Mutations des industries de la culture et
de la communication, PUG.
BOURDAA M. (2013). « Le transmedia storytelling », Terminal, 112.
BOYD D., CRAWFORD K. (2012). « Critical Questions for Big Data: Provocations for a Cultural,
Technological, and Scholarly Phenomenon », Information, Communication & Society, 15, pp. 662-
679.
BOYD D., ELLISON N. (2007). « Social Network Sites: Definition, History, and Scholarship », Journal of
Computer-Mediated Communication, vol. 13, n° 1.
BOYD, DANAH (2008). Taken Out of Context – American Teen Sociality in Networked Publics, Doctoral
Dissertation, University of California, Berkeley: School of Information.
BRETON P. (2000). Le culte de l’Internet. Une menace pour le lien social ?, La Découverte.
BROWN, J., BRODERICK, A. J., et LEE, N. (2007). « Word of mouth communication within online
communities: Conceptualizing the online social network ». Journal of Interactive Marketing,
21(3):2-20.
CARDON D. (2008). Le design de la visibilité. Un essai de cartographie du web 2.0, Réseaux, 152/6,
pp. 93-137.
CASTELLANO S. & DUTOT V. (2013). Une analyse de l’e-réputation par analogie ou contraste avec la
reputation: une approche par les medias sociaux. Revue Française du Marketing, 23, 3/5, pp. 35-51.
CASTELEYN J., MOTTART A. et RUTTEN K. (2009). How to use Facebook in your market research,
International Journal of Market Research, 51, 4, pp. 439-447.
CHO C.-H, CHEON H. J. (2004). Why do people avoid advertising on the Internet, Journal of
Advertising, 33, 4, pp. 89-97.
COCHOY F. (2004). La captation des publics. C’est pour mieux te séduire, mon client… Toulouse,
Presses universitaires du Mirail.
COOKE, M., AND BUCKLEY, N. (2008). Web 2.0, Social Networks and the Future of Market Research.
International Journal of. Market Research 50(2), 2008, pp. 267-292.
COUTANT A., STENGER T. (2010). « Processus identitaire et ordre de l’interaction sur les réseaux
socionumériques », Les enjeux de l’information et de la communication, août, pp. 45-64.
COUTANT A., STENGER T. T. (2011). « Activités ordinaires et mise en scène de soi sur les réseaux
socionumériques », Réél-Virtuel, 2, (en ligne).
COUTANT A., STENGER T. (2012). « Les médias sociaux : une histoire de participation », Le Temps des
médias, 1, 18, avril, pp. 76-86.
COVA B. (1995). Au-delà du marché : quand le lien importe plus que le bien, L’Harmattan.
COVA B., SHANKAR A. et KOZINETS R. V. (2007). Consumer Tribes: Theory, Practice and Prospects,
Oxford, Elsevier.
DE CERTEAU M. (1980). L’invention du quotidien, t 1, Les arts de faire, UGE.
DELLAROCAS C. (2003). « The Digitization of Word-of-Mouth: Promise and Challenges of Online
Reputation Systems », Management Science, vol. 10, n° 49, pp. 1407-1424.
DEIGHTON J., FADER P., HAENLEIN M., KAPLAN A. M., LIBAI B., MULLER E. (2011). « Médias sociaux et
entreprise, une route pleine de défis : Commentaires invités », Recherche et Applications en
Marketing, 26, 3, pp. 117-124.
DESBIEY O. (2011). « Utiliser les médias sociaux pour réaliser une veille productive : Twitter un réseau
pas comme les autres », Hermès, CNRS Editions, n°59.
DESJEUX D. (1997). L’ethnomarketing, une approche anthropologique de la consommation : entre
fertilisation croisée et purification scientifique, Revue UTINAM, 21-22 (Mars), L’Harmattan, pp. 111-
147.
DUMAZERT J.-P. et LEMOINE L. (2010). Relation client et mondes virtuels : quelles variables culturelles
explicatives de la performance de la fonction commerciale sur les MMOGs ?, Management et
Avenir, 31, 1, pp. 190-208.
DUTOT V. (2013). A New Strategy for Customer Engagement: How Do French Firms Use Social CRM?
International Business Research, Vol 6., n° 9, pp. 54-67.
FALKINGER J. (2007). « Attention economies », Journal of Economic Theory, n° 133, pp. 266-274.
FLICHY P. (2001). L’imaginaire d’Internet, La Découverte.
FÜLLER J., MÜHLBACHER H., MATZLER K., JAWECKI G. (2010). « Consumer Empowerment Through Internet-
Based Co-creation », Journal of Management Information Systems, vol. 26, n° 3, pp. 71–102.
Füller J. G., Jawecki G. et Mühlbacher H. (2007). Innovation creation by online basketball
communities, Journal of Business Research, 60, 1, pp. 60–71.
Füller J., Jawecki G., Mühlbacher H. (2007). Développement de produits et services en coopération
avec des communautés en ligne, Décisions Marketing, 48, pp. 47-58.
GENSOLLEN M. (2006). « Des réseaux aux communautés : la transformation des marchés et des
hiérarchies », in Proulx S., Poissant L. et Sénécal M. (dir)., Communautés virtuelles : penser et agir
en réseau, Presses de l’Université de Laval, pp. 107-132.
GENSLER S., VÖLCKNER F., LIU-THOMPKINS Y., WIERTZ C. (2013). Managing brands in the social media
environment, Journal of Interactive Marketing, vol. 27, Issue 4, Nov., p. 242-256.
GIESLER M. et POHLMANN M. (2003). The anthropology of file sharing: consuming Napster as a gift,
Advances in Consumer Research, 30, pp. 273-279.
GODES D. et D. MAYZLIN. (2004). Using online conversations to study word-of-mouth communication,
Marketing Science, 23, 4, pp. 545-60.
GREENBERG P. (2010). The impact of CRM 2.0 on customer insight. Journal of Business & Industrial
Marketing, 25(6), 410–419.
HAENLEIN M., KAPLAN A. M. (2009). « Les magasins de marques phares dans les mondes virtuels :
l’impact de l’exposition au magasin virtuel sur l’attitude envers la marque et l’intention d’achat dans
la vie réelle », Recherche et Applications en Marketing, vol. 24, n° 3, pp. 57-80.
HEINDERYCKX F. (2011). « Obama 2008 : l’inflexion numérique », Hermès, Ed. CNRS, n° 59.
HELME-GUIZON A., MAGBONI F. (2013). « Les marques sont les amies sur Facebook : vers une typologie
de fans basée sur la relation à la marque et le sentiment d’appartenance », Revue Française du
Marketing, 243, 3/5, pp. 23-34.
HENNIG-THURAU, T., MALTHOUSE, E. C., FRIEGE, C., GENSLER, S., LOBSCHAT, L., RANGASWAMY, A., & SKIERA,
B. (2010). The Impact of New Media on Customer Relationships. Journal of Service Research,
13(3), pp. 311–330.
HETZEL P. (2004). Le marketing relationnel, PUF.
HINE C. (2005). Virtual methods. Issues in Social Research on the Internet, Berg.
HINE C. (2000). Virtual Ethnography (2000), London, Sage.
HOFFMAN D., NOVAK T., STEIN R. (2013). « The digital consumer », in The Routledge Digital
Consumption, Routledge, pp. 28-38.
ITO M., dir. (2010). Hanging Out, Messing Around, and Geeking Out: Kids Living and Learning with
New Media. The MIT Press.
JENKINS H. (2006). Convergence Culture: Where Old and New Media Collide, New York University
Press.
JENKINS H. (2006). Fans, Bloggers, and Gamers: Exploring Participatory Culture, New York
University Press.
JONES, B., TEMPERLEY, J., & LIMA, A. (2009). Corporate reputation in the era of Web 2.0: the case of
Primark. Journal of Marketing Management, 25, 9-10, 927-939.
KAPFERER J-N. (1987). Rumeurs. Le plus vieux média du monde, Seuil.
KAPLAN A. M., HAENLEIN M. (2011). « Editorial – Les médias sociaux sont définitivement devenus une
réalité », Recherche et Applications en Marketing, 26, 3, pp. 3-5.
KELLY L., KERR G. et DRENNAN J. (2010). Avoidance of advertising in social networking sites : the
teenage perspective, Journal of Interactive Advertising, 10, 2, pp. 16-27.
KESSOUS E., MELLET K., ZOUINAR M. (2010). « L’économie de l’attention : entre protection des
ressources cognitives et extraction de la valeur », Sociologie du Travail, 52, pp. 359-373.
KIM, A. J., & KO, E. (2011). Do social media marketing activities enhance customer equity? An
empirical study of luxury fashion brand. Journal of Business Research, 65, 10, pp. 1480-1486.
KOZINETS R. V. (2009). Netnography – doing ethnography research online, Sage.
KOZINETS R. V., HEMETSBERGER A., SCHAU H. J. (2008). « The Wisdom of Consumer Crowds. Collective
Innovation in the Age of Networked Marketing », Journal of Macromarketing, vol. 28, n° 4, pp. 339-
354.
KOZINETS R. V., VALCK (DE) K., WOJNICKI A. C., WILNER S. J. S. (2010). « Networked Narratives:
UnderstandingWord-of-Mouth Marketing in Online Communities », Journal of Marketing, vol. 74,
pp. 71–89.
KOZINETS R. V. (2002). « The Field Behind the Screen: Using Netnography for Marketing Research in
Online Communities », Journal of Marketing Research, 39, February, pp. 61-72.
LANCELOT-MILTGEN C. (2011). « Vie privée et marketing. Étude de la décision de fournir des données
personnelles dans un cadre commercial », Réseaux, 167, pp. 131-166.
LAROCHE M., HABIBI M. R., & RICHARD M-O. (2013). To be or not to be on social media: How brand
loyalty is affected by social media?. International Journal of Information Management, 33, pp. 76-
82.
LE CAM F. (2010). « Histoires et filiations du terme ‘weblog’ (1992-2003). Perspectives pour penser
l’histoire de certaines pratiques sur le web », Les Enjeux de l’Informaton et de la Communication,
avril.
LELONG B., GAYOSO E. (2010). « Innovation avec l’usager et plateformes collaboratives. Des modes
d’engagement hétérogènes », Réseaux, 164, pp. 97-126.
LEVY P. (1994). L’intelligence collective. Pour une anthropologie du cyberespace, La Découverte.
MAC ALEXANDER J. H., SCHOUTEN J. W., KOENIG H. F. (2002). « Building brand community », Journal of
Marketing, vol. 66, n° 1, pp. 38-54.
MANARA C., et ROQUILLY C. (2011). Le risque d’érosion du capital-marque sur les médias sociaux :
efficacité et limites des instruments juridiques, Recherche et Applications Marketing, 26, 3, pp. 93-
115.
MATTELART, A. (1999). Histoire de l’utopie planétaire. De la cité prophétique à la société globale, La
découverte.
MÉSANGEAU J. (2014). « Articuler graphes et représentations d’utilisateurs d’un réseau
socionumérique », Sciences de la société, 91.
METIU A. (2008). « L’ethnographie virtuelle : reconstituer le contexte des interactions en ligne »,
Libellio d’AEGIS, vol. 4, n°1, pp. 39-43.
MELLET K. (2009). « Aux sources du marketing viral », Réseaux, vol. 27, n°157/158, pp. 267-292.
MOINET N., Deschamps C. (2011). La boite à outils de l’intelligence économique, Dunod.
MUNIZ A. M. J., HAMER L. O. (2001). « Us versus them: oppositional brand loyalty and the cola wars »,
Advances in Consumer Research, n° 28, pp. 355-361.
MUNIZ A. M. J., O’GUINN T. C. (2001). « Brand community », Journal of Consumer Research, vol. 27,
n° 4, pp. 412-432.
MUNIZ A.M. JR. et SCHAU H.J. (2005). Religiosity in the abandoned Apple Newton brand community,
Journal of Consumer Research, 31, 4, pp. 737–47.
O’REILLY, T. pp. (2005). « What is Web 2.0 ? », en ligne : http://www.oreillynet.com
PARMENTIER G., ROLLAND S. (2009). « Les consommateurs des mondes virtuels : construction identitaire
et expérience de consommation dans Second Life », Recherches et Applications en Marketing, vol.
24, n° 3, pp. 43-55.
PASQUIER D. (2014). « Évaluations profanes. Le jugement en ligne », Réseaux, 183.
PETERS K., CHEN Y., KAPLAN A. M., OGNIBENI B., PAUWELS K. (2013). Social Media Metrics — A
Framework and Guidelines for Managing Social Media, Journal of Interactive Marketing, Vol. 27,
Issue 4, Nov., pp. 281-298.
POYNTER, R. (2008). « Facebook: the Future of Networking with Customers », International Journal of
Market Research, 50 (1).
PROULX S., POISSANT L., SÉNÉCAL M. (2006). Communautés virtuelles : penser et agir en réseau, Laval,
Presses Université Laval.
RAÏES K., GAVARD-PERRET M-L. (2012). « Intention de fidélité à la marque des participants à une
communauté virtuelle de marque : le rôle dual de l’engagement », Recherche et Applications en
Marketing, 26, 3, pp. 23-44.
RAMPNOUX O., LA VILLE (DE) I. (2011). « À quoi tu joues sur Facebook », Hermès, CNRS Editions, n
° 59.
REBILLARD F. (2007). Le web 2.0 en perspective, L’Harmattan.
RHEINGOLD H. (1993). The Virtual Community: Homestanding on the Electronic Frontier, Addislon-
Wesley.
SCHAU, H. J., & GILLY, M. C. (2003). We Are What We Post? Self-Presentation in Personal Webspace.
Journal of Consumer Research, 30, pp. 385–404.
SCHAU H. J., MUÑIZ A. M., ARNOULD J. (2009). « How Brand Community Practices Create Value »,
Journal of Marketing, vol. 73, pp. 30–51.
SIMON H. (1971). « Designing Organizations for an Information-Rich World », In Greenberger Martin,
Computers, Communication, and the Public Interest, Baltimore, The Johns Hopkins Press.
SINGH S., SONNENBURG S. (2012). Brand Performances in Social Media, Journal of Interactive
Marketing, vol. 26, 4, pp. 189-197.
SPIGGLE S. (1994). Analysis and interpretation of qualitative data in consumer research, Journal of
Consumer Research, 21, 3, 491-503.
STENGER T. (2011). « La prescription ordinaire : dynamique de l’action collective sur réseaux
socionumériques », Hermès, CNRS Editions, n° 59.
STENGER T. (2014). « Social media and online reputation management as practice », International
Journal of Technology and Human Interaction, vol. 10.
STENGER T., COUTANT A. (2009). « La prescription ordinaire de la consommation sur les réseaux
socionumériques : De la sociabilité en ligne à la consommation ? », 14e Journées de Recherche en
Marketing de Bourgogne, Dijon, 12-12 novembre [en ligne].
STENGER T., COUTANT A. (2010). « Les réseaux sociaux numériques : des discours de promotion à la
définition d’un objet et d’une méthodologie de recherche », Hermes – Journal of Language and
Communication Studies, 44, february [en ligne]
STENGER T., COUTANT A. (coord.), (2011). « Les réseaux socionumériques », Hermès, CNRS Editions, n
° 59.
STENGER T., COUTANT A. (2011). « Community management : Cheval de Troie marketing pour le web
social ? », 79e congrès de l’ACFAS – Web social, communautés virtuelles et consommation, 11 mai,
Université de Sherbrooke.
STENGER T., COUTANT A. (2013). « Médias sociaux : clarification et cartographie – Pour une approche
sociotechnique », Décisions Marketing, 70, pp. 107-117.
STENGER T., COUTANT A. (2013). « Les sites de réseaux sociaux professionnels au service du marketing :
le cas Viadeo », Communication & Organisation, 43, pp. 283-289.
SUROWIECKI J. (2008). La Sagesse des foules, Jean-Claude Lattès.
TAPSCOTT D, WILLIAMS A. D. (2006). Wikinomics: How Mass Collaboration Changes Everything,
Portfolio: New York.
TCHUENTE D. et al. (2011). « Pour une approche interdisciplinaire des TIC : le cas des réseaux
socionumériques », Document Numérique, vol. 14, 1, pp. 31-57.
THOMPSON C. J. (1997). Interpreting consumers : a hermeneutical framework for deriving marketing
insights from the texts of consumers’ consumption stories, Journal of Marketing Research, 34,
November, pp. 438-455.
TÖNNIES F. (1922). Communauté et société. Catégories fondamentales de la sociologie pure, Presses
universitaires de France.
TRAINOR, K. J. (2012). Relating Social Media Technologies to performance: a capabilities-based
perspective, Journal of Personal Selling & Sales Management, 32(3), pp. 317–331.
TURKLE S. (1996). Les enfants de l’ordinateur, Denoël.
VERNETTE E., TISSIER-DESBORDES E. (2012). « Editorial : Le repérage marketing des influenceurs dans
les réseaux sociaux : des dangers de l’ignorance aux risques de l’à peu près… », Décisions
Marketing, 67, pp. 5-9.
VOLLE P. (2012). Stratégie clients : Points de vue d’experts sur le management de la relation client,
Pearson.
VON HIPPEL E. (2001). « Innovations by users communities : learning from open-source softwares »,
Sloan Management Review, n° 42, pp. 82-86.
WOLF K., ARCHER C. (2012). « Shifting online: An exploratory study into PR consultants’ attitude
towards new media », PLATFORM: Journal of Media and Communication, 4(1), 91103.
Chapitre 3
BARRETO. (2012). « Inclusão digital: uma análise de dados a partir de redes bayesianas», in: CGI.
Comité de Gestion de l’Internet (CGI) – « Survey on the Use of Information and Communication
Technologies – Households and Enterpreises 2012 ». http://www.cetic.br/publicacoes/2012/tic-
domicilios-2012.pdf
GUZZI. (2010). « Web e participação: a democracia no século XXI ». São Paulo: Senac.
HOFSTEDE, « International Studies of Management & Organization », Vol. 10, n° . 4, Organizations and
Societies (Winter, 1980/1981), pp. 15-41.
Holbrook, HIRSHMANN. (1982). « The experiential aspects of consumption: consumer fantasies, feeling
and fun », Journal of Consumer Research, vol. 9, n° 2, pp. 1-9.
Instituto de Pesquisa Econômica Aplicada. (2010). « Análise e recomendações para as políticas
públicas de massificação de acesso à internet em banda larga ». Comunicado Ipea no. 46. Brasília :
Ipea.
KITOVA O. V. (2013). « Evolution of Internet marketing and social media ». Marketing And Marketing
Research, n° 6, pp. 482-483.
KOTLYAROV I. D. (2011). « Models of consumer behavior ». Modern Economy: Problems and Solutions.
n° 4. pp. 71-82.
KRAYNOV A.L. (2013). « Influence of e-commerce on Russian economy ». Economy: Yesterday, Today
and tomorrow. n° 3-4, pp. 55-68.
NERI. (2011). « A Nova Classe Média: o lado brilhante da base da pirâmide ». São Paulo: Saraiva.
NERI. (2012). « Mapa da Inclusão Digital ». Rio de Janeiro : FGV.http://www.cps.fgv.br/cps/telefonica/
PINHO. (2011). « Sociedade da informação, capitalismo e sociedade civil: reflexões sobre política,
Internet e democracia na realidade brasileira ». IN: RAE, vol. 51, nº 1, jan./fev. pp. 22-38.
STRAUB, LOCH, EVARISTO, KARAHANNA, STRITE, (2002). « Toward a theory based measurement of culture »,
Journal of Global Information Management, 10 (1).
TYCHKOVA T. V. (2008). « Information Culture and Personality ». Saratov: New wind, 84 p.
TYCHKOVA T. V. (2010). « Particularity of information education humanities students. Russian Scientific
and Practical », Conference « Information technology in comprehensive education ». Saratov,
pp. 172-176.
ZEMSKOVA A. V. (2013). « Determinants of the shopping on the internet », Internet marketing, n° 5,
pp. 302-307.
Chapitre 4
BAGOZZI R. (1975). « Marketing as exchange », Journal of Marketing, vol. 39, pp. 32-39
BAUMOL, W. J, BOWEN W. G. (1966), Performing Arts: The Economic Dilemma, The Twentieth Century
Fund.
BERRY M. J. A. (2001) Data Mining Techniques: For Marketing, Sales, and Customer Relationship
Management, Wiley.
Davis, F. D., Bagozzi, R. P., Warshaw, P. R. (1989) « User Acceptance of Computer Technology: A
Comparison of Two Theoretical Models ». Management Science, 35, 1989, pp. 982-1003.
FUCHS, C., PRANDELLI E., SCHREIER M. (2010). « The Psychological Effects of Empowerment Strategies
on Consumers’ Product Demand. ». Journal of Marketing. 74, n° 1, pp. 65-79.
GIBSON, J. J. (1979). The Ecological Approach to Visual Perception. Houghton Mifflin.
GODIN, S. (1999). Permission Marketing: Turning Strangers into Friends, and Friends into
Customers. Simon & Schuster.
GRÖNROOS C. (1994). « From Marketing Mix to Relationship Marketing: Towards a Paradigm Shift in
Marketing », Management Decision, 32-2.
KAPLAN D. (2010) Informatique, libertés, identités, Fyp-Fing.
MORGAN, N., REGO, L. (2006). « The Value of Different Customer Satisfaction and Loyalty Metrics in
Predicting Business Performance ». Marketing Science, 25(5), pp. 426-439.
NEWMAN M., D. WATTS, A.-L. BARABÁSI (2006). The Structure and Dynamics of Networks, Princeton
University Press.
NORMAN, D. A. (1988). The Psychology of Everyday Things. Basic Books.
REICHHELD, Frederick F. (1996). The Loyalty Effect, Harvard Business School Press (Revised 2001).
REINARTZ, W., THOMAS, J., & KUMAR, V. (2005). « Balancing Acquisition and Retention Resources to
Maximize Customer Profitability ». Journal of Marketing, 69(1), pp. 63-79.
RICCI F., ROKACH L., SHAPIRA B., KANTOR P. B. (2010) Recommender Systems Handbook, Springer.
RUST, R. T., ZEITHAML V. A., LEMON K. N., (2000) Driving Customer Equity: How Customer Lifetime
Value is Reshaping Corporate Strategy, The Free Press
STROUD, N. J O M I N I (2010) « Polarization and Partisan Selective Exposure », Journal of
Communication, Sep, vol. 60, Issue 3, pp. 556-576.
SUROWIECKI, J. (2004). The Wisdom of Crowds: Why the Many Are Smarter Than the Few and How
Collective Wisdom Shapes Business, Economies, Societies and Nations Little, Brown.
TORKEL K. (2009). The overflowing brain: information overload and the limits of working memory,
Oxford University Press.
VARIAN A. et SHAPIRO (1998). « Information Rules A Strategic Guide to the Network Economy », Havard
Business Press.
WATTS D., PERETTI J. (2007). « Viral Marketing for the Real World », Harvard Business Review, May.
WATTS D., PERETTI J.(2007). « Viral Marketing for the Real World. », Harvard Business Review.
WU, JIMING et LEDERER, Albert (2009). « A meta-analysis of the rôle of Environnement-based
Voluntariness in Information Technology Acceptance », MIS Quaterly, vol. 33, N02 pp. 419-432.
Chapitre 5
ANDERSON, C. (2008). The End of Theory: The Data Deluge Makes the Scientific Method Obsolete.
Wired, 3.
Antéblian B., Filser M. et Roederer C. (2013). « L’expérience du consommateur dans le commerce de
détail. Une revue de littérature », Recherche et Applications Marketing, Numéro Spécial Shopping
Experience et E-shopping Experience, 28, 3, pp. 84-113.
ARIELY, D., LYNCH, J. G. Jr., and APARICIO, M. IV (2004) « Learning by Collaborative and Individual-
Based Recommendation Agents », Journal of Consumer Psychology, 14, 1&2, pp. 81-94.
BADOT O. et LEMOINE J-F. (2013), Editorial : du paradigme dichotomique de l’expérience d’achat au
paradigme ubiquitaire, Recherche et Applications en Marketing, 28, 3, pp. 3-13.
BART Y., VENKATESH S., FAREENA S., GLEN L. U. (2005). « Are the Drivers and Role of Online Trust the
Same for All Web Sites and Consumers? A Large-Scale Exploratory Empirical Study », Journal of
Marketing, Oct., 69, 4, pp. 133-152.
BELK R. W., LLAMAS R. (Ed.), The Routledge companion to digital consumption, Routledge.
BELVAUX B. (2006), « Du E-commerce au multi-canal. Les différentes implications d’internet dans le
processus d’achat du consommateur », Recherche Française du Marketing, 209, 4/5, Octobre,
pp. 49-68.
BERGER, J., SCHWARTZ, E. M. (2011). « What drives immediate and ongoing word of mouth? » Journal of
Marketing Research, 48(5), 869-880.
BERGER J., MILKMAN K. L. (2012). « What makes online content viral ? », Journal of Marketing
Research, 49 (2), pp. 192-205.
BERGER, J., IYENGAR R. (2013). « Communication Channels and Word of Mouth: How the Medium
Shapes the Message », Journal of Consumer Research, 40, 3, pp. 567-579.
BERTRANDIAS, L., VERNETTE, É. (2012). « Que valent les communications interpersonnelles ? Calibrage
interpersonnel des connaissances et sélection des sources de conseil », Recherche et Applications en
marketing, 27(1), pp. 33-57.
BRESSOLLES, G. (2006). « La qualité de service électronique : NetQual. Proposition d’une échelle de
mesure appliquée aux sites marchands et effets modérateurs », Recherche et Applications en
Marketing, 21 (3), pp. 19-45.
CHAKRAVARTY A., LIU Y., MAZUMDAR T. (2010). « The Differential Effects of Online Word-of-Mouth and
Critics’ Reviews on Pre-release Movie Evaluation », Journal of Interactive Marketing, 24, 3, 185.
CHEVALIER, J. A. et MAYZLIN D. (2006). « The Effect of Word of Mouth on Sales: Online Book
Reviews », Journal of Marketing Research, 43(3): 345-354.
DANAHER P. J., WILSON I. W. et DAVIS R. A. (2003). « A comparison of online and offline consumer
brand loyalty », Marketing Science, 22, 4, pp. 461-476.
DARKE P. R., BENEDICKTUS R. L., BRADY M.K. (2013). « Consumer (dis)trust online, in Belk R. W.,
Llamas R. (Ed.) », The Routledge companion to digital consumption, Routledge, pp. 404-414.
DEGERATU A. M., RANGASWAMY A., WUB J. (2000). « Consumer choice behavior in online and traditional
supermarkets: The effects of brand name, price, and other search attributes », International journal
of Research in Marketing, 17, pp. 55-78.
DELLAROCAS C. (2003). « The digitization of word of mouth : promise and challenges of online feedback
mechanisms », Management Science, vol. 49, october, pp. 1407-1424.
DELLAROCAS Chrysantos et RITU Narayan (2006). « Statistical measure of a population’s propensity to
engage in post-purchase online word-of-mouth », Statistical Science, vol. 21, february, pp. 277-285.
DHAR V., CHANG E. A. (2009). « Does Chatter Matter? The Impact of User-Generated Content on Music
Sales », Journal of Interactive Marketing, nov., vol. 23, 4, 300.
DIEHL, K., KORNISH, L. J., and LYNCH, J. G. Jr. (2003). « Smart Agents: When Lower Search Costs for
Quality Information Increase Price Sensitivity », Journal of Consumer Research, 30, 1, pp. 56-71.
FLAVIAN C., GUINALIU M. et GURREA R. (2005). « The role played by perceived usability, satisfaction and
consumer trust on website loyalty », Information & Management, 43, pp. 1-14.
GALLEN C. et CASES A-S. (2007). « Le rôle du risque perçu et de l’expérience dans l’achat de vin en
ligne », Décisions Marketing, 45, janvier-mars, pp. 56-74.
GARNIER, M. et PONCIN I. (2013). « L’avatar en marketing : synthèse, cadre intégrateur et perspectives »,
Recherche et Applications en Marketing, 28 (1), pp. 92-123.
GODES D. et MAYZLIN D. (2004). « Using online conversations to study word-of-mouth communication »,
Marketing Science, vol. 23, April, pp. 545-560.
GOLDBERG, D. E., NICHOLS, D., OKI, B. M., & TERRY, D. (1992). Using collaborative filtering to weave
an information tapestry. Communications of the ACM, 35(12), pp. 61-70.
GOLDSMITH R. E. et HOROWITZ D. (2006). « Measuring Motivations for Online Opinion Seeking. »,
Journal of Interactive Advertising, 6, 2, pp. 1-16.
GUPTA A., SU B-C. et WALTER Z. (2004). « An empirical study of consumer switching from traditional to
electronic channels: A purchase-decision process perspective », International Journal of Electronic
Commerce, 8, 3, pp. 131-161.
HÄUBL, G., et MURRAY, K. B. (2006). « Double agents: Assessing the role of electronic product
recommendation systems ». MIT Sloan Management Review, 47 (3), pp. 8-12.
HÄUBL, G., & MURRAY, K. B. (2003). « Preference construction and persistence in digital marketplaces:
The role of electronic recommendation agents ». Journal of Consumer Psychology, 13 (1), pp. 75-
91.
HÄUBL, G., et TRIFTS, V. (2000). « Consumer Decision Making in Online Shopping Environments: The
Effects of Interactive Decision Aids, » Marketing Science, 19, 1, pp. 4-21.
HATCHUEL A. (2010). « Activité marchande et Prescription : A quoi sert la notion de marché ? », in
Hatchuel et al., L’activité marchande sans le marché ? Colloque de Cerisy, pp. 159-179.
HATCHUEL A. (1995). « Les marchés à prescripteurs », in Verin H. et Jacob A., L’inscription sociale du
marché, L’Harmattan, pp. 205-225.
HEITZ-SPAHN S. et FILSER M. (2014). « La place de l’enseigne dans les trajectoires d’achat des clients en
contexte multi-canaux », Décisions Marketing, 74, avril-mai, pp. 21-36.
HENNIG-THURAU T., GWINNER K. P., WALSH G., GREMLER D. G. (2004). « Electronic word-of-mouth via
consumer-opinion platforms: What motivates consumers to articulate themselves on the Internet? »,
Journal of Interactive Marketing; Winter; 18, 1; pp 38-53.
HERLOCKER, J. L., KONSTAN, J. A., TERVEEN, L. G., & RIEDL, J. T. (2004). « Evaluating Collaborative
Filtering Recommender Systems ». ACM Transactions on Information Systems, 22(1), pp. 5-53.
HOFFMAN D. L., NOVAK T. P. (1996). « Marketing in Hypermedia Computer-Mediated Environments:
conceptual foundations », Journal of Marketing, July, pp. 50-68.
HOFFMAN D. L., NOVAK T. P. (2009). « Flow online: Lessons learned and future prospects », Journal of
Interactive Marketing, 23, 1, February, pp. 23-34.
HOLZWARTH, M., JANISZEWSKI, C., NEUMANN, M. M. (2006). « The influence of avatars on online
consumer shopping behavior », Journal of Marketing, 70 (4), pp. 19–36.
ISAAC H. et VOLLE P. (2014), E-commerce – De la stratégie à la mise en œuvre opérationnelle,
Pearson, 3e éd.
JANNACH, D., ZANKER, M., FELFERNIG, A., & FRIEDRICH, G. (2010). Recommender Systems: An
Introduction. Cambridge University Press.
KOZINETS R. V., DE VALCK K., WOJNICKI A. C. et Wilner Sarah J. S. (2010). « Networked Narratives:
Understanding Word-of-Mouth Marketing in Online Communities », Journal of Marketing, 74,
March, pp. 71-89.
LAZARSFELD P, BERELSON B., GAUDET H. (1944). The People’s Choice. How the Voter Makes up his
Mind in a Presidential Campaign, New York, Columbia University Press.
LEMOINE J-F., NOTEBAERT J-F. (2011). « Agent virtuel et confiance des internautes vis-à-vis d’un site
web », Décisions Marketing, 61, pp. 47-53.
LINDEN, G. D., SMITH, B., & YORK, J. (2003). Amazon.com Recommendations: Item-to-Item
Collaborative Filtering. IEEE Internet Computing, 7(1), pp. 76-80.
LOVETT, M., PERES, R., SHACHAR, R. (2013). On brands and word-of-mouth. Journal of Marketing
Research, 1(47), pp. 17-29.
LYNCH J. G., ARIELY D. (2000). « Wine online: search costs and competition on price, quality, and
distribution », Marketing Science, 19, 1.
MATHWICK C. et RIGDON E. (2004). « Play, Flow and the Oline Search Experience », Journal of
Consumer Research, 31, 2, pp. 324-332.
MICHAUD-TRÉVINAL A., STENGER T., (2014a). « Toward a Conceptualization of the Online Shopping
Experience », Journal of Retailing and Consumer Services, 21, 3, pp. 314-326.
MICHAUD-TRÉVINAL A., STENGER T., (2014b). « L’expérience de shopping en ligne chez les jeunes de 18-
20 ans. », in Stenger T., Digital natives et consommation, EMS.
MURRAY, H. (2009). « Personalization without interrogation: Towards more effective interactions
between consumers and feature-based recommendation agents », Journal of Interactive Marketing,
23 (2), pp. 138-146.
PAPADOPOULOU P., PANAGIOTIS K., DRAKOULIS M. (2003). « Designing Electronic Commerce Environments
on Trust-Building Principles », Systèmes d’Information et Management, vol. 8, n° 3.
RATCHFORD B. T., MYUNG-SOO L., DEBABRATA T. (2003), « The Impact of the Internet on Information
Search for Automobiles », Journal of Marketing Research, 40 (May), pp. 193-209.
RESNICK, P., & VARIAN, H. R. (1997). Recommender Systems. Communications of the ACM, 40(3), pp.
56-58.
RICCI, F., ROCKACH, L., & SHAPIRA, B. (EDs.). (2011). Recommender Systems Handbook: Springer.
ROEDERER C. (2012). « Contribution à l’expérience de consommation : émergence des dimensions de
l’expérience au travers des récits de vie » Recherche et Applications Marketing, 27, 3, pp. 81-95.
SEN S. et LERMAN D. (2007). « Why are you telling me this? An examination into negative consumer
reviews on the Web », Journal of Interactive Marketing, 21, 4, p. 76.
SENECAL, S., and NANTEL, J. (2004). « The Influence of Online Product Recommendations on Consumers’
Online Choices », Journal of Retailing, 80, pp. 159-169.
SHANKAR V., SMITH A. K., RANGASWAMY A. (2003). « Customer satisfaction and loyalty in online and
offline environments », International Journal of Research in Marketing, 20, pp. 153-175.
SMITH D., SATYA M. and SIVAKUMAR K. (2005). « Online Peer and Editorial Recommendations, Trust, and
Choice in Virtual Markets » Journal of Interactive Marketing, 19 (3), pp. 15–37.
STENGER T. (2007). « Prescription et interactivité dans l’achat en ligne », Revue Française de Gestion,
n°172, avril, pp. 131-144.
STENGER T. (2006). « La prescription dans le commerce en ligne : proposition d’un cadre conceptuel
issu de la vente de vin par Internet », Revue Française du Marketing, n° 209, octobre, pp. 71-85.
STENGER T. (2006). « Origines et évolutions de l’interactivité dans la littérature Marketing : de
l’information à l’aide à la décision », XXIIe Congrès de l’Association française de Marketing, 11-12
mai, Nantes.
STEYER A., GARCIA-BARDIDIA R. et QUESTER P. (2007). « Modélisation de la structure sociale des groupes
de discussion sur Internet : implications pour le contrôle du marketing viral », Recherche et
Applications en Marketing, 22, 3, pp. 29-44.
TUFFÉRY, S. (2012). Data Mining et statistique décisionnelle. L’intelligence des données, 4e éd.,
Technip.
VERNETTE E., FLORES L. (2004). « Communiquer avec les leaders d’opinion en marketing. Comment et
avec quels médias ? », Décisions Marketing, 35, pp. 23-37.
VOLLE P. (2000). « Du marketing des points de vente à celui des sites marchands : spécificités,
opportunités et questions de recherche », Revue Française du Marketing, 177/178, pp. 83-100.
WAN Y, FASLI M. (coord.), (2010). « Special Issue: Comparison-shopping and related recommender
intelligent agents », Journal of Electronic Commerce Research, vol. 11, n° 3.
WATTS D., DODDS P. S. (2007). Influentials, Networks, and Public Opinion Formation, Journal
Consumer Research, 34, pp. 441-458.
WEISS, S. M., INDURKHYA, N., ZHANG, T., & DAMERAU, F. J. (2005). Text Mining: Predictive Methods for
Analyzing Unstructured Information, 2e éd. Springer.
XIAO, B., & BENBASAT, I. (2007). « E-commerce product recommendation agents: use, characteristics,
and impact ». MIS Quarterly, 31(1), pp. 137-209.
Chapitre 6
BOURLIATAUX-LAJOINIE S. (2000). « Marketing et Internet : le cas de l’e-publicité », Revue Française de
Gestion, 2000.
FULGONI, GIAN (2013). « Big Data: Friend or Foe of Digital Advertising? Five Ways Marketers Should
Use Digital Big Data to Their Advantage. », Journal of Advertising Research. Dec 2013, vol. 53
Issue 4, pp. 372-376.
HALL B. F. (2004). « On Measuring The Power of Communications », Journal of Advertising Research,
vol. 44 Issue 2, pp. 181-187.
HARRISON D. (2010). « Overlays Can Get Users’ Attention More Subtly Than Intrusive Pop-Ups », New
Media Age, March 2010, p. 13.
HUSSHERR F.X. et ROSANVALLON J. (2001). Tirer profit d’Internet, le 6e média et plus encore, Dunod.
HUSSHERR F.X., BALAGUE C. et ROSANVALLON J. (2007)., Dix ans d’aventure Internet, une révolution à
venir, Jacob-Duvernet.
JACKSON T.W. (2007). « Personalisation and CRM » Journal of Database Marketing & Customer
Strategy Management, Oct. 2007, Vol. 15 Issue 1, pp. 24-36.
JEONG Y. et KING C. M. (2010). « Impacts of Website Context Relevance on Banner Advertisement
Effectiveness », Journal of Promotion Management, 2010, vol. 16 Issue 3, pp. 247-264.
LOHTIA R., DONTHU N. et YAVEROGLU I. (2007). « Evaluating The Efficiency of Internet Banner
Advertisements », Journal of Business Research, Apr. 2007, vol. 60 Issue 4, pp. 365-370.
MCCOYS., EVERARD A., POLAK P. et GALLETA D.F. (2007). « The Effects of Online Advertising »,
Communications of the ACM, Mar. 2007, vol. 50 Issue 3, pp. 84-88.
MÖLLER J. et EISEND M. (2010). « Cultural and Individual Antecedents of Banner Advertising
Effectiveness », Journal of International Marketing, 2010, vol. 18, N° 2, pp. 80-98.
PERUGINI S. (2010). « Personalization by Website Transformation : Theory and Practice », Information
Processing & Management, May 2010, vol. 46 Issue 3, pp. 284-294.
TAYLOR F. et HAE-KYONG B. (2006). « Use and Effectiveness of Billboards », Journal of Advertising,
2006, vol. 35 Issue 4, pp. 21-34.
TERLUTTER, R., CAPELLA, ML. (2013). « The Gamification of Advertising: Analysis and Research
Directions of In-Game Advertising, Advergames, and Advertising in Social Network Games. »,
Journal of Advertising. 2013, vol. 42, Issue 2/3, pp. 95-112. 18p
TIANYI J. et TUZHILIN A. (2009). « Improving Personalization Solutions through Optimal Segmentation of
Customer Bases », IEEE Transactions on Knowledge & Data Engineering, Mar. 2009, vol. 21 Issue 3,
pp. 305-320.
ZACKARIASSON P., WÅHLIN N. et WILSON L. (2010). « Virtual Identities and Market Segmentation in
Marketing in and Through Massively Multiplayer Online Games (MMOGs) », Services Marketing
Quarterly, vol. 31, Issue 3, pp. 275-295.
Chapitre 7
BOLTANSKI L., THÉVENOT L. (1991). De la justification. Les économies de la grandeur, Gallimard.
BOURLIATAUX-LAJOINIE S., STENGER T. (2011), « Nommer et référencer un site Web marchand », in T.
Stenger et S. Bourliataux-Lajoinie (dir.), E-marketing et e-commerce : concepts, outils, pratiques,
Dunod, 2011, pp. 187-214.
CARDON D. (2013) « Dans l’esprit du PageRank. Une enquête sur l’algorithme de Google », Réseaux, n°
177, pp. 63-95.
DESBIEY O. (2011). « La veille technologique à l’ère des médias sociaux : content de ce que génèrent
les utilisateurs : le cas Twitter », Hermès, n° 59, pp. 147-149.
DOMENGET J-C., MICHEL J-L. (2014). « Le métier de référenceur est-il pérenne et légitime en
communication ? », in V. Lépine et M. D. David, Entre réflexif et prescriptif : analyse des dispositifs
d’apprentissage et de formation des communicateurs, Les Cahiers du Resiproc, n° 2.
FARCHY J., MEADEL, C., « Moteurs de recherche et référencement : chassez le naturel », Hermès, n° 66,
2013, pp. 147-154.
HAON C., PATEL, C. (2011). « Création de trafic, expérience de navigation et performance commerciale :
que nous apprennent les 500 plus importants sites marchands américains », Systèmes d’information
et management, vol. 16, n° 4, pp. 9-36.
IHADJADENE M., CHAUDIRON S. (2008). « Quelles analyses de l’usage des moteurs de recherche »,
Questions de communication, 14, pp. 17-32.
ISCKIA T. (1999). « Les techniques de référencement et de promotion d’un site Web », Systèmes
d’information et management, vol. 4, n° 3, pp. 53-70.
SIMONNOT B. (dir.) (2008). « Moteurs de recherche : usages et enjeux », Questions de communication,
14.
SIMONNOT B., GALLEZOT G. (dir.) (2009). L’entonnoir: Google sous la loupe des sciences de
l’information et de la communication. C&F Éditions.
Chapitre 8
BALTAS, G. (2003). « Determinants of Internet Advertising Effectiveness: An Empirical Study »,
International Journal of Market Research, 45 (4), pp. 505-513.
BHAT, S., BEVANS M., et SENGUPTA S. (2002). « Measuring Users’ Web Activity to Evaluate and Enhance
Advertising Effectiveness », Journal of Advertising, 31 (3), pp. 97-106.
BELVAUX B. et FLORÈS L. (2010). « L’utilisation des « proxies » du web pour la prédiction des marchés.
Une application au marché cinématographique. » Décisions Marketing, 57, pp. 9-18.
BERNARD Y. (2004). « La netnographie : une nouvelle méthode d’enquête qualitative basée sur les
communautés virtuelles de consommation. » Décisions Marketing, 36, pp. 49-62.
BÔ D (2009). Le Book des études Online 2009, livre blanc QualiQuanti.
BOUCHER A. (2009). Ergonomie Web : pour des sites web efficaces, Eyrolles.
BRESSOUD E., CARRICANO M. (2009). « Le bruit et le buzz: quelle pertinence pour l’analyse de données
secondaires de l’internet ? », Actes du Congrès de l’Association Française du Marketing, Londres,
14-15 mai 2009.
BUGHIN J., LIVINGSTON J. et MARWAHA S. (2011). Seizing the potential of ‘big data’, McKinsey Quarterly,
October.
DAHAN E., SRINIVASAN (2000). « The predictive power of Internet-based product concept testing using
visual depiction and animation », Journal of Product Innovation Management, 20, 17, pp. 99-109.
DAHAN E., HAUSER J. R. (2001). « The Virtual Customer », Journal of Product Innovation Management,
19, 5, (September), 332-354 Day G. (1994), « The capabilities of market driven organizations »,
Journal of Marketing, 58, 4 (October), pp. 37-52.
DAVENPORT T. (2013). « How P&G Presents Data to Decision-Makers », HBR Blog.
DAVENPORT T. et PATIL D. J. (2014). « Data Scientist: The Sexiest Job of the 21st Century », Harvard
Business Review, October, pp. 70-76.
DEUTSKENS E., DE RUYTER K., WETZELS M. et OOSTERWELD P. (2003). « Response rate and response
quality of Internet-based surveys: an experimental study », Marketing Letters, 15, 1, pp. 21-36.
DHOLAKIA, U., MORWITZ V. (2002). « The scope and persistence of mere-measurement effects: evidence
from a field-study of customer satisfaction measurement », Journal of Consumer Research, 29 Sept,
pp. 159-167.
DION D. (2007). « Les apports de l’anthropologie visuelle à l’étude des comportements de
consommation », Recherche et Applications Marketing, 22, 1, pp. 61-78.
DRÈZE, X. et HUSSHERR F.-X. (2003). « Internet advertising: Is anybody watching? », Journal of
Interactive Marketing, 17, 4, pp. 8-23.
ESOMAR. (2012), Guidelines for Conducting Mobile Research, Esomar World Research Codes and
Guidelines, October.
FLORÈS, L. (2003). « Technology can help us improve our value proposition », Esomar News Brief, Feb.
FLORÈS L. (2005A). « Générer des nouvelles idées grâce à Internet : un exemple d’application pour le
repositionnement d’un produit », Revue Française du Marketing, Septembre. 4/5(204), pp. 57-69.
FLORÈS L., VOLLE P. (2005B), « Potentiel relationnel et Impact du site de marque sur la performance
marketing, Décisions Marketing, 40, Oct-Déc, pp. 39-50.
FLORÈS L. (2008a). « Web 2.0 : des études de marché ayant du répondant ! » Décisions Marketing, 50,
pp. 79-82.
FLORÈS L. (2008B). « Web 2.0 et études de marché : vers une nouvelle génération d’études de
marché ? » Revue Française de Marketing, 220, 5/5, pp. 7-16.
FULLER, J., JAWECKI, G., MUHLBACHER, H. (2007), « Développement de produits et services en
coopération avec des communautés en ligne », Décisions Marketing, 48, Octobre-Décembre, pp. 47-
58.
GALAN J. P., VERNETTE E. (2000). « Vers une 4e génération : les études de marché on-line », Décisions
Marketing, pp. 19-52.
GAUZENTE C. (2010). « The Intention to Click on Sponsored Ads – A Study of the Role of Prior
Knowledge and of Consumer Profile », Journal of Retailing and Consumer Services, 17-6, pp. 457-
63.
GOLDBERG, D. E. (2002), The Design of Innovation: Lessons from and for Competent Genetic
Algorithms, MA: Kluwer Academic Publishers.
GROVER V., TENG J., SEGARS A. H., FIEDLER K., (1998). The influence of information technology diffusion
and business process change on perceived productivity: the IS executive’s perspective, Information
and Management, 34, 3, pp. 141-159.
HOLLIS N. (2005). Ten years of learning of how online advertising builds brands, Journal of
Advertising Research, June, pp. 255-268.
KAPLAN A. M., HAENLEIN M., (2010). Users of the world, unite! The challenges and opportunities of
social media, Business Horizons, 53, Issue 1, pp. 59-68.
KOZINETZ R.V. (2002). The Field behind the screen: using netnography for marketing research in online
communities, Journal of Marketing Research, 39, February, pp. 61-72.
MANFREDA K.L., BOSNJAK M., BERZELAK J., HAAS I. et VEHOVAR V. (2008). Web surveys versus other
survey modes: A meta-analysis comparing response rates, International Journal of Market
Research, 2008, 50 Issue 1, pp. 79-104.
MCAFEE A., et BRYNJOLFSSON E. (2012). Big Data: the management revolution, Harvard Business
Review, October.
PAVLOU, P. A. et STEWART D. W. (2000). « Measuring the Effects and Effectiveness of Interactive
Advertising: A Research Agenda », Journal of Interactive Advertising, 1 (1), 1-22.
PENTLAND A. S. (2103). « The Data Driven Society », Scientific American, 79, October, pp. 78-83.
SCHILLEWAERT N., DE RUYCK T. et VERHAEGHE A. (2009). ‘Connected research’. How market research can
get the most out semantic web waves, International Journal of Market Research, 51, 1, pp. 11-27.
TOUBIA O., HAUSER J. R., DUNCAN I. SIMESTER (2004). Polyhedral Methods for Adaptive Choice-Based
Conjoint Analysis, Journal of Marketing Research, 41, 1, pp. 116-131.
TOUBIA O. et FLORÈS L. (2007). Adaptive Idea Screening with consumers, Marketing Science, 26, 3,
pp. 1–19.
WARREN J. et MALO N. (2010). Web analytics, Mesurer le succès et maximiser les profits de votre site
web, Eyrolles.
WEE T. T. T. (2001). The use of marketing research and intelligence in strategic planning : key issues
and future trends, Marketing Intelligence & Plannning, 19, 4, pp. 245-253.
WITTES SCHLACK J., et JENNINGS M. (2007). « From Research to Relationship: Using Communities to
Gain Entree Into Customer Conversations », Communispace White Paper, Boston.
Chapitre 9
ACQUISTI A., ADJERID I., & BRANDIMARTE, L. (2013). Gone in 15 Seconds: The Limits of Privacy
Transparency and Control. IEEE Security & Privacy, pp. 73-74.
ANDERSON C., & WOLFF M. (2010). The Web Is Dead. Long Live the Internet. Wired, 1-11.
ANDERSON J., & RAINIE L. (2014). Digital Life in 2025 (pp. 61). Washington, DC: Pew Internet &
American Life.
BARNES S. J. (2003). Location-Based Services. e-Service Journal, 2(3), 59-70.
BELK M., PAPATHEOCHAROUS E., GERMANAKOS P., & SAMARAS G. (2013). « Modeling users on the World
Wide Web based on cognitive factors, navigation behavior and clustering techniques », Journal of
Systems and Software, 86(12), pp. 2995-3012.
CENTER FOR MEDIA JUSTICE. (2013). « Consumers, Big Data, and Online Tracking in the Retail Industry:
A Case Study of Walmart » (pp. 30). Oakland, CA: Center for Media Justice.
DE MONTJOYE Y.-A., HIDALGO, C. A., VERLEYSEN, M., & BLONDEL, V. D. (2013). « Unique in the Crowd:
The privacy bounds of human mobility ». Scientific Reports, 3, 1-5. doi:10.1038/srep01376
DO T. M. T., & GATICA-PEREZ, D. (2014). « Where and what: Using smartphones to predict next
locations and applications in daily life ». Pervasive and Mobile Computing, 12(0), pp. 79-91.
DOBSON J. E., & FISHER P. F. (2003). Geoslavery. IEEE Technology & Society Magazine, 22(1), 47.
DONGSONG Z., ADIPAT B., & MOWAFI Y. (2009). « User-Centered Context-Aware Mobile Applications –
The Next Generation of Personal Mobile Computing », Communications of the Association for
Information Systems, 24, pp. 27-46.
FOX S., & RAINIE L. (2014). The Web at 25 in the U.S. Pew Internet & American Life.
FTC. (2013). Marketing Your Mobile App: Get It Right From the Start, Federal Trade Commission,
pp. 1-8.
FTC Staff Report. (2009). « Self-Regulatory Principles For Online Behavioral Advertising: Tracking,
Targeting, & Technology », Federal Trade Commission pp. 1-55.
FU, H., YANG, Y., SHINGTE, N., LINDQVIST, J., & GRUTESER, M. (2014). A Field Study of Run-Time
Location Access Disclosures on Android Smartphones. Paper presented at the USEC’14, Workshop
on Usable Security, San Diego, CA. http://www.usecap.org/usec14.html
G9+, & RENAISSANCE NUMÉRIQUE. (2013). « Les nouveaux eldorados de l’economie connectée » (pp. 54).
Paris: Institut G9+.
GAO T., ROHM A. J., SULTAN F., & PAGANI M. (2013). « Consumers un-tethered: A three-market empirical
study of consumers’ mobile marketing acceptance. », Journal of Business Research, 66(12),
pp. 2536-2544.
GOLDFARB A., & TUCKER, C. E. (2011). « Economic and Business Dimensions Online Advertising,
Behavioral Targeting, and Privacy. », Communications of the ACM, 54(5), 25-27.
GREENWALD G. (2014). No Place to Hide: Edward Snowden, the NSA, and the U.S. Surveillance State.
NY: Metropolitan Books.
GSMA Intelligence, & Boston Consulting Group. (2013). Mobile Economy Europe 2013, GSMA, p.
136.
HANSEN M., BERLICH P., CAMENISCH, J., CLAUß, S., PFITZMANN, A., & WAIDNER, M. (2004). « Privacy-
enhancing identity management. », Information Security Technical Report, 9(1), pp. 35-44.
HENTTU H., IZARETL J.-M., & POTERE D. (2012). « Geospatial Services: A $1.6 Trillion Growth Engine
for the U.S. Economy » MA: Boston Consulting Group.
HOSBOND J. H., & SKOV, M. B. (2007). « Micro mobility marketing: Two cases on location-based
supermarket shopping trolleys. », Journal of Targeting, Measurement & Analysis for Marketing,
16(1), 68-77.
IMPERVA (2011). Web Application Attack Report, Redwood Shores.
JAI T.-M., BURNS L. D., & KING N. J. (2013). « The effect of behavioral tracking practices on
consumers’ shopping evaluations and repurchase intention toward trusted online retailers. »,
Computers in Human Behavior, 29(3), pp. 901-909.
KEITH M. J., THOMPSON, S. C., HALE, J., LOWRY, P. B., & GREER, C. (2013). « Information disclosure on
mobile devices: Re-examining privacy calculus with actual user behavior. » International Journal of
Human-Computer Studies, 71(12), pp. 1163-1173.
KUEHN A. (2013). « Cookies versus clams: clashing tracking technologies and online privacy. », Info,
15(6), pp. 19-31.
LAURILA J. K., GATICA-PEREZ D., AAD, I., BLOM J., BORNET O., DO T. M. T., MIETTINEN M. (2012). « The
Mobile Data Challenge: Big Data for Mobile Computing Research ». Lausanne: Nokia Reseach
Center.
LORENZI D., VAIDYA J., CHUN S., SHAFIQ B., & ATLURI, V. (2014). « Enhancing the government service
experience through QR codes on mobile platforms. », Government Information Quarterly, 31(1), 6-
16.
MALANDRINO D., & SCARANO V. (2013). « Privacy leakage on the Web: Diffusion and countermeasures. »,
Computer Networks, 57(14), 2833-2855.
MARTIN E., VINYALS O., & FRIEDLAND G. (2010). Precise Indoor Localization Using Smart Phones.
Paper presented at the MM’10, Firenze.
MATTHEW J., SARKER, S., & VARSHNEY, U. (2004). « M-Commerce Services: Promises and Challenges. »,
Communications of the AIS, 2004(14), pp. 1-11.
MICHAEL K., & CLARKE, R. (2013). « Location and tracking of mobile devices: Überveillance stalks the
streets. », Computer Law & Security Review, 29(3), » pp. 216-228.
MIKIANS, J., GYARMATI, L., ERRAMILLI, V., & LAOUTARIS, N. (2012, october 29–30, 2012). Detecting price
and search discrimination on the Internet. Paper presented at the Hotnets, 12, Seattle, WA.
MOBASHER B., COOLEY, R., & SRIVASTAVA, J. (2000). « Automatic Personalization Based on Web Usage
Mining. », Communications of the ACM, 43(8), pp. 142-151.
PEPPERS, D., & ROGERS, M. (1993). The One to One Future – Building Relationships One Customer at
a Time: Doubleday.
PERERA C., ZASLAVSKY, A., CHRISTEN, P., & GEORGAKOPOULOS, D. (2014). « Context Aware Computing for
The Internet of Things: A Survey. », Communications Surveys & Tutorials, IEEE, 16(1), pp. 414-
454.
PFEIFFER E. W., & JOHNSTONE, B. (2003). WhereWare. Technology Review, 106(7), pp. 46-52.
RAINIE L., KIESLER, S., RUOGU, K., & MADDEN, M. (2013). « Anonymity, Privacy, and Security Online. »,
Washington, Pew Internet & American Life.
ROCHELANDET F. (2010). Économie des données personnelles et de la vie privée. La Découverte.
ROCKHOLD J. (2001). « The Business of Where », Wireless Review, 18(18), 14.
SCHILIT B., ADAMS, N., & WANT, R. (1994). Context-Aware Computing Applications. Paper presented at
the Proceedings of the 1994 First Workshop on Mobile Computing Systems and Applications.
SCHILLER J., & VOISARD, A. (Eds.). (2004). Location-Based Services: Morgan Kaufmann.
SCHMIDT A., BEIGL, M., & GELLERSEN, H.-W. (1998). « There is more to Context than Location »,
Computers & Graphics, 23, pp. 893-901.
SUCH J. M., GARCIA-FORNES A., & BOTTI, V. (2013). « Automated buyer profiling control based on human
privacy attitudes. », Electronic Commerce Research and Applications, 12(6), pp. 386-396.
TALASILA, M., CURTMOLA, R., & BORCEA, C. (2014). « Collaborative Bluetooth-based location
authentication on smart phones. », Pervasive and Mobile Computing(0).
TOUBIANA V., & NISSENBAUM, H. (2011). Analysis of Google Logs Retention Policies. Journal of Privacy
and Confidentiality, 3(1), pp. 3-26.
VALENTINO-DEVRIES J., SINGER-WINE J., & SOLTANI, A. (2012). « Websites Vary Prices, Deals Based on
Users’ Information. », The Wall Street Journal, 7.
ZHAO, L., LU, Y., & GUPTA, S. (2012). « Disclosure Intention of Location-Related Information in
Location-Based Social Network Services. », International Journal of Electronic Commerce, 16(4),
pp. 53-90.
Webographie
Institutions et associations
Association française pour le nommage Internet en coopération (AFNIC) : www.afnic.fr
Association de l’économie numérique (ACSEL) : www.acsel.asso.fr
Commission nationale de l’informatique et des libertés (CNIL) : www.cnil.fr
Fédération du e-commerce et de la vente à distance (FEVA) : www.fevad.com
Fondation Internet Nouvelle Génération (FING) : www.fing.org
Internet Engineering Task Force (IETF): www.ietf.org
Internet Corporation for Assigned Names and Numbers (ICANN): www.icann.org
Internet Governance Forum (IGF): http://www.intgovforum.org/cms/
International Telecommunication Union (ITU) : http://www.itu.int
Internet Society : www.isoc.org
Secrétariat d’Etat chargé de la Prospective et du Développement de l’Economie Numérique :
http://www.prospective-numerique.gouv.fr/
World Wilde Web Consortium (W3C): www.W3.org
Statistiques et presse spécialisée
ComScore : www.comscore.com et http://www.comscore.com/fre pour une version partielle en
français
InternetActu : www.internetactu.net
InternetWorldStats : http://www.internetworldstats.com
Journal du Net : http://www.journaldunet.com/chiffres-cles.shtml
Médiamétrie : http://www.mediametrie.fr et en particulier http://www.mediametrie.fr/internet avec
Mediamétrie eStat, l’Observatoire des usages Internet et le panel Médiamétrie/Netratings
Nielsen : site français http://fr.nielsen.com/site/index.shtml ; voir en particulier Nielsen NetRatings
TNS Sofres : http://www.tns-sofres.com et en particulier http://www.tns-sofres.com/expertises-
sectorielles/e-business/
Union Internationale des Télécommunications : http://www.itu.int/en/ITU-
D/Statistics/Pages/stat/default.aspx
MANAGEMENT SUP
MARKETING-COMMUNICATION
10 Cas de Marketing, 2013
C. GARCIA, J.-L. MARTINEZ
Comportements du consommateur, 3e éd., 2012
D. DARPY, C. PINSON
e-publicité, 2011
J.-M. DECAUDIN, J. DIGOUT
e-marketing & e-commerce, 2011
OUVRAGE COLLECTIF
Le marketing de l’innovation, 2e éd., 2011
E. LE NAGARD-ASSAYAG, D. MANCEAU, C. PINSON
Le Marketing participatif 2.0, 2011
R. DIVARD
Le Marketing 3.0, 2011
S. MAYOL
Market, 4e éd., 2009
B. PRAS, E. ROUX, Y. EVRARD
Market-Driven Management, 2012
J.-J. LAMBIN, I. SCHUILING
Marketing, 6e, 2010
D. LINDON, F. JALLAT
Marketings contextuels, 2008
M. HLADY RISPAL
Marketing des services, 2014
P. GABRIEL, R. DIVARD, M. LE GALL-ELY, I. PRIM ALLAZ
Marketing direct, 3e éd., 2005
D. DESMET
Marketing Research, 2006
A. JOLIBERT, P. JOURDAN
Marketing stratégique et opérationnel, 9e édition, 2014
J.-J. LAMBIN, C. DE MOERLOOSE
Marketing : 10 Cases Studies, 2013
C. GARCIA, J.-L. MARTINEZ
Index
A
access panels généralistes [1]
Access Panels Online [1]
advergames [1]
affiliation [1]
B
BAIDU [1]
bannière vidéo [1]
bannières [1]
bêta de Morgernztein [1]
big data [1]
billboard [1]
bouclier d’or [1], [2]
Brésil [1], [2]
BRIC [1]
C
call-back [1]
capping [1]
Chine [1], [2]
CMS [1]
codes QR [1]
CPC [1]
CPM [1]
D
device [1]
display [1]
duplicate content [1]
E
étude qualitative online [1]
étude quantitative online [1]
expend banner [1]
eye-tracking [1]
F
feature phone [1]
fichier XML [1]
fichiers CSS [1]
flash transparent [1]
G
géolocalisation [1]
Google Adwords [1]
GRP [1]
H
hors display [1]
HTML5 [1]
Huawei [1]
I
Inde [1], [2]
indicateurs de trafic sur le site [1]
indicateurs publicitaires [1]
in-game advertising [1]
in-text [1]
interface homme-machine ou IHM [1]
L
liens croisés [1]
logs [1]
M
mesure de la répétition [1]
N
netlinking [1], [2]
netnographie [1], [2]
O
one to few [1]
one to one [1]
out of the box [1]
P
panel ciblé ou spécialisé [1]
panel représentatif [1]
pavé [1]
pop-up [1]
publicité intrusive [1]
puce RFID [1]
R
recommender system [1]
Russie [1], [2]
S
SEA [1]
SEM [1]
SEO [1]
SERP [1]
skyscraper [1]
Slide-in [1]
streaming [1]
T
TaoBao [1]
taux de clics [1]
taux de couverture [1]
W
Webométrie [1]
Y
Yandex [1]
Z
ZTE xolo [1]