Vous êtes sur la page 1sur 349

Consultez

nos parutions sur www.dunod.com



Conseiller éditorial : Christian Pinson

Dunod, 2014

ISBN 978-2-10-071413-1

Les auteurs

Mohua BANERJEE
m.banerjee@imi-k.edu.in
Professeur à l’International Management Institut de Delhi et Calcutta, elle enseigne la distribution et
l’impact des circuits de distribution dans le secteur des télécoms et des nouvelles technologies. Ses
recherches portent sur le multi canal et sur l’évolution des pratiques de ventes.

Gaël BELLAYER
gael.bellayer@gmail.com
Professeur à l’Université Normale de Chine du Sud et consultant en entreprise. Il supervise l’ensemble
des cours de commerce et vente pour l’« international Business College ». Son cursus international lui
permet d’avoir une vision comparative sur l’évolution des pratiques de e-commerce en Chine.

Christophe BENAVENT
christophe.benavent@u-paris10.fr
Professeur des Universités, Université Paris-Ouest (Nanterre), UFR SEGMI département de gestion,
EA 4429, Centre d’études et de recherches sur les organisations et sur les stratégies (CEROS). Son
travail de recherche porte sur la manière dont les technologies de l’information, des systèmes CRM aux
réseaux sociaux, participent à la transformation des doctrines, des stratégies et des pratiques de
marketing. Il dirige le master « Marketing opérationnel international » et anime un groupe de recherche
« Atelier technologies du marketing » dont les travaux et les chroniques peuvent être consultés sur
http://i-marketing.blogspot.com. Il intervient régulièrement dans les grandes conférences professionnelles
et pour des missions de conseil.
http://www.u-paris10.fr/16351/0/fiche_annuaireksup/&RH=FR

Stéphane BOURLIATAUX-LAJOINIE
bourliataux@univ-tours.fr
Maître de conférences en sciences de gestion à l’IAE de Tours, membre du laboratoire Vallorem.
Spécialisé en e-marketing, ses recherches portent sur le comportement du consommateur sur Internet et la
publicité en ligne. Membre de plusieurs associations scientifiques, il dirige le master 2 « Marketing des
services » à Beyrouth, Rio de Janeiro et Calcutta. Il est l’auteur de plusieurs articles de recherches et
d’ouvrages dont la coordination d’E-marketing & E-commerce (Dunod, 2011, 2014). Ses recherches le
conduisent à intervenir régulièrement auprès des entreprises.
http://www.viadeo.com/fr/profile/stephane.bourliataux-lajoinie

Manu CARRICANO
mcarricano@eada.edu
Professeur associé de marketing et directeur du Pricing Center à l’Eada Business School Barcelona. Il
est également Research Director de Pricing Solutions, au sein duquel il coordonne des études menées
auprès de grandes entreprises en Europe.
Ses travaux de recherche en pricing, études et analyse de données ont été publiés dans de nombreuses
conférences et publications internationales. Il est docteur en sciences de gestion (Université de Bordeaux)
et Executive Graduate en Big Data par le MIT.

Alexandre COUTANT
coutant.alexandre@gmail.com
Enseignant-chercheur à l’Université de Franche-Comté, équipe « Objets et usages numériques » du
laboratoire ELLIADD, Alexandre Coutant s’intéresse aux activités de consommation des individus et à
leurs usages des techniques de l’information et de la communication. Ses premières recherches
s’intéressent au fonctionnement du secteur professionnel du marketing et de la communication, un domaine
qu’il analyse désormais dans le cadre des métiers de l’internet. En parallèle il cherche à comprendre la
dynamique complexe par laquelle les individus « font avec » un ensemble de dispositifs, objets et
discours provenant de la « société de consommation ». Ses terrains principaux sont les dispositifs
sociotechniques et les marques.

Jean-Claude DOMENGET
jean-claude.domenget@univ-fcomte.fr
Après une thèse CIFRE à l’INA, Jean-Claude Domenget a rejoint l’équipe « Objets et usages
numériques » (OUN) du laboratoire ELLIADD de l’Université de Franche-Comté, en tant que maître de
conférences en sciences de l’information et de la communication. Ses recherches s’inscrivent dans un
renouvellement de la sociologie des usages à l’ère numérique et portent principalement sur les usages
professionnels des médias socionumériques. Membre de plusieurs réseaux et associations de chercheurs,
il intervient pour des missions de conseil auprès d’entreprises et a tenu des responsabilités au sein du CA
de l’association professionnelle SEO Camp.
https:twitter.com/jcdblog

Laurent FLORES
FreeMoon95@gmail.com
Maitre de conférences – HDR en sciences de gestion (marketing), il est enseignant chercheur de
l’Université Paris II et professeur affilié à l’Inseec.
Spécialiste des études marketing et du marketing digital, il compte plus de 20 ans d’expérience du
conseil en marketing. Auteur régulier, son dernier ouvrage en français publié chez Dunod (Mesurer
l’efficacité du marketing digital) a reçu le Prix 2013 de l’Académie des sciences commerciales. Il est
associé de SLPV-Analytics, conseil en analyse de données, modélisation et Big Data.

Katherine MA
mayingyi@gmail.com
Professeur à l’Université Normale de Chine du Sud. Coordinatrice du parcours « International Business
College » de son université, elle enseigne le e-marketing depuis plusieurs années. Ses travaux de
recherches portent sur le développement d’internet et du e-marketing en Chine.

Aurélia MICHAUD-TRÉVINAL
aurelia.michaud_trevinal@univ-lr.fr
Maître de conférences en sciences de gestion à l’Université de La Rochelle – IUT Techniques de
commercialisation. Ses travaux de recherche portent sur les pratiques des consommateurs en matière de
mobilité ainsi que leurs expériences dans les différents espaces commerciaux (ville & Internet) et leurs
impacts sur les stratégies des distributeurs. Prix de la Chaire Auchan pour la meilleure publication Jeune
Chercheur en 2004, ses travaux ont notamment fait l’objet de publications dans Recherche et
Applications Marketing et Journal of Retailing and Consumer Services.

Fernando PADOVANI
fernando-padovani@hotmail.com
Professeur à l’Université d’État de Rio de Janeiro, il enseigne l’analyse économique et plus
particulièrement l’économie dans les pays émergeants et les pays émergés. Ses recherches portent sur la
macro-économie, les organismes non gouvernementaux, et les politiques de régulation d’internet au Brésil
et en Amérique du Sud.

Yves ROY
yves.roy@univ-poitiers.fr
Maître de conférences en sciences de gestion, IAE de Poitiers, membre du laboratoire CEREGE,
ancien directeur informatique de l’Université de Poitiers, il enseigne principalement les systèmes
d’information et l’aide à la décision. Ses recherches actuelles se concentrent sur le comportement des
internautes face aux moteurs de recherche.
http://www.univ-poitiers.fr/1332/0/fiche_annuaireksup/&RH=1182242500406

Valérie SCHAFER
valerie.schafer@cnrs.fr
Chargée de recherche à l’Institut des sciences de la communication du CNRS, docteure en histoire
contemporaine, spécialiste d’histoire des télécommunications et de l’informatique, Valérie Schafer mène
actuellement des recherches sur l’histoire de l’Internet et du Web dans les années 1990 en France. Elle a
notamment publié La France en Réseaux, années 1960-1980 (Nuvis, 2012), avec Benjamin Thierry,
Le Minitel, l’enfance numérique de la France (Nuvis, 2012), avec Bernard Tuy, Dans les coulisses de
l’Internet. RENATER, 20 ans de technologie, d’enseignement et de recherche (Armand Colin, 2013).

Thomas STENGER
stenger@iae.univ-poitiers.fr
Maître de conférences à l’IAE de Poitiers, docteur en sciences de gestion, membre du laboratoire
CEREGE et chercheur associé à l’Institut des sciences de la communication du CNRS. Après avoir été
ingénieur-commercial chargé des projets Internet et Intranet, Thomas Stenger mène depuis une quinzaine
d’années des recherches sur les rapports entre marketing, systèmes d’information et consommation. Il a
publié plus d’une trentaine d’articles et de chapitres d’ouvrages, et cinq livres dont E-marketing & E-
commerce (Dunod, 2011, 2014), Identités numériques (L’harmattan, 2013), et Digital Natives et
Consommation (EMS, 2014).
http://www.thomasstenger.kiubi-web.com

Tatiana TYCHKOVA
ttychkova@yandex.ru
Professeur à l’Institut Stolypin de Volga, elle enseigne l’impact des technologies de l’information et de
la communication sur le management. Ses recherches portent sur la complémentarité entre la technologie
et les usages des entreprises.
Introduction

Trois milliards d’internautes à la fin de l’année 2014 ! La prévision de l’ITU[1] montre qu’en quatre ans,
le réseau a été rejoint par un milliard de nouveaux utilisateurs. Internet renforce son positionnement de
média planétaire. Outre l’entropie du réseau, le second point marquant tient au mode de connexion. Un
tiers des connexions sont faites via un périphérique mobile, c’est là le vecteur principal de croissance
d’Internet tant dans les pays les plus développés que dans les pays émergeants. Malgré les crises
économique et financière, les chiffres de l’e-commerce à travers le monde ne cessent de progresser
depuis l’apparition des pionniers comme Amazon, eBay ou Yahoo! au milieu des années 1990. Le
développement du commerce sur Internet a fortement contribué à développer les usages du Web dans le
grand public, au-delà des communautés scientifique et informatique à l’origine du réseau. L’usage de
l’Internet mobile via les smartphones et les tablettes a définitivement placé le e-commerce dans les
habitudes des Français.
Le cas de la France est particulièrement intéressant : avec une proportion de 83 % d’internautes et un
temps moyen passé sur Internet de 4 h 07 par jour, les Français sont considérés comme des utilisateurs
avancés[2]. Si les médias socionumériques occupent une place importante, le shopping en ligne est bien
ancré dans les usages. En effet, 92 % des internautes français déclarent consulter Internet avant d’acheter
et 77 % pratiquent le ROPO – research online purchase offline[3].
La place d’Internet dans la vie quotidienne des consommateurs et des entreprises est donc au centre des
préoccupations des professionnels du secteur mais aussi plus largement de tous ceux qui s’intéressent aux
sciences humaines et sociales. L’utilisation de l’e-mail, des médias sociaux ou de moteurs de recherche,
pour échanger avec ses amis, partager des avis avec des experts ou des inconnus ou encore rechercher
des informations sur les produits et les marques, ne peut plus être considérée comme une pratique
marginale ou émergente. La diversité des usages sur Internet et leur forte imbrication rendent très difficile
le recours aux dichotomies traditionnelles telles que communication commerciale ou non commerciale,
espace marchand et non marchand, professionnel et amateur, public et privé, etc. Une révolution plus
discrète s’est également déroulée ces deux dernières années avec l’accès à la géolocalisation et l’analyse
des données de l’internaute qui deviennent des zones d’études particulièrement prometteuses en e-
marketing. La notion de vie privée se trouve fortement modifiée, à tel point que le législateur travaille à
un « droit à l’oubli » sur Internet. Cette démarche laisse entrevoir l’étendue des enjeux des données
personnelles et des identités numériques. Il faut en avoir conscience et chercher à mieux comprendre ces
usages du quotidien si l’on s’intéresse à la vie sociale, à la diffusion et l’appropriation des nouvelles
technologies ou au pilotage de l’activité marchande aujourd’hui. Internet et le Web nous rappellent que le
commerce et la communication ont une histoire commune et indissociable. Les voies de communication et
les voies commerciales constituent deux facettes d’un même réseau – au moins depuis l’Empire romain.
Ainsi, les structures, les outils et parfois aussi les acteurs du commerce et de la communication
s’inscrivent dans le même réseau. Avec les évolutions apportées par les nouvelles technologies de
l’information et de la communication (NTIC), Internet et la téléphonie mobile en tête, il fallait donc ne
s’attendre à rien de moins qu’une forte reconfiguration du commerce et du marketing.
La communauté managériale et la communauté marketing en particulier se sont révélées parmi les plus
enthousiastes, à l’image de Donna Hoffman[4] (2000), qui s’exprime ainsi en introduction du premier
numéro spécial de Marketing Science consacré à Internet et au commerce électronique[5] : « Il y a une
révolution en marche. […] La révolution c’est Internet[6]. Internet a le potentiel de transformer
radicalement non seulement la façon dont les individus font du commerce ensemble, mais aussi l’essence
même de ce que signifie être un être humain dans la société. » Elle précise que « le comportement du
consommateur dans les environnements interactifs » constitue un nouveau sujet de recherche pour le
management. Le point de vue français s’inscrit dans cette même perspective. Dans le premier numéro de
Recherche et Applications en Marketing consacré au « e-marketing[7] », Dubois et Vernette considèrent
que « l’appropriation de l’Internet par le marketing modifie la nature des échanges et les modes de
relations entre l’entreprise et le consommateur » (2001, p. 1). Ils évoquent sans ambiguïté « la naissance
de nouveaux comportements d’achat consécutifs à un environnement d’échange médiatisé par une
machine ». Depuis Blattberg et Deighton (1991), Deighton et Sorell (1996) mais aussi Kotler et Dubois
qui ont qualifié très tôt le marketing interactif de « marketing du XXIe siècle » (1997, p. 674), praticiens,
chercheurs, journalistes, consultants et consommateurs découvrent et examinent chaque jour de nouvelles
formes d’interactivité dans la relation marchande. Plusieurs formes de marketing interactif et
d’interactivité ont d’ailleurs pu être identifiées mettant en évidence la variété des enjeux et des
conséquences pour le marketing et l’e-commerce[8] (Stenger 2006, Deighton et Kornfeld 2009).
En sciences de gestion, les travaux en management des systèmes d’information doivent également être
étudiés avec le plus grand intérêt pour qui veut mieux comprendre le commerce électronique. Tout
d’abord parce qu’ils se sont intéressés très tôt à Internet et au commerce électronique comme l’illustre un
premier numéro spécial de la revue Systèmes d’Information et Management édité en 1999. Ensuite,
parce qu’ils mettent en évidence la continuité de procédures et de comportements du côté des entreprises
comme des clients, par exemple du Minitel à Internet (Bendana et Rowe 2003). Enfin, ils révèlent la
reconfiguration de certains marchés, le rôle des nouvelles technologies de l’information et de la
communication sur la pratique managériale et les enjeux liés à la diffusion et l’adoption des NTIC. La
sociologie et les sciences de la communication sont également mobilisées pour mieux appréhender les
pratiques des entreprises et des internautes.
Un ouvrage comme celui-ci est donc l’occasion de dresser un état des connaissances et également
d’engager des réflexions sur les mutations en cours.

Définir l’e-commerce et l’e-marketing


Bien que son histoire soit très récente, la terminologie employée par les praticiens et les chercheurs en
e-commerce et e-marketing a déjà connu plusieurs modes. Les vocables employés ne sont évidemment
pas neutres et un examen rapide se révèle instructif.
E-business, par exemple, désigne mot à mot les « affaires électroniques », et évoque de façon très
globale l’ensemble des activités des entreprises effectuées par l’intermédiaire des réseaux de
télécommunications. C’est un terme historiquement associé à IBM (le terme aurait été inventé par Lou
Gerstner, son président ; il a en tout cas été abondamment utilisé dans sa communication publicitaire). On
notera bien sûr que, défini ainsi, l’e-business est plus vaste que l’e-commerce et qu’il n’est pas né avec
Internet ni même avec le Web. Le préfixe « cyber », très populaire à la fin des années 1990 (cyberculture,
cyberacheteur, cybermarketing, etc.), a presque disparu bien qu’il subsiste avec les cybercafés. Il avait
pourtant le mérite d’évoquer très clairement la cybernétique de Norbert Wiener et les origines de la
communication homme-machine. La lettre « i » qui précède un nombre important de mots courants avait
pour vocation de leur attribuer une propriété interactive. Aujourd’hui, c’est surtout la marque Apple qui
s’est approprié cette lettre et ce préfixe avec une offre toujours plus large (iMac, iPod, iTunes, iPhone,
iPad, etc.). La lettre « e » à l’origine des termes e-commerce et e-marketing se veut ainsi plus neutre.
C’est notamment pour cette raison qu’elle est employée dans cet ouvrage. Cela ne définit pas pour autant
ces deux termes d’e-commerce et d’e-marketing.
Le commerce électronique n’est pas né avec Internet. Les réseaux de télécommunication et en
particulier le téléphone permettaient déjà la vente et l’achat en ligne depuis de nombreuses années, pour
les particuliers, comme pour les entreprises. Ces dernières procédaient même parfois par échange de
données informatisées (EDI pour electronic data interchange) dès les années 1980. Côté client, les
Français ont bénéficié de l’expérience du Minitel dès 1982.
L’Organisation mondiale du commerce (OMC) définit le commerce électronique[9] (sur son site Web)
comme : la « production, publicité, vente et distribution de produits par des réseaux de
télécommunication ». Cette conception très large ne se limite pas à la commercialisation en ligne mais
englobe également la production. Certains considèrent que, pour parler de commerce électronique, il est
nécessaire que la prise de commande soit effectuée de façon électronique. En revanche, le paiement peut
s’effectuer hors ligne. Cette définition est en accord avec celle de la Fédération de l’e-commerce et de la
vente à distance (Fevad)[10] qui envisage l’e-commerce comme une forme de vente à distance[11] (VAD)
selon les modes de commande (courrier, téléphone fixe ou mobile, Internet, etc.).
L’e-commerce ne se limite donc ni à Internet ni aux problématiques marketing ; il est concerné par
l’ensemble de la chaîne de valeur. Les questions de logistique, par exemple, sont au cœur des
préoccupations. Nous emploierons donc le terme e-commerce dans cet ouvrage pour désigner l’ensemble
des activités commerciales réalisées sur des réseaux électroniques (par exemple vente en ligne,
prospection, promotion, gestion de la relation client, supply chain management), le plus souvent sur
Internet, en gardant à l’esprit que toutes les études récentes soulignent le rapprochement des usages en
ligne entre les supports fixes et mobiles (téléphones, PDA, tablettes, etc.). De plus, l’e-commerce est
généralement employé pour désigner les pratiques de commerce en ligne auprès de particuliers (BtoC),
par opposition aux pratiques en BtoB qui sont traditionnellement mesurées et analysées séparément par
les professionnels du secteur.
Comme pour l’e-commerce, plusieurs conceptions de l’e-marketing coexistent. Nous pouvons au moins
en distinguer deux. L’expression e-marketing désigne a minima la facette marketing de l’e-commerce,
c’est-à-dire les pratiques des e-commerçants pour piloter l’activité marchande en ligne. Selon une
conception « forte », l’e-marketing désigne le marketing en ligne (essentiellement sur Internet mais pas
exclusivement) et concerne donc tous les acteurs marchands en situation concurrentielle, qu’ils
développent une activité de vente en ligne ou non. Cette deuxième conception est préférée ici. Que leur
présence soit délibérée ou non, les marques sont sur Internet ; les consommateurs aussi. L’e-marketing
doit donc intégrer cet état de fait.
La compréhension et la pratique de l’e-marketing aujourd’hui exigent une excellente maîtrise des outils
et concepts fondamentaux du marketing « traditionnel ». D’autres connaissances et compétences
apparaissent aussi indispensables. Une compréhension fine des usages marchands et non marchands des
internautes sur la Toile est requise car les e-commerçants évoluent dans un contexte où la gratuité
(d’usage, du téléchargement, d’accès aux informations, etc.) a parfois été érigée comme règle. Une
maîtrise des enjeux juridiques et technologiques est également indispensable. Plus que pour tout autre
média, la dimension technologique revêt sur Internet une importance capitale. Les évolutions des
matériels (de la connexion modem à la 3G), des protocoles et des langages (l’arrivée du HTML 5 ou le
Java) ont la propriété de modifier la relation avec les consommateurs. L’informatique nomade a changé
les modes de consommation et de communication des internautes. Une part croissante des recherches sur
Google s’effectuent depuis des smartphones, les achats sur iTunes alimentent les terminaux mobiles
d’Apple, la technologie GPS embarquée sur les mobiles ouvre la voie à de nouvelles applications
géolocalisées… Les responsables e-marketing doivent donc aussi être à l’écoute de ces évolutions et
développer une stratégie de veille technologique.

Structure de l’ouvrage
Cet ouvrage peut se lire de plusieurs façons. Le lecteur pourra respecter la progression proposée en
parcourant dans l’ordre les trois grandes parties : « Histoire et tendances », « Consommation et gestion
de la relation client », « Communication » et enfin « Études et Technologies ». Il pourra aussi effectuer
une lecture thématique en commençant par les chapitres qu’il souhaite. Pour faciliter la compréhension et
l’utilisation de cet ouvrage, les liens entre les chapitres sont donnés dans le corps du texte. Chaque
chapitre est illustré avec de nombreux cas pratiques et propose également un index et une bibliographie.
La première partie, « Histoires et tendances », commence par une mise en perspective des éléments
majeurs de l’histoire d’Internet et du Web, des premières expérimentations d’interconnexions aux États-
Unis aux métiers et business models pour le e-commerce en passant par les problématiques actuelles de
gouvernance et de neutralité de l’Internet (chapitre 1).
Cette analyse se poursuit avec le chapitre 2 consacré aux médias socionumériques. Que sont exactement
ces médias dits sociaux ? Quelles sont les opportunités marketing offertes par la participation massive
des internautes sur les médias sociaux ? Ce chapitre propose des réponses à ces questions en détaillant
les opportunités mais aussi les risques et les règles associés aux pratiques des individus et des marques
dans ces espaces socionumériques si particuliers.
Cette première partie se conclut par un regard international sur l’e-marketing trop souvent cantonné aux
territoires européen et nord-américain (chapitre 3). Prêt de 50 % des internautes mondiaux se situent dans
des pays « émergés » ou en voie de développement. Comment l’ignorer ? L’analyse proposée est
structurée en deux points. Tout d’abord le chapitre propose une analyse des grands enjeux qui sous-
tendent l’émergence de l’Internet à travers le monde, puis l’actualité du réseau est vue au travers quatre
spécialistes invités à cette occasion pour présenter des analyses provenant respectivement du Brésil, de
la Russie, de l’Inde et de la Chine. Ces regards croisés permettent de mieux comprendre les sensibilités
émergentes sur Internet et certains enjeux des années à venir.
La deuxième partie de cet ouvrage, « Consommation et gestion de la relation client », remet le
consommateur au centre de la relation avec Internet. Le chapitre 4 traite de l’évolution du management de
la relation client à l’ère digitale à travers le triptyque médiation, socialisation et ubiquisation. Ce
chapitre examine de quelle façon les technologies numériques participent à la reconfiguration du temps,
de l’espace et donc de la relation entre marketers et consommateurs.
Cette deuxième partie examine ensuite les comportements d’achat à l’heure d’Internet (chapitre 5). S’il
analyse bien sûr l’achat et le shopping en ligne, il envisage de façon plus complète le rôle d’Internet dans
le comportement des consommateurs, car la consommation et les achats sont de plus en plus cross-media
et les parcours clients sont très variés. C’est la raison pour laquelle la recherche d’information en ligne,
l’aide à la décision du consommateur et le rôle des recommandations et prescriptions sur Internet
occupent une place centrale.
La troisième partie de l’ouvrage « Communication » aborde le thème de la publicité sur Internet via ses
deux composantes majeures, le display et le search. Le chapitre 6 propose un état des lieux de la
publicité display sur Internet. il donne des clés de lecture sur les pratiques actuelles et leur évolution
particulièrement rapide. Il présente et analyse les évolutions récentes de la publicité en ligne. Il propose
également un tableau de bord des principaux indicateurs liés au display.
Le chapitre suivant est son complément naturel puisqu’il examine le search engine marketing, c’est-à-
dire les techniques de référencement naturel et payant d’un site Web en passant par la création du nom de
domaine, l’achat de mots clés ou l’optimisation du ranking sur les moteurs et annuaires de recherche
(chapitre 7).
La quatrième et dernière partie de cet ouvrage, « Études et technologies », propose une approche plus
technique d’Internet pour la pratique de l’e-marketing et de l’e-commerce. Les études du marché par
Internet connaissent une croissance continue ; il est désormais indispensable de connaître les spécificités
des études en ligne (chapitre 8). Le volume de données produites en ligne encourage naturellement le
recours aux approches quantitativistes[12] (panel, enquêtes, etc.), mais les études qualitatives, à travers de
nouvelles formes de mobilisation des internautes, sont aussi sources d’innovation pour le marketing.
Le dernier chapitre de cet ouvrage est consacré au sujet délicat de la relation entre technologie et vie
privée (chapitre 9). Qu’il s’agisse d’analyser les connexions à un serveur ou de situer géographiquement
un internaute, les technologies actuelles offrent régulièrement de nouvelles possibilités. La généralisation
de l’usage des smartphones, des tablettes, mais également les connexions mobiles sont autant d’éléments
qui modifient la relation entre les entreprises et les particuliers. Obtenir des informations est ici plus
simple que de les utiliser à bon escient. Ces dernières sont présentées et critiquées, l’objectif étant de
montrer sans concession les opportunités et les limites de ces nouvelles technologies.
Ainsi, en neuf chapitres, cet ouvrage dresse un panorama clair des différentes facettes de l’e-marketing
avec quinze enseignants-chercheurs spécialistes du e-marketing et e-commerce. Ce livre présente les
enjeux, les outils et les concepts majeurs pour la pratique de l’e-marketing : orientation client, médias
sociaux, publicité en ligne, référencement, e-mailing, achat en ligne, développement international, études
en ligne, tracking, géolocalisation. Neuf sujets fondamentaux pour comprendre les dernières évolutions,
les pratiques des internautes et des professionnels afin de développer ses compétences en e-commerce et
e-marketing. Si l’angle marketing est privilégié, l’ouvrage propose également un éclairage très utile grâce
au management des systèmes d’information, à la sociologie et aux sciences de la communication.

[1] Source : http://www.itu.int/net/pressoffice/press_releases/2014/23-fr.aspx#.U7qSGPl_u91

[2] Source : We Are Social (données mondiales 2014).

[3] Source : Fevad-Mediametire/netratings, 2013.

[4] Donna Hoffman est l’un des auteurs les plus cités en « e-marketing » dans les revues américaines mais également françaises.

[5] Marketing Science, vol. 9, n° 1, hiver 2000.

[6]
Cette formule : « The Revolution is the Internet » est déjà présente dans son article de 1996 co-écrit avec Novak T. P.
[7] Recherche et applications en marketing, vol. 16, n° 3, 2001.

[8] Voir notamment le double numéro spécial du Journal of Interactive Marketing (vol. 23, n° 1, 2) coordonné par Shankar et Malthouse

(2009).
[9] http://www.wto.org/french/thewto_f/glossary_f/commerce_electronique_f.htm

[10] Créée en 1957, la Fevad est la Fédération du e-commerce et de la vente à distance (http://www.fevad.com)

[11] D’ailleurs, les premiers marchands en ligne ont répliqué sur la Toile des méthodes classiques de la vente sur catalogue et on retrouve
sans surprise des sociétés telles que La Redoute et les 3 Suisses parmi les leaders de l’e-commerce en France.
[12] Internet est ainsi devenu dès 2008 le mode de collecte le plus populaire pour les études quantitatives (source : Esomar -Association
mondiale des professionnels des études de marchés et sondages d’opinion).
Partie
Histoire et tendances
1

Chapitre 1 Internet, e-marketing et e-commerce : histoire, structuration et enjeux


Chapitre 2 Médias sociaux et marketing
Chapitre 3 E-marketing à l’international
Chapitre Internet, e-marketing et e-commerce :
1 histoire, structuration et enjeux

Valérie SCHAFER,
Chargée de recherche, Institut des sciences
de la communication du CNRS

Thomas STENGER,
Maître de conférences, IAE de Poitiers, laboratoire CEREGE
et chercheur associé à l’Institut des sciences
de la communication du CNRS

Objectifs

■ Découvrir et comprendre l’origine politique et scientifique d’Internet.


■ Comprendre les enjeux et les résistances vis-à-vis du tournant commercial et marchand d’Internet.
■ Appréhender la structuration progressive du e-marketing et e-commerce du point de vue pratique
(business models, métiers…), et académique (associations, revues…).
■ Analyser les tensions et enjeux actuels dans l’écosystème Internet (en termes de gouvernance, de
partage de la valeur et de privacy).

Sommaire

Section 1 L’Internet avant les marchands


Section 2 Le tournant vers l’Internet commercial
Section 3 La structuration du e-marketing et e-commerce
Section 4 Tensions dans l’écosystème Internet
La pratique du e-marketing et du e-commerce requiert une excellente maîtrise des outils et concepts du
marketing et du management en général. Elle nécessite également une connaissance et une compréhension
fine de l’écosystème Internet. Plus précisément, il est essentiel de comprendre l’émergence et l’évolution
d’Internet car le réseau n’a pas toujours été le lieu d’échange marchand – c’est même très récent. Ce
chapitre propose donc une mise en perspective historique des acteurs, valeurs, imaginaires et réalités de
l’Internet et de ses évolutions depuis les premiers pas des réseaux de données dans les années 1950-
1960.
Après avoir exposé quelques caractéristiques de la période qui va de la genèse de l’Internet à la
création du Web (début des années 1990), la seconde partie aborde le tournant vers l’Internet
« marchand » et commercial, l’émergence du commerce électronique et du e-marketing. La troisième
partie examine la structuration progressive des pratiques et de la recherche académique en e-marketing et
e-commerce. Enfin, la dernière partie propose une réflexion sur des tensions et enjeux particulièrement
aigus qui traversent aujourd’hui l’écosystème Internet, que ce soit en termes de gouvernance, de relations
des acteurs au sein de la chaîne de valeur de l’Internet ou encore dans le domaine de la protection des
données personnelles.

Section 1 L’INTERNET AVANT LES MARCHANDS

Si le milieu des années 1990 a vu les premiers pas des usages marchands sur Internet, le « réseau des
réseaux » poursuit à son origine un objectif totalement différent, à une époque où les réseaux de données
sont balbutiants et limités au monde scientifique et professionnel (il n’y a pas alors d’utilisateurs « grand
public », l’informatique personnelle et avec elle l’équipement des foyers n’apparaissant que dans les
années 1980) (Abbate, 2000). Réservé à une étroite « élite » scientifique et technicienne qui le conçoit au
prisme de ses valeurs et lui insuffle des caractéristiques qui sont encore aujourd’hui profondément
inscrites dans son fonctionnement, Internet est d’ailleurs loin d’être la seule voie pour les échanges de
données au cours de cette première période.

1 L’histoire d’Internet commence avant Internet


Officiellement c’est seulement en 1983 qu’Arpanet, réseau financé par l’Advanced Research Projects
Agency (ARPA), une agence militaire états-unienne, se scinde en deux parties, une branche proprement
militaire, Milnet, et un réseau civil, Internet. On peut y voir le résultat de la double (voire de la triple)
composante originelle du projet, soutenu par un puissant complexe militaro-scientifico-industriel.
Focus 1.1
Quand les télécommunications rencontrent l’informatique : aux
racines de l’Internet
L’histoire d’Internet plonge ses racines en amont, dans les années 1960, et même plus tôt si l’on veut
considérer les premiers pas de la convergence entre les télécommunications et l’informatique et les
premiers réseaux de données, notamment le réseau militaire Sage, conçu par les États-Unis pour
protéger leur ciel aérien dans les années 1950 dans le contexte de la guerre froide, ou encore ses
dérivés civils, comme le réseau pour les réservations aériennes Sabre. Toutefois ces réseaux dédiés
pour l’un au monde militaire, pour l’autre à un secteur professionnel précis, sont très fortement
centralisés (en étoile) et leur architecture et soubassements techniques sont éloignés de ceux qui
assureront quelques années plus tard le succès de l’Internet (Schafer, 2012a).
Il faut attendre la première moitié des années 1960 pour voir se mettre en place certains fondements
structurants de ce qui deviendra l’Internet, notamment grâce aux idées de Paul Baran[1]. Au sein de la
Rand Corporation, agence de sécurité américaine, Baran définit un réseau « en filet de pêche »,
distribué, destiné à être résilient face à de potentielles attaques militaires, et conçoit la commutation de
paquets qui marque encore l’Internet d’aujourd’hui : il s’agit d’un mode de découpage des messages qui
circulent dans le réseau sous forme de paquets, afin de rendre plus difficile leur interception, leur perte
ou leur blocage en cas de destruction de certains points d’échanges et lignes du réseau. Paul Baran n’est
pas le seul à avoir l’idée de la commutation de paquets au milieu des années 1960, mais il ne pourra
réaliser le réseau qu’il avait imaginé. C’est l’Advanced Research Projects Agency (ARPA) qui lancera le
projet de grande envergure d’un réseau distribué à commutation de paquets dans la seconde moitié des
années 1960. L’ARPA y relève par ailleurs d’autres défis techniques, notamment en concevant un réseau
hétérogène, c’est-à-dire constitué de machines de constructeurs différents, à une époque où la plupart des
réseaux s’appuient sur des systèmes propriétaires (qui ne peuvent supporter les machines que d’un seul
constructeur, par exemple un réseau composé seulement de machines IBM ou uniquement d’ordinateurs de
la firme Digital Equipment Corporation).
La recherche aux États-Unis est alors profondément marquée par le contexte de la guerre froide. Le
4 octobre 1957, l’Union Soviétique a lancé son premier satellite artificiel, le Spoutnik, au grand dam des
États-Unis. Le président Eisenhower crée l’Advanced Research Projects Agency (ARPA) en 1958 et
l’installe dans le Pentagone au sein du Département de la Défense. L’ARPA est composé de scientifiques
chargés de financer et soutenir des projets innovants et surtout d’imposer un leadership américain en
matière de nouvelles technologies. Alors que l’exploration spatiale est confiée la même année à une
nouvelle agence (la NASA), l’ARPA se concentre sur le traitement de l’information et l’informatique. En
son sein, la création de l’Information Processing Techniques Office (ITPO) par Joseph Licklider est
déterminante pour jeter les bases de l’informatique interactive (Serres, 2000) et ses successeurs
soutiendront dans la seconde moitié des années 1960 le projet Arpanet : à l’ARPA, mais aussi dans les
universités américaines comme Stanford ou UCLA en Californie, et au sein de l’entreprise BBN (Bolt,
Beranek and Newman), autour d’hommes comme Larry Roberts, Robert Taylor, Robert Kahn, Vinton
Cerf, Steve Crocker, Douglas Engelbart et bien d’autres, se forment des équipes qui permettent de rendre
le réseau opérationnel à partir de 1969, date de l’interconnexion de quatre ordinateurs situés dans quatre
universités américaines (UCLA, Stanford, Santa Barbara et Utah). Dès 1972, les premières liaisons
internationales d’Arpanet ont lieu avec le Norsar (Norwegian Seismic Array) en Norvège et l’University
College of London. La même année naît l’International Network Working Group, groupe de réflexion
international dédié aux réseaux de données, où commencent à être discutées les bases de ce qui deviendra
le protocole clé de l’Internet : TCP/IP.
Des chercheurs français ont d’ailleurs contribué à ces réflexions, ceux qui ont développé le réseau de
données Cyclades, placé à l’Institut national de recherche en informatique et automatique (INRIA) sous
l’égide de Louis Pouzin à partir de 1971. Un membre de cette équipe, Gérard Le Lann, est à Stanford
auprès de Vinton Cerf en 1973, l’année qui précède la définition par celui-ci du protocole TCP avec
Robert Kahn, et il participe activement aux discussions. Le protocole TCP/IP retient notamment l’idée
française des datagrammes, à savoir la circulation des paquets selon un routage adaptatif, qui les voit
s’éparpiller dans le réseau avant d’être rassemblés à destination grâce aux en-têtes dont ils sont munis
(Schafer, 2012b). Louis Pouzin a d’ailleurs reçu en 2013 le Queen Elizabeth Prize for Engineering pour
sa contribution à l’Internet aux côtés de Vinton Cerf et Robert Kahn, Tim Berners-Lee (pour le Web) et
Marc Andreessen (pour Mosaic que nous évoquerons ensuite). Le protocole TCP/IP permet non
seulement de connecter des ordinateurs de constructeurs différents (ce qui était déjà un bel exploit
technique) mais aussi des réseaux différents, de données, satellites, radio, ou encore des réseaux locaux
qui se développent au sein des campus ou des entreprises, du type Ethernet.
Quand en 1983 est officiellement adopté le protocole de l’Internet, une multitude de réseaux, souvent
incompatibles entre eux. Internet est loin de s’être imposé partout et certains des réseaux qui ont coexisté
avec lui pendant la décennie 1980 ont marqué les usages numériques. Parmi eux Usenet, né en 1979 en
Caroline du Nord, est parfois surnommé « l’Arpanet du pauvre » (il relie des universités qui ne font pas
partie de celles qui sont liées à l’ARPA et bénéficient du réseau Arpanet). Il est réputé pour ses
Newsgroups, des forums d’échanges sur des thèmes au départ essentiellement informatiques, puis peu à
peu davantage récréatifs, organisés selon des principes d’auto-gouvernance et il est plébiscité par les
communautés techniciennes (Paloque-Berges, 2012). D’autres réseaux, dédiés davantage à des usages
scientifiques, d’extension locale, nationale ou internationale existent également, comme le réseau d’IBM,
BitNet pour des usages scientifiques (messageries, transferts de fichiers, etc., entre communautés
académiques) et son équivalent européen EARN (European Academic Research Network). Les premiers
réseaux commerciaux ont également commencé leur développement, que l’on pense au réseau Transpac en
France, qui supporte le trafic Minitel dès la première moitié des années 1980 (Thierry, Schafer, 2012) ou
à The Source créé par William von Meister, qui fonde ensuite la Control Video Corporation, dans
laquelle Steve Case travaille avant de créer en 1985 le Quantum Computer Services, devenu America
Online (AOL). Un an avant, en 1984, naissait la société Prodigy, dont le réseau est ouvert aux annonceurs
et préfigure les publicités qui colonisent ensuite le Web (Ceruzzi, 2012).
2 Culture et valeurs originelles de l’Internet
La « culture Internet » a donc commencé à se forger bien avant la naissance du Web, qui a lieu au
tournant des années 1980-1990 : ces vingt années d’existence en amont, si l’on remonte au projet Arpanet,
ont nourri un imaginaire et des usages que Patrice Flichy a analysés dans L’imaginaire d’Internet (Flichy,
2001). Les principes fondateurs du réseau, au départ essentiellement affaire de scientifiques, qui y
trouvent un moyen d’échanger des messages, mais aussi des fichiers, plutôt que de devoir se déplacer
pour récupérer des bandes magnétiques contenant par exemple des programmes informatiques, sont ceux
qui traversent alors des communautés tournées vers le partage d’information, des échanges entre pairs,
l’idée d’ouverture (Flichy, 1999). Dans ce réseau, financé par le monde militaire et universitaire, un
certain nombre des piliers techniques et socio-culturels sont formulés, qui pour certains peuvent sembler
des aberrations organisationnelles et techniques… qui s’avéreront pourtant d’une extraordinaire
efficacité.
Prenons deux exemples. Le premier est résumé par la formule de David Clark en 1992 « We reject
Kings, Presidents and Votings. We believe in rough consensus and running code » : il consiste à
implémenter les solutions techniques de manière pragmatique, sans passer par les organismes de
normalisation traditionnels et à diffuser des solutions techniques qui fonctionnent, quitte à ensuite
chercher de nouvelles solutions pour pallier des difficultés ou évoluer (par exemple le passage de l’IPv4
à l’IPv6 actuellement en cours va permettre de contourner les limites du nombre d’adresses Internet). Le
second exemple est celui d’un mode best effort et bout-en-bout : à l’origine le réseau fait au mieux pour
délivrer les paquets, quitte à parfois en perdre, et l’intelligence est placée en périphérie de réseau, dans
les terminaux, plutôt qu’en son cœur, alors qu’aujourd’hui de nombreuses mesures ont érodé ce principe
de best effort et cherché à accroître la qualité de service (pour lutter contre les spams, mettre des pare-
feux, etc.).
Internet fut créé par des scientifiques dans une optique de collaboration, de partage des connaissances
et d’enrichissement mutuel des participants. Il faut se rappeler le contexte utopique et libertaire de
l’époque qui joue en toile de fond et la remise en cause d’une société marchande et capitaliste par la beat
generation, le free speech movement… C’est d’ailleurs avec force que certains s’érigent contre toute
tentative des gouvernements de pénétrer dans le Cyberespace, comme John Perry Barlow dans sa
Déclaration d’Indépendance du Cyberespace de 1996[2]. D’autres sauront toutefois parfaitement rendre
compatibles les idées néo-communalistes des communautés hippies et la nouvelle économie, à l’instar de
Stewart Brand, qui en deviendra un des prosélytes dans la revue Wired (Turner, 2013).
Mais ce sont aussi dans tout un imaginaire scientifique et technique fécond et des courants de pensées
comme ceux de la cybernétique (Wiener, 1962) qui alimentent les racines de l’Internet (Serres, 2000).
L’article publié par Joseph Licklider et Robert Taylor en 1968 dans la lignée des travaux de Norbert
Wiener sur la Cybernétique (1948) consistait à imaginer un réseau mondial de communication grâce à des
ordinateurs où les gens partageant les mêmes centres d’intérêt pourraient se retrouver et échanger quelle
que soit leur localisation géographique. Le concept de communauté en ligne ou tout au moins de mise en
réseau d’individus regroupés autour d’intérêts communs est déjà présent. On peut aussi citer Marshall
McLuhan (1968), qui envisageait l’avènement d’un « village global » grâce aux technologies de la
communication et considérait que « la technologie électrique – restructure les formes du lien social et
chaque dimension de notre vie personnelle ». Chez certains scientifiques et intellectuels se dessine ainsi
une conception utopique, parfois revendiquée, d’une nouvelle société où savoirs et connaissances seront
accessibles gratuitement par tous grâce aux NTIC – à Internet en particulier, et qui perdure bien au-delà
de cette première période (cf. Lévy, 2000 ; Castells, 1998, 2002 – voir également Negroponte, 1995).
Si nombre de spécialistes du e-commerce ont pointé du doigt la timidité des entreprises à s’engager
dans des activités commerciales en ligne, il faut rappeler qu’historiquement, Internet n’a pas été conçu
dans ce sens. L’usage commercial d’Arpanet puis d’Internet est même officiellement prohibé. Les réseaux
commerciaux sont par exemple autorisés à se connecter à l’épine dorsale haut débit de la National
Science Foundation, qui offre Internet au monde académique, mais au début des années 1990 le trafic est
réglementé par une « Acceptable Use Policy » qui leur interdit les usages à des fins commerciales et
n’autorise que des « buts de recherche » (Ceruzzi, 2012).
Le rejet des usages marchands et commerciaux est explicite, que l’on pense à la condamnation quasi
unanime qui frappe en 1978 la firme DEC qui envoie à des centaines d’utilisateurs du réseau un e-mail
vantant sa nouvelle gamme d’ordinateurs ou encore aux incitations au boycott du livre How to make a
Fortune on the Information Superhigway : Everyone’s Guerilla Guide to Marketing on the Internet and
other Online Services, paru en 1994 pour vanter la publicité sur Internet (Faucilhon, 2010 ; Brunton,
2013).
L’absence de gouvernance globale, le faible contrôle des acteurs et du contenu des réseaux, les
possibilités d’anonymat et la très grande liberté d’expression qui règnent sur Internet sont autant de
facteurs originels ayant également freiné la confiance des entreprises vis-à-vis de ce nouveau media.

3 Le « maillon manquant » pour un Internet grand public : le Web


La « démocratisation d’Internet », pour reprendre l’expression consacrée, c’est-à-dire l’accès à Internet
par le grand public, est rendue possible grâce au développement de l’informatique personnelle mais aussi
à une double invention : le World Wide Web à la fin des années 1980 et les premiers logiciels de
navigation en 1991. Le Web, conçu par le Britannique Tim Berners-Lee, alors chercheur au CERN,
organisation européenne de recherche nucléaire sise à la frontière franco-suisse, permet une
interconnexion d’informations et de documents de tous formats (texte, image, son, etc.) accessibles à tout
utilisateur connecté au réseau Internet et disposant d’un navigateur (Berners-Lee, 2000). Des navigateurs
grand public permettant de surfer facilement sur le Web apparaissent rapidement à la suite : Mosaic
développé à l’Université d’Illinois en 1993 – qui permet d’enrichir les pages Web d’images, puis
Netscape en 1994, ou encore Internet Explorer l’année suivante avec Windows 95.
L’histoire de l’Internet ne s’arrête bien sûr pas avec le Web, comme l’illustre l’article polémique de
Wired annonçant la fin du Web : « Le Web est mort. Vive l’Internet ! » (17 août 2010). Ses auteurs,
Anderson et Wolf, y constatent en effet que la proportion de contenu téléchargé et visionné directement
sur le Web est plus faible qu’auparavant et que les usages d’Internet se développent désormais davantage
sur des supports et applications mobiles et des systèmes propriétaires (iPad, smartphones, consoles de
jeu en ligne, etc.), constat émis en 2010 qui n’a cessé de se confirmer et de s’amplifier. Internet est donc
bien vivant, puisque les usages se développent au-delà du Web et sur un nombre croissant de supports.
Mais Internet n’aurait pu rester qu’un formidable système de communication pour les scientifiques de la
planète sans l’arrivée de ce « maillon manquant » qu’est le Web pour emprunter l’expression à l’historien
Paul Ceruzzi (2012) ; c’est son invention et celle des navigateurs qui a radicalement changé la façon dont
les individus - tout au moins ceux ayant accès à Internet, soit 2,4 milliards en 2012 – peuvent rechercher
de l’information et accéder à des documents écrits, visuels, sonores, vidéo, tous liés entre eux sur la
« toile ». Fidèle à l’esprit de l’Internet originel, Tim Berners-Lee obtient du CERN de placer le Web dans
le domaine public et de mettre à disposition ses spécifications techniques de manière gratuite et
accessible à tous, œuvrant ainsi pour la diffusion et l’appropriation du Web, et en conséquence de
l’Internet, par le plus grand nombre.
Là encore l’histoire du Web donne corps à des rêves, des recherches et utopies antérieures à son
apparition : le terme d’hypertexte est ainsi forgé par Ted Nelson, sociologue américain, qui imagine le
projet Xanadu d’une bibliothèque universelle dès 1960. Avant lui, on peut citer la vision de Vannevar
Bush avec le projet Memex au sortir de la Seconde Guerre Mondiale : en juillet 1945, il publie un article
majeur « As We May Think », où il imagine la possibilité de dispositifs qui constitueraient des extensions
de notre mémoire (il parle alors de Memex, un composé des mots memory et index). Chacun pourrait
ajouter à des documents ses notes de lecture et des commentaires personnels, des liens entre documents,
etc., un « proto-hypertexte » en quelque sorte.
Évoquons encore pour ressusciter la multitude et la diversité des aspirations et idées qui traversent la
période le projet au départ un peu fou de Michael Hart, débuté en 1971. Avec pour objectif de mettre en
ligne l’intégralité des textes du domaine public, celui-ci lance le projet Gutenberg, qu’il commence à
réaliser en saisissant lui-même les textes. Une tâche de Sisyphe guidée par la foi dans les possibilités de
partage qu’incarne alors un « réseau des réseaux » qui va aussi révéler dans les années 1990 son
potentiel commercial et susciter de nouvelles conversions.

Section 2 LE TOURNANT VERS L’INTERNET COMMERCIAL

Les « usages commerciaux » de l’Internet peuvent être entendus et appréhendés en un double sens. Il
s’agit, d’une part, de la privatisation progressive d’infrastructures développées à l’origine par le monde
de la recherche, avec la mise en place d’une offre commerciale d’accès à Internet. Ce premier volet peut
être qualifié de « privatisation » de l’Internet. D’autre part, le tournant commercial évoque également
l’autorisation et le développement d’usages commerciaux qui vont chercher à tirer parti de l’Internet. Ce
projet s’incarnera explicitement à travers les notions d’e-marketing et d’e-commerce.
Bien sûr, le commerce en ligne stricto sensu ne commence pas avec Internet puisque l’utilisation de
réseaux de télécommunication et en particulier du téléphone permettait déjà l’achat à distance en ligne
depuis de nombreuses années, pour les particuliers, comme pour les entreprises. Ces dernières ont de
plus procédé par échange de données informatisées (ou electronic data interchange – EDI) dès les
années 1980. Côté utilisateurs, les Français ont bénéficié de l’expérience du Minitel dès 1982. On
conviendra donc ici que l’e-commerce est entendu en tant que commerce en ligne par Internet auprès de
particuliers[3].

1 La « privatisation » de l’Internet
La décennie 1980 est riche d’évolutions dans le monde informatique et il est difficile de détailler tous
les éléments qui participent à la croissance du « réseau des réseaux ». Avant même l’apparition des
premiers pas du Web au tournant de cette décennie, la croissance de l’Internet est notable sous l’effet du
développement des réseaux locaux (LANs, Local Area Networks) dans le monde de l’entreprise, ou de la
révolution de la micro-informatique. De nombreux réseaux locaux se rattachent à Internet : ainsi, de 15
réseaux attachés à Internet en 1982 on est passé à près de 400 en 1986.
TCP/IP bénéficie (aussi) de sa rencontre avec Unix, système d’exploitation dont les principaux atouts
sont la simplicité, la portabilité sur plusieurs types de machines, et le prix. Né dans l’esprit de chercheurs
de la grande entreprise de télécommunications américaines AT&T et, à la suite de la décision de la
Justice américaine de l’empêcher d’en tirer profit, Unix est offert à bas prix ou donné aux universités.
Ainsi il est rapidement adopté par les universités américaines. L’ARPA convainc l’Université de
Berkeley de modifier le système pour intégrer les protocoles TCP/IP. La nouvelle version d’Unix en 1983
est dotée de TCP/IP, facilitant ainsi la pénétration de l’Internet encore davantage dans le monde
académique.
Un autre élément fondamental est le développement par la National Science Foundation du réseau de la
recherche NSFnet, précédemment évoqué, qui se fonde à partir de 1986 sur TCP/IP et ouvre l’Internet à
la quasi-totalité des universités américaines. C’est notamment par lui qu’une partie de la privatisation de
l’Internet se joue entre 1987 et 1995, comme l’a montré l’historienne Janet Abbate (Abbate, 2010).

Focus 1.2
Internet et la National Science Foundation : vers des partenariats
public-privé
Le choix de confier l’évolution de l’épine dorsale haut débit chargée de transporter le trafic des
différents réseaux qui font partie de NSFnet à un consortium public-privé, Merit, regroupant un fond
de l’université de Michigan mais aussi les entreprises IBM et MCI, ouvre la voie au secteur privé
dès 1986-1987.
Au cours de ces mêmes années le sénateur du Tennessee Al Gore (qui devient Vice Président
entre 1993 et 2001) souligne les enjeux des réseaux pour la compétitivité internationale des États-
Unis, idée reprise ensuite dans le High-Performance Computing Act de 1991. Sur fond de
déréglementation (Griset, 2010), les débats sont passionnés autour de l’avenir du réseau de la
NSFnet, en particulier lorsque les partenaires regroupés dans Merit proposent une évolution
technologique des infrastructures, pour faire face à leur encombrement, qui ouvrirait plus largement
celles-ci à un management privé et à des usages également commerciaux. Ce tournant est accompli
entre 1993 et 1995 quand l’épine dorsale de la NSF est remplacée par une interconnexion des
réseaux universitaires à des épines dorsales haut débit opérées par des fournisseurs d’accès privés,
dont MCI et IBM bien sûr, intégrant des utilisateurs académiques mais aussi industriels,
entrepreneuriaux, puis le grand public.
La voie est alors pleinement ouverte à la commercialisation de l’Internet avec la présence de ces
dorsales à haut débit, exploitées par des entités commerciales et le remplacement des réseaux
régionaux à but non lucratif par des fournisseurs de services commerciaux.
Le milieu des années 1990 est une période d’hésitation sur l’offre à proposer aux utilisateurs. Si au
final c’est l’accès à un Internet ouvert et au Web qui triomphe, rien n’est joué d’emblée : comme le
rappelle Franck Rebillard (2012), America Online (AOL), CompuServe, Prodigy ou Microsoft proposent
initialement des offres de services en ligne fermés, pas très éloignés du modèle du Minitel. Ainsi,
prenons l’exemple de Microsoft avec MS Net : le nouveau système d’exploitation Windows 95 propose
certes le logiciel Internet Explorer pour le Web, mais aussi un réseau privé donnant accès à l’e-mail, à
des Newsgroups et à des services d’information (MSN Today) ou de recherche thématique sélectionnés
pour les utilisateurs. De même au lancement de Wanadoo par France Télécom au milieu des années 1990,
les hésitations sont évidentes entre d’une part un système de « vitrines interactives » avec des sites
préalablement sélectionnés - une offre spécifique qui n’a rien à avoir avec le Web, et d’autre part l’offre
simple d’accès à Internet et au Web, qui finira par s’imposer.
Le cas français attire aussi notre attention sur la progressive structuration d’un marché, encore timide au
milieu des années 1990, mais qui voit initialement cohabiter une multitude de fournisseurs d’accès à
Internet (FAI). Le paysage va se simplifier au profit de grands groupes à la suite du Comité
interministériel sur les « autoroutes et services de l’information » présidé le 16 octobre 1995 par
François Fillon, alors Ministre des Technologies de l’information et de la Poste. Il décide que chaque
Français pourra joindre son fournisseur d’accès à Internet au prix d’une communication locale, mettant fin
à la multiplication des FAI régionaux qui proposaient une offre de proximité à des utilisateurs qui
n’auraient eu aucun intérêt financier à se connecter à un FAI parisien (Rebillard, 2012). Le modèle de
tarification est lui aussi complexe entre tarification à l’abonnement et à la durée, alors que la bataille des
offres commence.
Enfin évoquons un dernier tournant important en terme de commercialisation de l’Internet parmi ceux
qui jalonnent la seconde moitié des années 1990 : la création controversée de l’ICANN en 1998, qui
prend en charge les noms de domaine (cf. encadré). Cette structure privée à but non lucratif basée à San
Diego a pour but d’allouer les plages d’adresses IP, de proposer et de gérer les extensions de nom de
domaine (internationales et nationales), et de coordonner treize serveurs de routage (onze Américains et
deux Européens). Deux éléments majeurs d’Internet sont ici centralisés : le mode d’adressage des
ordinateurs connectés et le système de nommage permettant d’associer un nom à une adresse IP
numérique[4]. L’ICANN est placée sous la tutelle directe du Département du Commerce américain.

Focus 1.3
De la gratuité à la marchandisation des noms de domaine
Alors qu’en 1993, la National Science Foundation avait signé un contrat avec Network Solutions,
Inc., pour gérer l’enregistrement de cinq des domaines supérieurs (ceux se terminant par .com, .org,
.net, .edu et .gov) et que l’enregistrement était gratuit, en 1995 l’entreprise Science Applications
International Corporation (SAIC) achète Network Solutions et renégocie son contrat avec la NSF
pour facturer des honoraires annuels pour l’enregistrement des noms de domaine. La controverse sur
l’attribution et la marchandisation des noms de domaine conduit à la création de l’ICANN, l’Internet
Corporation for Assigned Names and Numbers, en 1998, pour gérer ces questions de nommage et
d’adressage, l’attribution des noms étant ensuite déléguée à des registres. En effet, en 2000, juste
avant l’éclatement de la bulle Internet, SAIC vend le registre à Verisign, pour un bénéfice estimé à
3 milliards de dollars (Ceruzzi, 2012).

2 L’émergence du e-marketing et e-commerce


L’année 1995 est cruciale : cette année-là apparaissent officiellement les premières publicités sur des
sites marchands[5] et des sociétés comme Amazon, eBay et Yahoo!.

2.1 Publicités et sites marchands : entre enthousiasme et euphorie


Si dès 1995 Yahoo! fait place à la publicité, il est important de noter que les agences de publicité et de
marketing traditionnels étaient certes intriguées mais prudentes face au potentiel de la publicité en ligne.
La société DoubleClick engage en 1996 un tournant fondateur avec sa division BtoB, Poppe Tyson, une
des premières agences de publicité « traditionnelles » à proposer des sites Web d’entreprises et des
campagnes de publicité en ligne (notamment pour Hewlett Packard, Intel et les premiers sites Web
officiels de l’administration Clinton). Un accord avec Netscape, qui domine alors le marché des
navigateurs, permet à l’entreprise d’assoir son succès en proposant de vendre des espaces publicitaires
en échange d’une commission versée à Netscape (Crain, 2013).
Lors des premières heures de l’Internet grand public et du commerce en ligne sur la toile, on assiste à
une surenchère de prédictions et de prévisions fantaisistes. Des experts déclarent tour à tour la
disparition du guichet, du catalogue, du vendeur, voire même du magasin. Les apôtres de la « nouvelle
économie » envisagent des changements radicaux en particulier pour les entreprises, d’où la
généralisation du terme e-business (avec IBM), qui est finalement beaucoup moins répandu aujourd’hui
que celui d’e-commerce. Ces espoirs sont aussi relayés par le monde politique et les pays de l’OCDE
connaissent presque tous des plans destinés à développer ce que l’on appelle encore au milieu des années
1990 les « autoroutes de l’information ». Bill Clinton et Al Gore ne seront pas les seuls à les mettre
avant. Le rapport européen Bangeman comme celui de Gérard Théry en France (respectivement en 1994
et 1995) montre l’enjeu que deviennent ces « autoroutes de l’information » dans une période où la
dérégulation des télécommunications et la croissance de l’équipement informatique contribuent à susciter
l’intérêt des gouvernements. En 1998, Bill Clinton signe l’Internet Tax Freedom Act, un signal fort
envoyé par les États-Unis en faveur du potentiel marchand du Web.
Il faut ajouter que les débuts du commerce électronique sont marqués par des difficultés
méthodologiques, qui vont de la simple définition des nouveaux termes (internaute, compte-client,
internaute régulier, compte actif, etc.) aux techniques et indicateurs de mesure. En conséquence, les
chiffres très approximatifs diffusés par la presse et les cabinets d’étude entraînent une certaine confusion.
L’exemple du nombre d’internautes dans les années 2000 est symptomatique. Face au manque de
définition homogène de ce qu’est un internaute, les organismes (institut de sondage, INSEE, association
des fournisseurs d’accès…) proposent des chiffres qui vont du simple au double. Cet exemple illustre
d’ailleurs la nécessité de veiller scrupuleusement à l’emploi de concepts et termes clairs, et de bien
identifier la méthodologie employée lors des enquêtes, études et analyses qui abondent sur la toile.
L’apprentissage du e-commerce par les professionnels et par les consommateurs se fait ainsi
progressivement. Si l’année 1995 marque l’arrivée du « big four » (Amazon, eBay, Yahoo! et Expedia)
aux États-Unis, le démarrage est plus tardif en France. Il peut être mis en relation avec la frilosité des
prestataires de services qui ont connu la « poule aux œufs d’or » qu’est le Minitel. Si certains, à l’instar
de Xavier Niel (entreprise Iliad et son célèbre annuaire inversé sur Minitel, le 3617 Annu), Jean-David
Chalumeau (AlloCiné), et Denys Chalumeau (Seloger) se convertissent rapidement à Internet, beaucoup
sont conscients des difficultés à entrer dans un nouvel écosystème au modèle économique et de paiement
incertain (Thierry, Schafer, 2012).
Mis à part quelques exceptions comme Alapage, fondé en 1996, il faut attendre la fin des années 1990,
voire le début des années 2000, pour voir apparaître la plupart des e-commerçants d’aujourd’hui : iBazar
en 1998 (racheté en 2001 par eBay), Cdiscount en 1998 (filiale du groupe Casino depuis 2000), Aucland,
Kelkoo et RueDuCommerce en 1999, Pixmania et PriceMinister (racheté en juin 2010 par Rakuten : n° 1
du e-commerce au Japon et parmi les leaders mondiaux) et Assurland en 2000, année de lancement
d’Amazon, Vente-privée et Meetic en 2001. L’arrivée des cybermarchés intervient également à partir de
1999 avec Ooshop (Carrefour) puis Houra.fr, Cora, Telemarket, Auchandirect, etc. Du côté des
distributeurs traditionnels, Darty.fr est créé en 1999, Voyages-sncf.com en 2000.

2.2 Premiers pas et apprentissages pour le secteur


Les premiers problèmes et échecs rencontrés par les entreprises sont aussi l’occasion de premières
leçons. Ainsi, si les premiers managers en charge des problématiques de e-commerce sont historiquement
des hommes issus de l’informatique, du marketing et des systèmes d’information, les premières difficultés
rencontrées sont… logistiques. La complexité de la gestion des stocks et de la distribution en particulier a
été sous-estimée. Elizabeth Kimmerlin, directeur du e-business chez IBM résume cette problématique
ainsi : « store is virtual… ok, but stock is not! ». Amazon a pourtant montré l’exemple : l’entreprise n’a
pas cessé d’agrandir ses entrepôts et d’investir en logistique les premières années. Les difficultés des
premiers cybermarchands devant livrer quantité de packs de bouteilles d’eau et de couches sont typiques.
En bref, la logistique est fondamentale. Si la vente a lieu en ligne et que le client ne se déplace pas…
c’est au produit de le faire, et au marchand de l’organiser.
Le deuxième enseignement concerne la qualité des bases de données. Face au manque de
compréhension technique d’un grand nombre d’acteurs, notamment chez les partenaires financiers,
certaines jeunes pousses (start-up) se trouvent fortement valorisées alors qu’elles ne disposent que de
bases de données contenant des quantités certes impressionnantes d’e-mails mais dépourvues
d’informations plus précises sur les profils marketing associés et donc inexploitables. On sait depuis
qu’un individu possède plusieurs e-mails dont la plupart sont inactifs – et 16 comptes en ligne en
moyenne (ACSEL, Caisse des dépôts, 2013), et que l’exploitation d’une base de données clients est un
véritable défi à relever.
La conception de nouveaux business models est aussi progressive. La plupart des start-up ne
possédaient pas de « véritable » modèles d’affaires rentables (beaucoup reposaient sur la gratuité du
service auprès des internautes et surestimaient les retombées publicitaires). Enfin, et c’est une bonne
nouvelle pour le marketing et le e-commerce, la peur du paiement en ligne semble avoir été surestimée
(certains considèrent que les banques, inquiètes pour leur avenir face au développement des services en
ligne auraient participé à véhiculer cette crainte). D’ailleurs, si seulement 53 % des internautes déclarent
avoir confiance dans le e-commerce, cela ne les empêche pas d’acheter en ligne à 90 % et de recourir à
la banque en ligne à 88 % (étude ACSEL, Caisse des dépôts, 2013).
Alors que l’on peut estimer le nombre de sites Internet à 19 000 en 1995, un million deux ans plus tard,
10 millions en 2000[6], l’accessibilité et la visibilité deviennent des enjeux essentiels, qui reposent sur les
annuaires d’abord, dont Yahoo! fut un précurseur célèbre en 1994, faisant des émules comme Voilà lancé
en 1996 pour les francophones. Le modèle économique se caractérise alors par la gratuité pour les pages
personnelles et le paiement (élevé) pour les entreprises et professionnels (Faucilhon, 2010). La seconde
moitié des années 1990 voit peu à peu s’imposer les moteurs de recherche, qui donnent naissance à la
guerre du référencement, à des sociétés spécialisées dans ce secteur et à l’invention de multiples
solutions pour essayer de duper les robots d’indexation des moteurs de recherche, tandis que parmi eux
peu à peu celui de Google, créé en 1998, éclipse les Altavista, Lycos, et autres, grâce à un modèle de
référencement particulier : celui-ci ne repose plus sur l’exploration du contenu des pages, mais sur le
fameux PageRank qui évalue le nombre et la valeur de liens pointant vers un site Internet (cf. chapitre 7).
Alors que les entreprises font l’expérience de la course au référencement puis aux liens, un nouveau
contexte rend particulièrement difficile l’apprentissage serein des mécanismes du commerce électronique
et du e-marketing. En effet, lorsque les premières recherches académiques sont amorcées autour de
l’année 2000, la situation des sociétés spécialisées dans les NTIC devient très préoccupante car les
marchés financiers indiquent brutalement leur scepticisme comme le révèle l’effondrement du cours du
NASDAQ[7] entre mars 2000 et octobre 2001. On parle généralement de l’« éclatement de la bulle
Internet », pour qualifier cette bulle spéculative de la première génération des start-up et projets Internet.
Ainsi, aux difficultés inhérentes à l’étude et la compréhension du commerce électronique viennent
s’ajouter les turbulences du secteur, alors que dans le même temps se développe la recherche académique
en e-marketing et e-commerce.

Section 3 LA STRUCTURATION DU E-MARKETING ET E-COMMERCE

1 L’organisation de la filière : acteurs et métiers


Le e-commerce initialement présenté comme terrain de prédilection des start-up est aujourd’hui le
champ d’investigation d’acteurs très variés. On les distingue traditionnellement selon leur forme de
distribution et leur histoire. En synthèse, les « pure players » : nouveaux arrivants nés sur le Net ont une
activité commerciale exclusivement en ligne (ex. : : Amazon, eBay, RueDuCommerce, etc.) ; ils sont
parfois qualifiés de « pure click ». Les entreprises « click and mortar » ou « brick and click » sont des
distributeurs hybrides qui associent Internet aux canaux traditionnels (ex. : : Fnac, La Redoute, SNCF,
etc.) par rapport aux distributeurs traditionnels dits « brick and mortar » (i. e. composés de briques et de
mortier – ciment).
Après un engouement pour la stratégie « pure click » et le fantasme de « la fin des magasins » au début
des années 2000, la tendance est à l’hybridation : les « vieilles » entreprises peuvent de plus en plus
difficilement se passer d’Internet et d’anciens pure players ont ouvert des magasins et des points de
contact « physique ». Mais la formule est coûteuse et certains font marche arrière (ex. : : Pixmania).
À l’exception des Amazon, eBay ou Expedia (leader mondial des agences de voyage) qui occupent les
devants de la scène médiatique, les grands acteurs du e-commerce sont très majoritairement des
entreprises traditionnelles converties au click and mortar. Mais les pure players représentent bel et bien
l’essentiel du marché (en France en particulier où les pure players ont doublé leur part de marché durant
les années 2000 comme l’illustre la figure 1.1). En pratique, ce sont des micro-entreprises, le plus
souvent indépendantes. Un regard plus précis sur les modèles d’affaires permet de mieux comprendre les
stratégies des acteurs, leurs intérêts et limites dans le contexte actuel.
Source : Insee, enquête sur le commerce électronique 2004 et ESA 2011.
Figure 1.1 Évolution des parts de marché des acteurs du commerce électronique dans le secteur du
commerce de détail entre 2003 et 2011
Avant d’examiner plus en détail ces business models, retenons que des acteurs spécialisés et situés tout
au long de la chaîne de valeur interviennent pour épauler les e-commerçants. Ils peuvent prendre en
charge des missions spécifiques telles que :
la conception de site Web : de nombreuses sociétés spécialisées accompagnent et réalisent tout ou
partie des sites Web marchands (designers, développeurs, ergonomes spécialisés dans les interfaces,
etc.) ;
l’hébergement de site Web : il peut être réalisé en interne ou avec un prestataire spécialisé ; parfois,
les sociétés qui développent proposent aussi d’héberger même si cela devient plus rare ;
le référencement : le référencement est devenu un enjeu clé de l’e-marketing : il doit assurer
l’accessibilité et la visibilité du site sur les moteurs de recherche et les annuaires (cf. chapitre 7) ;
le paiement en ligne : des solutions sont proposées par les banques et des acteurs spécialisés (ex. :
Paypal, moneybookers, Paysite Cash, etc.) ;
l’affiliation, la publicité et plus généralement la communication en ligne : ces responsabilités
marketing sont assurées par des agences de communication spécialisées, des Web agencies et des
régies publicitaires (cf. chapitre 6) ;
l’e-mailing et la gestion de programmes promotionnels ;
la logistique (de l’approvisionnement à la livraison en passant par la gestion des stocks) ;
la gestion de la relation client (outils de CRM et marketing relationnel – programmes de fidélisation
et de personnalisation – cf. chapitre 4) ;
les études en ligne (cf. chapitre 8 et 9).
Des métiers encore plus spécialisés sont apparus ces dernières années (ex. : community management –
chapitre 2, analyse de logs et géolocalisation – chapitre 9) et d’autres apparaîtront sans nul doute. Cela
s’explique par le fait que l’e-marketing est très récent et par un double mouvement de forces opposées.
D’une part, les domaines sont de plus en plus techniques et spécialisés (Webdesign, ergonomie,
conception d’outils d’aide à la décision, « nommage » de site, data mining, affiliation, etc.). D’autre part,
la pratique du e-marketing implique des approches de plus en plus globales qui intègrent des compétences
dans des domaines de plus en plus variés.

2 L’e-commerce en quête de business models


Business models, business modèles, modèles économiques, modèles d’affaires… Que l’expression soit
anglo-saxonne, francophone ou mixte, l’émergence du e-commerce s’est accompagnée d’un emploi
généralisé de ce « concept » hybride qu’est le business model. Il s’agit essentiellement de concevoir la
chaîne de valeur, de préciser les sources de revenus et la rentabilité potentielle. De nombreuses
approches sont proposées par les spécialistes du e-commerce, selon l’angle de vue privilégié : financier,
technologique, stratégique, marketing… L’articulation plateforme technique/services associés est souvent
retenue par les médias. On parle ainsi de modèles de portail, d’annuaire, de site communautaire, de
comparateurs de prix, de site marchand, de réseaux socionumériques etc. Pourtant, cela n’indique en rien
les sources de revenus ou la chaîne de valeur. Lorsque Hagel et Armstrong (1999), alors consultants de
McKinsey, écrivent Net Gain et présentent le modèle des communautés virtuelles, par exemple, il s’agit
de fidéliser des catégories de population en leur offrant gratuitement une grande richesse d’information et
des possibilités d’échanges sur leur centre d’intérêt commun. La rentabilité provient alors de revenus de
publicité et de distribution liés à l’accès privilégié à une communauté très ciblée. Ils ne présentent donc
pas un business model de communauté virtuelle en tant que tel pas plus qu’il n’en existe un pour les sites
marchands ou les médias socionumériques.
Les économistes, industriels en particulier, se sont intéressés à la question des business models sur
Internet et à cette « nouvelle économie » (Malin et Pénard, 2010 ; Brousseau et Curien, 2007 pour une
analyse plus avancée). Isaac et Volle (2014) proposent également plusieurs typologies des modèles
d’affaires (cf. chapitres 1 et 2). L’approche consistant à définir les modèles du commerce électronique
sous l’angle de la médiation entre producteur, distributeur et consommateur est particulièrement adaptée
au marketing et s’inscrit bien dans l’analyse historique développée dans ce chapitre. On peut ainsi
distinguer quatre modèles : la désintermédiation, la réintermédiation, la rétromédiation et le modèle
multicanal. Mais avant de les présenter, revenons sur l’un des modèles les plus populaires et
controversés, celui de « la longue traîne ». Les modèles de gratuité et la proximité avec l’économie des
médias seront ensuite abordés.

2.1 Le modèle de la longue traîne ?


En faisant un classement décroissant des meilleures ventes, on observe généralement un marché
constitué par quelques produits leaders (tête) et par une infinité de niches (traîne). Le modèle de la
« longue traîne » (long tail) proposé par Chris Anderson, rédacteur en chef de Wired, dans un article[8]
(2004) puis développé dans un livre (2006) défend l’intérêt des multiples produits mal classés par
rapport aux quelques produits en tête des ventes, faisant écho à la loi des 20/80 de Pareto. Il s’agit de
tirer profit de cette infinité de produits mal classés puisqu’ils deviennent plus facilement rentables
commercialement grâce aux NTIC, explique-t-il. La longue traîne repose finalement sur une idée simple :
la baisse des coûts grâce aux TIC et à Internet en particulier (coûts de production, de distribution,
d’acquisition des clients, de promotion, de communication, etc.). Ce n’est pas la seule idée, mais elle est
centrale dans la thèse d’Anderson. Nous retenons en effet que le ciblage et la prospection de clients
intéressés par des thèmes très précis sont facilités sur Internet, grâce notamment aux forums spécialisés et
aux communautés en ligne (consacrés à une infinité de sujets) et à l’e-mailing, dont le coût est bien plus
faible que le marketing direct traditionnel. Mais il faut aussi noter qu’Anderson retient essentiellement
des exemples issus des industries de la culture (musique, cinéma, édition de livres, etc.) où les produits
sont numérisables et donc facilement distribuables en ligne. Toutes les industries ne peuvent bénéficier de
la même façon de la numérisation, de la dématérialisation et de la distribution en ligne.

2.2 Les médiations au cœur des business models


La désintermédiation est « le » modèle que tous les pionniers envisagent dès l’origine du e-commerce.
L’idée centrale est très claire : Internet va permettre de supprimer un grand nombre d’intermédiaires et de
faire beaucoup plus de vente directe (suppression de distributeurs notamment). Les principes associés
renvoient à la fabrication à la commande, à l’achat en flux tendus et au stock zéro (ou faible), entrainant
une réduction des besoins en fonds de roulement (BFR) et des invendus – en particulier lorsque le
paiement s’effectue dès la commande ce qui est le plus fréquent.
L’entreprise Dell est la figure de proue de ce modèle de désintermédiation. L’ouvrage Direct from Dell
(1998) qui présente la « recette » de vente directe pour les producteurs et qui fît le succès de l’entreprise
auprès du grand public est ainsi la référence en la matière. Mais on notera que Dell a effectué un virage
stratégique important en 2007 et a abandonné, entre autres, son principe de vente directe (cf. encadré). Si
le principe est séduisant, en définitive, très peu d’entreprises ont pu suivre ce modèle même si des
secteurs comme l’informatique ont été profondément marqués par la désintermédiation. Sa mise en œuvre
est en effet très complexe. Elle implique :
une infrastructure très spécifique (supply chain), coûteuse et sophistiquée ;
une marque forte puisque le client doit directement aller sur le site du producteur ;
des achats à forte valeur ;
un avantage de prix pour le client (ex. : Dell a supprimé les coûts liés aux intermédiaires et
proposait des produits hi-tech pour le même prix).

Cas d’entreprise
Dell 2007 : un virage stratégique
Alors que Dell était parvenu à devenir numéro un mondial parmi les constructeurs d’ordinateurs avec
un modèle de désintermédiation, celui-ci finit par atteindre ses limites. En 2007 la société perd sa
place de leader mondial du marché des PC au profit de Hewlett-Packard. De retour à la direction de
la société, le fondateur Michael Dell impose un virage stratégique majeur.
Afin de se développer sur le marché grand public, Dell adopte le principe de la vente indirecte et
signe plusieurs accords de distribution avec des grandes chaînes de magasins tels que Wal-Mart aux
États-Unis, Tesco en Grande-Bretagne, Gome en Chine ou Carrefour en France. Une partie de la
production est délocalisée : des usines sont ouvertes en Asie. La conception du système de
production et la chaîne logistique sont entièrement modifiées. Dell abandonne son système de
production en flux tendus et décide, contrairement au modèle initial, de fabriquer à l’avance, de
constituer des stocks, et en conséquence de gérer de nouvelles relations avec ses distributeurs
(promotion, invendus…).
Source : Dell.fr.

La réintermédiation correspond à la création de nouveaux intermédiaires le long de la chaîne de valeur.


Alors que tous les experts envisageaient une vague massive de désintermédiation, la réintermédiation a
été la source de multiples innovations. C’est en effet le modèle privilégié d’un grand nombre de start-up
dès la fin des années 1990. De nombreux sites se situent ainsi entre le client et le producteur ou entre le
client et le distributeur, faisant apparaître un nouvel intermédiaire. Cette nouvelle intermédiation peut
prendre plusieurs formes :
la mise en contact d’acheteurs et de vendeurs (ex. : Le Bon Coin, eBay, les portails tels que Yahoo
shopping, les galeries marchandes, places de marché[9], les sites d’achat groupé tel que Groupon, de
courtage en ligne pour l’assurance, l’immobilier, les voyages – ex. Priceline) ;
l’agrégation de l’offre et de la demande (ex. : sites comparateurs tels que Kelkoo, MonsieurPrix,
LeGuide, Acheter-moins-cher, Twenga…) ;
des labels de confiance et de garantie (ex. : Verisign) ;
des services : service de cotation des vendeurs sur eBay, service de boutique professionnelle pour
les vendeurs (sur PriceMinister également) ; services de paiement (ex. : Paypal, Paybox).
Le terme « infomédiaires » est souvent employé pour qualifier les intermédiaires qui apportent ou
gèrent de l’information utile à la relation marchande (grâce à des labels, de la gestion de données, des
comparaisons…).
On parle de rétromédiation quand le producteur devient l’intermédiaire entre le client et le distributeur.
Le producteur (ex. : constructeur automobile) établit un contact direct avec le client grâce à un site Web
de marque. Il offre des informations sur les produits, des conseils et peut développer des actions
marketing en ligne (fidélisation, promotion, etc.) mais ne propose pas de vente directe. Il renvoie vers les
points de vente (magasins réels ou sites Web). Ce sont bien les distributeurs qui réalisent la transaction
finale. C’est typiquement le cas de Renault, qui sait qu’une présence affirmée en ligne est indispensable
(qui achète encore une voiture sans rechercher des informations sur Internet ?) mais ne souhaite pas
vendre directement sur son site Web. Le site sert à renforcer le réseau et il n’y a pas de conflit avec les
concessionnaires. Levi’s, qui avait initialement tenté de vendre directement en ligne, s’est aussi inscrit
dans cette stratégie pour éviter les conflits avec ses distributeurs, avant de finalement revenir à la vente
en ligne.
Une forme dérivée peut également être proposée par les distributeurs afin d’assurer une présence sur
Internet, devenue cruciale, et renforcer le lien avec la clientèle. La démarche peut d’ailleurs s’inscrire
dans une stratégie collective comme l’illustre le site Web Lalibrairie.com qui regroupe 1 500 libraires
indépendants et propose un catalogue de plus d’un million de références. Si la commande et le paiement
s’effectuent bien en ligne, le client devra ensuite se rendre dans la librairie partenaire la plus proche pour
retirer le livre commandé.
Le modèle multicanal correspond à la vente par Internet et par d’autres canaux. Il s’agit en fait d’une
vaste famille de modèles où peuvent être associés vente en magasin, par correspondance (VPC), en porte-
à-porte, par Internet… Compte tenu de l’investissement financier et organisationnel d’une telle stratégie,
l’entreprise doit chercher à accroître le service aux clients, fidéliser, recruter de nouveaux clients et
développer des ventes : il s’agit d’une stratégie de développement et de croissance. Mais il ne suffit pas
d’additionner les canaux. Il faut penser et gérer leur complémentarité, leurs synergies et prévenir les
risques de conflit et de cannibalisme entre canaux de distribution. La cohérence du marketing mix
(notamment des prix) au sein des différents canaux peut se révéler difficile à maitriser. Tous les secteurs
d’activité sont concernés par ce modèle, de la VPC (ex. : La Redoute, acteur majeur de l’e-commerce en
France) aux Cybermarchés (Houra avec Cora, Ooshop et Boostore avec Carrefour, Auchandirect – cf.
Supermarche. tv pour une comparaison), en passant par les médias (presse, télévision – ex. : Le Monde,
TF1, M6) ou la distribution (ex. : Fnac). Les dernières années du e-commerce indiquent clairement que le
comportement des clients est lui-même résolument multicanal et qu’ils attendent une qualité de service
équivalente dans tous les points de contact online et offline (cf. chapitre 8).

2.3 Gratuité(s), freemium et économie des médias


Sur Internet, la gratuité est la norme : tel est l’adage communément répandu, ce qui n’est pas fait pour
faciliter le commerce en ligne. À moins d’intégrer la gratuité comme élément du business model lui-
même. C’est l’idée provocante et stimulante de l’ouvrage Free! de Chris Anderson (2009), où il pointe
les enjeux d’une économie sur Internet qui pratique souvent un « prix radical » : gratuit pour les
internautes-consommateurs. Partant de cette contrainte, la rémunération doit provenir d’autres sources. En
considérant ce « marché », il rappelle en fait une des questions centrales du marketing mix : qui paye
quoi ? (et à qui ?), sachant que les internautes sont de plus en plus habitués à la gratuité de l’usage (ex. :
Google, Facebook, MSN, etc.). Il faut aussi signaler l’analyse proposée par Bomsel (2007) sur le
déploiement de l’économie numérique dans un contexte de gratuité. Il associe avant tout la gratuité à
« l’effet de réseau » : l’utilité des innovations numériques croît avec le nombre d’utilisateurs. Bomsel
explique ainsi la course effrénée d’un grand nombre d’entreprises afin d’atteindre au plus vite une taille
critique (l’exemple des médias socionumériques s’inscrit bien dans cette logique). Il s’agira ensuite de
rentabiliser cette audience, mais la première conquête est bien organisée autour de la gratuité. Bomsel
voit dans cette approche économique une nouvelle étape où le « gratuit » se substitue aujourd’hui au
« moins cher » à l’époque du fordisme.
Le succès de plateformes socionumériques comme LinkedIn ou Viadeo a également participé à des
formules hybrides qualifiées de freemium[10]. Il s’agit de combiner les avantages d’une offre gratuite pour
le plus grand nombre, typique de l’économie des médias (l’audience générant des revenus publicitaires),
et des services supplémentaires dits premium qui seront alors payants. L’objectif est alors de diversifier
les sources de revenus. Historiquement, rappelons que la recherche d’une large audience afin de générer
des revenus à travers la publicité n’est pas née avec les médias socionumériques. Ni même avec la
télévision ou la radio. La presse bon marché, financée par la publicité afin de réduire le prix des
abonnements, apparaît en France vers 1840. Il s’agit, déjà, de diversifier les sources de revenus.

Cas d’entreprise
Le business model de Viadeo
Entretien (extrait) avec Olivier Fecherolle, directeur général de Viadeo France et responsable
marketing Europe
« – Pouvez-vous présenter Viadeo et son modèle d’affaires ?
– Tous les lecteurs doivent déjà connaître et j’espère être inscrits sur Viadeo ! Je vais donc tout de
suite vous parler de notre business model. Il est assez équilibré, par rapport à d’autres réseaux
socionumériques, avec d’un côté des abonnements premiums qui représentent 50 % des revenus. Ici,
nous nous appuyons sur un modèle freemium typique de l’économie Internet d’aujourd’hui : une
inscription gratuite, un premier niveau d’usage gratuit et un niveau d’usage supérieur
avec fonctionnalités réservées aux membres qui souscrivent un abonnement payant. D’un autre côté,
50 % des revenus proviennent du BtoB avec d’une part, la publicité – nous disposons d’une régie
intégrée à destination des annonceurs - et d’autre part, les recruteurs. Nous proposons la publication
d’offres d’emplois et l’identification de profils, de talents, de compétences sur la base de données
Viadeo. À titre de comparaison, les revenus de LinkedIn proviendraient essentiellement
d’abonnements des membres et des recruteurs. »
Source : Stenger T., Coutant A. (2013), « Les sites de réseaux sociaux professionnels au service
du marketing : le cas Viadeo, Communication & Organisation, 43, 283-289.

Quel que soit le business model retenu, les revenus peuvent provenir de la publicité, du sponsoring,
d’alliances qui conduisent à partager les coûts, d’un système d’adhésion ou d’abonnement, de la
constitution de bases de données avec la revente ou la location à des tiers d’informations accumulées, de
la vente d’informations, de commissions sur les transactions (en particulier dans les ventes CtoC), des
orientations vers d’autres sites Web, de l’affiliation… et bien sûr de la vente de produits ou services en
ligne.
Cette variété des sources de revenu pourrait être la clé pour les entreprises d’e-commerce car, en
période de crise économique, la seule activité de vente de produits en ligne semble difficilement
permettre d’atteindre l’équilibre. On observe ainsi un glissement des business models du commerce vers
les modèles hérités de l’économie des médias (presse, radio, télévision, etc.) focalisés sur l’audience
(source de revenus publicitaires). Les poids lourds du secteur ne sont pas exempts puisqu’ils sont de plus
en plus nombreux à « monétiser » leur trafic auprès de sites tiers (ex. : Amazon, PriceMinsiter,
CDiscount…) – certains comme RueDuComemrce ont intégré leur propre régie publicitaire – et même
leurs données clients. Notons d’ailleurs que le nombre de visiteurs uniques (VU) demeure un des critères
majeurs – si ce n’est le critère – de l’économie Internet. La rentabilité des sites marchands reste toutefois
un sujet délicat ; il est bien difficile d’obtenir des informations détaillées même si certaines entreprises
communiquent volontiers sur leurs bénéfices (ex. : CDiscount, Vente privée, etc.).

3 E-marketing et e-commerce : le développement d’un champ de


recherche
E-marketing et e-commerce constituent un champ managérial tout à fait nouveau et un champ
académique encore plus récent. Les modèles, théories et outils émergent donc progressivement depuis une
dizaine d’années. Indépendamment des travaux en informatique et télécommunications, axés sur les
infrastructures et la sécurité, c’est l’an 2000 qui ouvre véritablement en France la voie aux recherches en
sciences de gestion dans le domaine du e-marketing et e-commerce. Les travaux proviennent
essentiellement de la communauté marketing et du management des systèmes d’information.
Décisions Marketing est une des revues les plus prolixes dans le domaine y compris au niveau
international (Vernette, Dubois, 2001). Elle consacre régulièrement des articles à Internet et au marketing
en ligne depuis 1996. Le premier numéro spécial est publié en 2000. Celui de Recherche et Applications
en Marketing paraît un an plus tard. L’introduction de ce dernier numéro présente d’ailleurs un panorama
très complet de la recherche en e-markering en 2001 (cf. Vernette, Dubois, 2001). La Revue Française du
Marketing publie un double numéro « Marketing et Internet » cette même année et la revue Systèmes
d’information en Management entame l’année 1999 avec un numéro consacré à Internet et 2000 avec un
numéro thématique sur le commerce électronique[11]. Aux USA le Journal of Direct Marketing devient le
Journal of Interactive Marketing dès 1998 ; le premier numéro spécial de Marketing Science paraît en
2000. Les revues consacrées à la publicité.
L’organisation d’associations académiques et de conférences spécialisées commence également autour
des années 2000. L’International Conference on Electronic Commerce est créée en 1998 ; en Europe, la
Bled eConference regroupe chaque année depuis plus de vingt ans un public très varié (chercheurs,
praticiens, etc.). En France, les « journées de recherche en e-marketing » sont créées en 2002[12]. Elles ont
lieu chaque année au début du mois de septembre. De façon plus générale, les associations de marketing
et de management des systèmes et technologies de l’information accordent une place sans cesse croissante
aux questions de marketing en ligne et d’e-commerce.
S’il est essentiel de suivre les publications dans les principales revues de marketing et de management
des systèmes et technologies de l’information, la littérature en sociologie et en sciences de l’information
et de la communication est également importante dans ce domaine et riche d’enseignements. Enfin, on
notera la création de revues spécialisées, en langue anglaise essentiellement (encadré), qu’il faut suivre
avec attention.

Focus 1.4
Sélection de revues scientifiques spécialisées e-marketing et e-
commerce
De façon non-exhaustive, signalons l’existence des revues :
International Journal of Electronic Commerce : créée dès 1996, revue de référence en e-commerce
focalisée sur le management des systèmes d’information ;
Journal of Interactive Marketing : ex-Journal of Direct Marketing (créé en 1987), devenue
Journal of Interactive Marketing en 1998 ; revue la plus marketing ;
Electronic Markets : revue pluridisciplinaire créée en 1991 ;
Electronic Commerce Research and Applications : revue généraliste créée en 1998 associée à
l’International Conference on Electronic commerce.
De nombreuses revues, moins connues, proposent également des articles intéressants tels que :
Journal of Electronic Commerce Research, revue généraliste créée en 2000, International Journal
of Electronic Marketing and Retailing, créée en 2006, spécialisée en e-marketing, International
Journal of Electronic Business, créée en 2003, qui aborde plus largement l’e-business, Internet
Research, créée en 1991, etc.
Enfin, on ne peut conclure sans citer First Monday, créé en 1995 : revue très populaire et
commentée dans le monde de l’Internet ; une des toutes premières revues en ligne à comité de lecture
consacrée à Internet.
Moins centrées sur les problématiques managériales et marketing, les revues de communication sont
néanmoins très intéressantes pour les praticiens, étudiants et chercheurs en e-marketing et e-
commerce. Notamment le Journal of Computer-Mediated Communication, revue pionnière (1995)
dédiée aux problématiques de la communication médiatisée par ordinateur et, en français, les revues
Réseaux, Hermès, Les Enjeux de l’information et de la communication, Communication, Les
Cahiers du Numérique, TIC et Société, RESET (Recherches en Sciences Sociales sur Internet)
consacrent régulièrement des articles aux usages d’Internet et au e-commerce.
Les sites et blogs d’experts, de cabinets de conseil sont extrêmement nombreux. Si leur discours est
nécessairement intéressé, ils n’en demeurent pas moins une source intéressante pour appréhender les
sujets et technologies du moment. Les technophiles suivront notamment le site du magazine Wired créé en
1993 par Chris Anderson et consacré aux nouvelles technologies dans la société et le blog de la société
TechCrunch (dont une version existe en français) créé par Michael Arrington. En France, InternetActu
propose des articles sur les sujets les plus actuels et des analyses intéressantes relayant souvent les
recherches académiques récentes. Le site JournalDuNet offre également des articles et documents
instructifs. Il existe aussi de nombreux sites Web et blogs consacrés à la pratique du e-marketing et du e-
commerce et quelques-uns dédiés à la recherche et l’enseignement (notamment le blog livre-
ecommerce[13], le blog Technologies du Marketing[14] et bien sûr les blogs des auteurs de ce livre).

Section 4 TENSIONS DANS L’ÉCOSYSTÈME INTERNET

Si les usages marchands de l’Internet se sont développés à partir des années 1990 et ne font plus débat
en tant que tels, la tension entre les débuts de l’Internet, non marchands, plutôt pair-à-pair (Musiani,
2013) et le développement d’un réseau aujourd’hui fondé sur un modèle plus vertical, client/serveur,
l’importance de l’économie numérique et de la convergence des médias, le succès retentissant de Pure
Players, n’a pas disparu. Cette tension se manifeste au travers de controverses qui dépassent les seules
rubriques de la presse spécialisée pour toucher au politique et au social (Faucilhon, 2010). Évasion
fiscale, guerre des brevets entre géants des technologies, critique de l’entonnoir « Google » (Gallezot et
Simonnot, 2009) qui s’étend sur la toile, des « jardins privés » et « silos d’enfermement » que créent
certaines entreprises comme Facebook ou Apple, faiblesse de « l’Union européenne, colonie du
numérique » des États-Unis pour reprendre la formule de la sénatrice Catherine Morin-Desailly dans son
rapport de 2013, expansion de « la grande muraille électronique chinoise », scandale de la NSA,
surveillance des internautes et revente ou exploitation de leurs données personnelles à différentes fins…
Les sources de tensions sont nombreuses. Parallèlement continuent de se développer sur le Web des
formes alternatives de cultures et de gouvernance, prônant la transparence, l’ouverture (mouvement
d’open data, open science…), la culture du « libre » (qui dépasse le simple cas du logiciel libre) ou
encore le participatif et le collaboratif, à l’instar de Wikipedia (Masutti, Paloque-Berges, 2013).

1 La gouvernance et la régulation de l’Internet en question


L’Internet a impliqué de repenser la régulation, la place des États mais aussi les modes de gouvernance
d’une technologie qui dépasse le simple média de diffusion et qui, par son caractère complexe, à la fois
transnational mais aussi aux frontières de plusieurs industries, soulevait des questions inédites. Dès son
origine Internet s’est placé en marge des organismes de normalisation traditionnels du monde des
télécommunications et de l’informatique (International Organization for Standardization, Union
internationale des télécommunications, etc.), et a mis en place ses propres structures d’échanges et de
coopération. En particulier dès 1969 à l’initiative de pères fondateurs de l’Internet, Jon Postel et Steve
Crocker, sont nées les Request for Comments, listes d’échanges coopératives autour de spécifications
techniques ouvertes qui ont forgé la culture technique de l’Internet[15].
La volonté de se situer dans des formes d’organisation nouvelles, reposant sur les communautés
techniciennes est poursuivie jusqu’à aujourd’hui par plusieurs instances nées au fil de l’histoire de
l’Internet, parmi lesquelles l’ICANN pour les noms de domaine, mais aussi l’IETF (Internet Engineering
Task Force) pour les aspects plus techniques ou, dans le domaine du Web, le World Wide Web
Consortium (W3C). Ce choix d’instances dédiées ne s’est pas fait sans oppositions : la création de
l’ICANN, à laquelle on reproche sa proximité avec le Département du commerce américain ou le poids
qu’elle a accordé à l’entreprise Verisign dans le commerce rémunérateur des noms de domaine, ne cesse
de faire l’objet de critiques, qui visent également la place des États-Unis dans la gestion de ces
ressources critiques et stratégiques. Certains pays, en particulier les BRICS (Brésil, Russie, Inde, Chine),
voudraient voir la gouvernance de l’Internet passer à une instance internationale sous l’égide de l’ONU,
l’Union internationale des télécommunications. Celle-ci s’est illustrée notamment en organisant en 2003
et 2005 le Sommet mondial de la société de l’information, qui a vu beaucoup de débats se concentrer sur
Internet et sa gouvernance, définie à cette occasion comme « l’élaboration et l’application par les États,
le secteur privé et la société civile (chacun à son niveau et selon son rôle) de principes, de normes,
règles, procédures de prises de décisions et programmes communs propres à modeler l’évolution et
l’utilisation de l’Internet » (Rapport du groupe de travail sur la Gouvernance de l’Internet au SMSI,
1er août 2005, p. 3).
Cette définition reconnaît clairement la place de la société civile et des États dans l’Internet : celui-ci
ne peut être uniquement affaire de techniciens ou d’entreprises (Massit-Folléa, 2012). À cette fin a été
notamment établi l’Internet Governance Forum qui nourrit de riches discussions, à défaut de voir celles-
ci toujours réellement prises en compte, tandis que l’ICANN s’est ouverte davantage aux États, en créant
le GAC (Governement Advisory Board) qui confère un peu plus de poids aux gouvernements. Ceux-ci
n’ont pas vu arriver l’Internet sans tensions, et ils se sont interrogés sur le rôle qu’ils devaient tenir en
matière de régulation d’un « réseau des réseaux » qui dépasse les frontières, pose de redoutables enjeux
de sécurité mais aussi juridiques et politiques.
La France, par exemple, affronte plusieurs difficultés dans la seconde moitié des années 1990 en
matière de responsabilités juridiques, qu’illustrent deux exemples : la condamnation de l’hébergeur de
pages personnelles Altern après une plainte d’Estelle Halliday en raison de photographies dénudées
d’elle-même qui circulaient sur le Web. La justice fait le choix de condamner la société d’hébergement et
non l’internaute qui a diffusé les photos sur ses pages. La vente d’objets nazis sur le Web déclenche
également l’affaire Yahoo! au tournant des années 1990-2000. La complexité juridique, fiscale, le projet
de taxe Google, Hadopi et bien d’autres cas récents témoignent des tâtonnements en matière
d’encadrement d’Internet et de l’imbrication des échelles décisionnelles. La question qui se joue
aujourd’hui autour de la neutralité de l’Internet apparaît à ce titre centrale et symptomatique.

2 La neutralité de l’Internet et la répartition de valeur dans la chaine


Internet
Forgée en 2003 par Tim Wu, la notion de « neutralité de l’Internet » porte en elle un condensé des
tensions qui traversent aujourd’hui l’Internet (Musiani, Schafer, Le Crosnier, 2013). Alors que les Pays-
Bas ou la Slovénie ont inscrit la neutralité de l’Internet dans la loi, que le Brésil l’affirme en mars 2014
dans le Marco Civil da Internet, qualifié de « Bill of Rights » de l’Internet, la France discute, au
Parlement, au Secrétariat à l’économie numérique, au Conseil national du numérique ou encore à l’Arcep
de cette nécessité, et ce depuis maintenant trois ans. Il faut reconnaître que la question est loin d’être
simple et des affaires récentes ont illustré certains de ses enjeux, en particulier ce que l’on a appelé le
Free Adgate ou encore l’affaire Orange versus Cogent (cf. encadré).

Cas d’entreprise
Le Free Adgate et l’affaire Orange/Cogent : économie et neutralité de l’Internet
Dans le premier cas, au début 2013, Free prenait la décision, à la faveur de la mise à jour de sa
Freebox, de bloquer les publicités émanant de certains fournisseurs de contenus, en particulier
Google, avec qui Free est en conflit sur des questions d’échanges de trafic qui touchent à YouTube.
En effet, Free reproche à Google de lui envoyer des flux entrants à transporter vers ses internautes
extrêmement consommateurs en bande passante, sans pour autant l’aider à financer les infrastructures
qui seraient nécessaires pour assurer dans de bonnes conditions ce transport.
Un problème à peu près similaire sur le fond était soulevé l’année précédente par l’affaire Cogent
contre Orange, tranchée par l’Autorité de la Concurrence Française, de manière inédite, en faveur
d’Orange : l’entreprise nationale ralentissait le trafic que Cogent, opérateur de transit (i. e. un
transporteur de flux), lui apportait, en particulier le trafic lié au site de téléchargement MegaUpload
(fermé depuis pour violation des lois sur le copyright). La raison était là encore l’existence d’un flux
fortement asymétrique, beaucoup plus important dans le sens Cogent – Orange, que dans le sens
Orange – Cogent, qui justifiait selon Orange une compensation financière de la part de Cogent. Or,
l’échange de trafic est en général fondé sur des bases gratuites (accords de peering) quand les flux
sont relativement équilibrés dans les deux sens.
Dans les deux cas évoqués ici, les opérateurs nationaux posaient la question du financement des
infrastructures, arguant qu’ils doivent transporter des flux de plus en plus importants dont ils
supportent les coûts, sans que les fournisseurs de ces contenus lourds (vidéo, etc.) ne participent. La
neutralité de l’Internet est donc ici clairement posée sous l’angle du modèle économique global de
l’Internet.

Au cœur de la question de la neutralité, il y a donc celle du financement des infrastructures et de la


chaîne de valeur Internet. Mais la question va plus loin que le seul problème économique : en effet la
neutralité de l’Internet postule que tous les paquets de données doivent être traités de façon équitable et
sans discrimination. En bloquant les publicités de Google, Free portait atteinte d’une part à la neutralité,
car les publicités sont des contenus, mais aussi aux intérêts de beaucoup de fournisseurs de contenus, et
pas du seul Google, qui s’appuient sur la publicité pour se rétribuer. Mais au-delà, les atteintes à la
neutralité de l’Internet ouvrent la brèche à des discriminations de contenus qui, si elles ont des
motivations économiques dans les affaires que l’on a vu éclater en France récemment, peuvent aussi avoir
des motivations sociales et politiques et porter atteinte à la liberté d’expression sur Internet, engendrer
une deep packet inspection systématique ou encore des accords entre fournisseurs de contenus et FAI
pour favoriser, en échange de marges arrière, le transport de certains contenus plutôt que d’autres
(Curien, Maxwell, 2011). Certains s’inquiètent d’ailleurs que les ruptures de neutralité ne soient pas
cantonnées à la couche transport de l’Internet mais atteignent aussi les applications, alors que des réseaux
socionumériques enferment les utilisateurs dans leur monde, sans leur permettre d’exporter leurs données
aisément, qu’Apple met en place un système parfois dénoncé comme quasi-monopolistique et fermé, etc.
(Schafer, Le Crosnier, 2011).
La question de la neutralité est aujourd’hui discutée dans de multiples arènes, à la Federal
Communication Commission aux États-Unis, au niveau judiciaire, au parlement français avec un projet de
loi (rejeté) en 2010, en ligne avec des consultations publiques en France et au niveau européen dès 2010,
à l’Arcep, dans les organisations de la société civile qui militent pour ou contre l’inscription de la
neutralité de l’Internet dans la loi ou son application, à l’instar de la Quadrature du Net en France qui lui
est favorable ou de son rejet par le groupe Hands off the Internet aux États-Unis.

3 Protection des données et de la vie privée, droit à l’oubli


Fuite de documents diplomatiques organisée par Wikileaks, surveillance de la toile par la NSA via son
outil XKeyscore, poubelles « intelligentes » relevant les données des smartphones dans les rues
londoniennes à la faveur des Jeux olympiques… Les affaires qui interrogent la protection des données,
leur exploitation, leurs fuites sont régulières et soulèvent plusieurs enjeux majeurs qui ne sont pas sans
conséquence dans le domaine du e-commerce, du e-marketing, en particulier à travers la question de
l’acceptabilité de ces pratiques par les consommateurs (Dumoulin, Lancelot-Miltgen, 2012).
L’exemple très récent du développement des big data (masses de données) est à cet égard intéressant :
des opérateurs britanniques ont lancé Weve, un groupement d’entreprises, pour vendre les données de
leurs utilisateurs et SFR a annoncé la commercialisation prochaine de ses données géolocalisées,
anonymisées, renseignant les entreprises sur la fréquentation d’un lieu. La banque Barclays se réserve
quant à elle le droit de vendre un agrégat d’informations à propos de ses utilisateurs à d’autres
entreprises à partir d’octobre 2013, tout en soulignant que ces informations seront quantitatives et non
personnelles, et ne permettant pas l’identification de l’internaute… sur leur seule base, ce qui n’exclut
pas la possibilité de croisements. C’est d’ailleurs à des croisements et agrégations d’informations
éparses qu’est dédié Graph Search, le nouveau moteur de recherche de Facebook, capable de recouper la
quantité colossale d’informations et de traces laissées par l’internaute (ou par d’autres à son sujet).
Les « nouveaux » business models sur Internet qui reposent souvent sur un service gratuit pour
l’utilisateur et la recherche d’une large audience pour séduire les annonceurs ne s’opposent-ils pas de
facto au respect de la vie privée des utilisateurs ? Des travaux récents posent clairement cette question et
constatent que les sites avec une forte audience sont plus enclins à adopter des stratégies intrusives
(Cecere, Rochelandet, 2012 ; cf. également Pras, 2012 et le numéro spécial de la Revue française de
gestion « entreprise et vie privée »).
La protection des données personnelles et la thématique du droit à l’oubli font actuellement l’objet
d’une réflexion, notamment au niveau européen, alors que le Parlement examine un nouveau règlement. En
effet la question ne s’inscrit pas dans un vide juridique puisque dès 1995 une directive européenne avait
énoncé plusieurs principes, parmi lesquels la nécessité d’informer et de recueillir le consentement de
l’internaute, l’interdiction de collecter des informations touchant à l’orientation religieuse, sexuelle, etc.,
des internautes. Toutefois l’actualisation et la refonte des dispositions sont réclamées par ceux qui
s’inquiètent de l’inflation des données recueillies. Privacy by design (possibilité de retirer son
consentement à tout moment), opt in (consentement explicite) plutôt que opt out (possibilité de s’opposer
explicitement au recueil et sinon accord par défaut). Ce règlement est à la fois encouragé par exemple par
« Le Manifeste des chercheurs » (www.dataprotection.eu), mais aussi critiqué par des lobbies
commerciaux et de manière plus inattendue par l’association des archivistes français, qui souligne les
risques de disparition d’une partie de la mémoire des individus et sociétés. Droit à la mémoire versus
droit à l’oubli : le débat est pour l’instant loin d’être tranché. Il n’empêche pas pour autant la vigilance,
notamment de la Commission nationale informatique et libertés françaises (CNIL). Celle-ci, créée en
1978, remplit un rôle à la fois d’éducation, d’information, de protection et d’accompagnement des
citoyens mais aussi de contrôle, de sanction et de contribution à la régulation internationale : elle a ainsi
en 2012 reçu 6 017 plaintes et 3 682 demandes de droit d’accès indirect et prononcé 43 mises en
demeure et 4 sanctions financières[16]. Elle a en outre mené en 2012 un audit des règles de confidentialité
de Google, mandaté par le groupe des CNIL européennes (G29) et, dès l’automne 2011, ouvert un
chantier prospectif « Vie privée à l’horizon 2020 » : la dictature des algorithmes, la donnée au cœur des
modèles d’affaire, les nouvelles formes de régulation de demain… Les enjeux soulignés par le rapport
démontrent la pluralité et l’importance sociale et économique de ces questions.

EN CONCLUSION
L’histoire d’Internet depuis sa création par une communauté de scientifiques a déjà connu
plusieurs bouleversements. Après les premières expérimentations dans les années 1960 et les
prémisses d’Arpanet en 1969, puis les premières interconnexions de réseaux dans les années
1970, ce sont l’invention du Web et des premiers navigateurs qui permettent l’arrivée du grand
public sur la toile au milieu des années 1990. L’ouverture du Web au grand public coïncide
avec les débuts de la publicité et des sites marchands à partir de 1995.
Près de vingt ans après les premiers sites marchands, e-commerce et e-marketing se situent
dans un contexte radicalement différent avec près de 3 milliards d’internautes dans le monde
fin 2014 soit 40 % de la population mondiale[17]. La croissance du e-commerce est continue,
malgré les fluctuations des marchés financiers, et le nombre d’acheteurs en ligne (34 millions
en France) et de sites marchands (plus de 138 000 en France) progresse année après année.
Pourtant, la part du e-commerce vis-à-vis du commerce traditionnel reste faible, même dans
les pays les plus avancés sur le sujet. Mais limiter le rôle du e-commerce et du e-marketing au
simple montant des ventes en ligne serait très réducteur car il faut avant tout considérer
qu’Internet est consulté par 9 internautes sur 10 avant de réaliser un achat, que celui-ci ait
ensuite lieu en ligne ou offline (Fevad, 2013). La recherche en ligne avant d’acheter en
magasin est devenue la norme. Le rôle d’Internet et du e-marketing est donc à examiner tout
autant vis-à-vis du e-commerce que du commerce traditionnel. La place des terminaux mobiles
dans ce contexte – tablettes, comme téléphones mobiles (dont le nombre atteint 7 milliards en
2014 !) est croissante.
L’évolution des modèles d’affaires a pris en compte ce phénomène pour ne plus se limiter à la
vente en ligne et pour proposer une grande variété d’informations, d’évaluations, de
comparaisons, d’outils et de services complémentaires pour le commerce en général.
L’articulation multicanal de la vente et des processus d’achat est au cœur des problématiques
des praticiens et chercheurs spécialisés.
Par ailleurs, les défis actuels du e-marketing ne se limitent plus aux sites marchands. Ils
concernent de façon plus globale la présence des marques sur le Web – notamment sur les
médias socionumériques où les internautes sont de plus en plus nombreux. La question de la
participation des internautes à l’ensemble de la démarche marketing est désormais envisagée,
ce qui révèle moult difficultés.
Surtout les défis du e-marketing doivent prendre en compte les évolutions réglementaires,
économiques, mais également les contextes politiques et sociétaux et une relation des citoyens
et consommateurs à l’Internet qui sont loin d’être figés : de la neutralité d’Internet au droit à
l’oubli en passant par la gouvernance, les enjeux qui s’affirment aujourd’hui et devraient
s’amplifier encore dans les années à venir impliquent de saisir avec finesse les comportements
des internautes, de plus en plus informés, aguerris et pour certains vigilants aux enjeux de la
vie numérique : intériorisation du processus de fouille permanente des données dans la
construction de son propre espace personnel, attentes et injonctions paradoxales des
internautes[18], prise de conscience progressive des risques cumulatifs face à la divulgation de
bribes d’informations, revendication d’un droit au « silence des puces » (Bernard
Benhamou[19]).
Enfin, le développement international d’Internet devient un enjeu majeur : il était auparavant
essentiellement « limité » à l’Amérique du Nord et à l’Europe occidentale. Aujourd’hui, près
des deux tiers des internautes dans le monde ne se situent plus dans ces deux régions. Il est
encore difficile d’évaluer comment cela va modifier le e-marketing et le e-commerce.
Depuis une quinzaine d’années, la recherche e-marketing s’est ainsi développée en se fondant
sur les pratiques des professionnels du secteur et des internautes. Des laboratoires de
recherche, des projets nationaux et internationaux, des revues spécialisées et des chercheurs
ont commencé à donner corps à ce nouveau champ de recherche à la frontière de plusieurs
disciplines allant notamment du marketing à l’informatique en passant par la sociologie, le
management des systèmes d’information, les sciences de la communication… Les chapitres
suivants proposent d’examiner en détail des outils, des pratiques et des concepts
fondamentaux.
Annexe LE MINITEL : TRENTE ANS DE SERVICES EN LIGNE…

STÉPHANE BOURLIATAUX-LAJOINIE et VALÉRIE SCHAFER


Dès les années 1970 l’Administration des télécommunications est consciente que le rattrapage
téléphonique, qui doit permettre aux Français d’accéder à un taux d’équipement satisfaisant (entre 1970
et 1975 le nombre de lignes passe de 4 à 7 millions), doit être couplé à une réflexion sur de nouveaux
services, qui assureront le maintien et la croissance de ses revenus. La convergence entre
télécommunication et informatique, qui se manifeste notamment dans les réseaux de données, pour
lesquels existe une demande professionnelle, fait parti de ces nouvelles voies qu’explorent alors la
Direction générale des Télécommunications et son centre de recherche, le Cnet, et en 1978 est ouvert un
réseau public de données : Transpac. Celui-ci supportera dès le début des années 1980 et jusqu’à son
extinction en juin 2012 cette « exception culturelle française » qu’est le Minitel.
Développé dans la poursuite d’études menées sur des services de calcul par téléphone mais aussi du
service interactif Antiope sur téléviseur développé au CCETT (Centre commun d’étude de télévision et
de télécommunications), le Minitel fait l’objet d’un processus de développement technologique inédit :
son acceptabilité, son ergonomie, son interactivité sont testés au cours d’expérimentations qui démarrent
au début des années 1980, en Bretagne et en région parisienne.
Il s’agit d’une part de tester le « terminal annuaire téléphonique », qui a été pensé pour justifier à la fois
la fourniture gratuite de terminaux Minitel aux Français (à la place de l’annuaire papier, qui pourtant ne
disparaît pas) et l’investissement notamment financier des Télécommunications dans un projet industriel
risqué et à l’origine onéreux qui doit concerner son domaine d’activité. Ces études sont menées à Saint
Malo (1980) puis dans la région rennaise… une forme de premier « humanisme technologique », pour
reprendre l’expression de l’historien Benjamin Thierry, qui cherche non à adapter l’homme à la machine
mais bien celle-ci dans une certaine mesure à l’utilisateur. La seconde expérimentation, Télétel 3V (dans
la région de Versailles, Vélizy, Val de Bièvre) doit tester des services en ligne et entraîne dans le sillage
de la puissante Administration des télécommunications près de 200 entreprises prêtes à offrir des
contenus en ligne, parmi lesquelles on trouve la SNCF, la presse ou encore des banques.
Le Minitel, contraction de Médium Interactif par Numérotation d’Informations Téléphoniques, baptisé
ainsi par le designer Roger Tallon, accompagnera les Français pendant 30 années, non sans avoir au
moment de son lancement suscité une campagne d’opposition enflammée de la presse, Ouest France en
tête, qui craint que ce nouveau médium ne la prive notamment de ses revenus publicitaires. Le pari est
risqué, mais les Télécommunications démontrent la viabilité et la rentabilité d’un modèle économique qui
repose sur la fourniture gratuite du terminal pour faire payer les communications téléphoniques et certains
contenus, grâce au système kiosque (un système de tarification introduit en 1984, reposant sur une
facturation multipalier, en fonction du code composé : 3614, 3615, 3617 pour le monde professionnel,
etc).
En 1990, 5 millions de Minitel ont été produits, un Français sur 10 en est équipé, sans compter les lieux
publics, et 12 377 services sont offerts. En 1993 le trafic Télétel, lié au Minitel, génère un chiffre
d’affaires de 6,7 milliards de francs dont 3 milliards sont directement reversés aux fournisseurs de
services. La télématique est entrée pleinement dans la culture française (que l’on pense à la chanson de
Polnareff Goodbye Marylou, au 3615 qui n’en veut des Deschiens, etc.) et permet les inscriptions
universitaires, des consultations de comptes bancaires ou d’horaires ferroviaires, le commerce en ligne,
mais aussi des jeux en ligne ou encore les messageries roses, qui si elles ont pu scandaliser certains, ont
aussi permis au monde de la presse papier, au départ hostile au Minitel, de trouver là une source de
revenus non négligeable, à l’instar des recettes générées par le 3615 Aline développé par Le Nouvel
Observateur (il faut un numéro de presse pour ouvrir une messagerie rose).
On peut légitimement s’interroger sur l’impact du Minitel sur le comportement des consommateurs
français, puisqu’Internet arrive dans les années 1990 dans un paysage français d’utilisateurs et
consommateurs déjà habitués au Minitel.
Un premier point notable est la continuité des usages et l’on peut à ce titre considérer que les Français
ont bien fait l’apprentissage des services en ligne via le Minitel. Celui-ci a fait entrer écrans et claviers
dans tous les départements de France et au-delà de certaines ruptures qu’on ne peut nier, il y a aussi des
continuités évidentes : ainsi qui n’a pas cherché son nom sur Internet, tout comme les premiers
minitélistes se cherchaient d’abord dans l’annuaire Minitel… Certaines controverses et débats,
notamment sur la crainte de la fracture générationnelle, la fin de la « civilisation du papier », la critique
de la pornographie ou encore l’anonymat et la protection des données, ont débuté dès le Minitel. La
CNIL, évoquée dans ce chapitre, a d’ailleurs été créée en 1978 et a bien sûr précédé l’arrivée d’Internet
en France.
Le second aspect qui nous intéresse touche au « retard français » dans l’Internet dont le Minitel a été
rendu responsable avant que Lionel Jospin, alors Premier Ministre, ne prononce un discours fort en
faveur du passage à l’Internet à Hourtin et ne lance en 1998 le Plan d’action gouvernemental pour la
société de l’information. Toutefois il convient de relativiser ce « retard français » et l’on peut estimer que
celui-ci est aussi le fait des fournisseurs de services, embarrassés par l’absence de modèle économique
sur Internet, alors que côté utilisateurs il y a une réelle continuité d’usages : de grands acteurs historiques
comme La Redoute, les 3 Suisses ont très rapidement proposé des services minitel. Les utilisateurs ont vu
l’intérêt qu’ils pouvaient avoir à commander directement « en ligne » plutôt que par courrier (réduction
des délais, calcul en temps réel de la facture, affichage des délais de livraisons ou de l’indisponibilité de
certains produits). Si cet outil a permis de démocratiser la dématérialisation de l’acte d’achat, le retard
dans le passage à l’Internet tient plus côté utilisateur à son coût d’accès : il faut un ordinateur,
l’abonnement à un FAI, le nombre d’heures est limité, le débit n’est pas rapide, etc.
Autre élément important qui a joué en faveur du Minitel : la simplicité de l’interface. L’une des raisons
du succès du Minitel fut sa rapidité de prise en main. Le concept du « 36xx+code » était également très
simple à comprendre, certes les possibilités de mise en page étaient rudimentaires, mais le coût d’entrée
cognitif faible, ce qui a grandement facilité l’acceptation du produit notamment auprès des personnes
âgées.
La rapidité des services est également un critère important. Le Minitel ne propose que des pages à la
définition basique, mais optimisées pour des débits de ligne très lents. La base technologique a été
développée pour être utilisée avec des modems analogiques sur des lignes téléphoniques classiques. Le
Minitel n’a donc jamais connu de problème de vitesse de débit liée à la ligne de l’utilisateur.
Contrairement à Internet qui est très dépendant de la ligne Adsl dont dispose l’utilisateur. L’utilisation
d’émulateur de Minitel avec un ordinateur et une connexion Internet ne fait qu’aggraver le temps de
réaction du service.
Il est intéressant de noter que la perception du coût du service n’est pas la même sur les deux outils, le
consommateur acceptait de payer l’accès à un service via le Minitel, alors qu’une tarification d’un accès
Web est souvent mal perçue par les utilisateurs.
La sécurité des données sur le Minitel était également davantage assurée pour le consommateur et
reposait sur un réseau robuste, Transpac, qui a supporté le passage à échelle et la croissance importante
des flux et limitait les risques en termes de sécurité (ce qui explique que certains professionnels aient
longtemps continué à le préférer à Internet) et une Administration publique française, celle des
télécommunications, en position de monopole sur les lignes. À l’arrivée d’Internet, le contexte a changé :
déréglementation, offres multiples des FAI, premières affaires de fraudes sur Internet, largement
médiatisées, ont un fort impact sur la confiance des internautes, freinant par exemple le développement
des paiements en ligne.
Enfin, dernier élément, le Minitel offre alors une vision plus systémique et ordonnée des services
existants, il est simple pour l’utilisateur d’avoir une liste des services (un peu plus de 4 000 à l’apogée
du système) proposés, de leurs tarifs ou de leur gratuité. Cet élément est rassurant pour le consommateur
qui perçoit ainsi la cartographie des services du Minitel. À l’opposé Internet ne permet pas ce type de
cartographie, de nombreux utilisateurs ont été déroutés par la prise en main du Web. Rappelons qu’à ses
débuts il n’y a pas de moteur de recherche, mais des annuaires et une forte part des contenus anglophones
et que la simple utilisation d’opérateurs et de filtres dans Google est à ce jour toujours loin d’être
maîtrisée par les utilisateurs.
Si le modèle du Minitel est aujourd’hui décrit comme un modèle repoussoir par certains, pour qui il
incarne le contrôle étatique, la centralisation, l’absence d’ouverture, le modèle français a non seulement
pu inspirer d’autres système comme le iMode japonais (et Apple n’est pas loin de s’en rapprocher par
certains aspects de son business model), mais surtout il a réussi là où d’autres services télématiques en
Europe, que ce soient Prestel en Grande-Bretagne ou le Bildschirmtext allemand ont échoué : en
distribuant le terminal gratuitement pour faire payer le contenu, en développant un modèle économique
tenable pour les différents acteurs de l’écosystème et finalement en laissant la place à l’initiative
entrepreneuriale (davantage paradoxalement que chez nos voisins européens) le Minitel a permis le
développement d’une innovation qui incarne le temps de la France des grands programmes d’équipement,
du monopole des télécommunications et du volontarisme politique et industriel, aujourd’hui la
« ringardise » mais pendant plusieurs décennies la modernité et la formation d’une culture numérique
alors sans équivalent ailleurs dans Le Monde : « Tout le monde nous l’a envié, personne ne nous l’a
acheté » a-t-on coutume de rappeler quand on évoque l’échec de l’exportation du Minitel, mais on peut
également rappeler les propos en 1997 de Jacques Chirac, alors président de la République : « La
boulangère d’Aubervilliers sait parfaitement interroger sa banque par Minitel, alors que la boulangère de
New York en est incapable ».

[1] Voir l’hommage que lui a rendu Alexandre Serres et la mise au point scientifique qu’il fait à cette occasion : « Paul Baran, inspirateur (et

non fondateur) d’Internet ». http://urfistinfo.hypotheses.org/1950


[2] Traduction disponible en ligne : http://severino.free.fr/archives/copieslocales/unedeclarationdindependanceducyberspace.html

[3] C’est la conception retenue aujourd’hui par l’ensemble des acteurs qui traitent séparément du BtoB (cf. introduction pour plus de détails
concernant les définitions du e-commerce et du e-marketing).
[4] On pourra d’ailleurs noter que le système aurait pu ne pas être ainsi conçu, et qu’il le fut à une période moins utopiste, celle du

démarrage du commerce en ligne.


[5] La publicité pour AT&T sur HotWired.com est souvent citée comme la première publicité sur le web en octobre 1994.

[6] Source : Netcraft, reprise par Joël Faucilhon qui souligne le caractère très approximatif de ces chiffres.

[7] Le NASDAQ, représentatif sur les marchés financiers des valeurs technologiques et symbole de ce que l’on appela la « nouvelle

économie », reflète la perception des gains de productivité engendrés par les nouvelles technologies (et Internet en particulier).
[8] Une traduction française de l’article originel est en ligne sur le site www.internetactu.net.

[9] Pour une analyse des business models des places de marché électroniques, voir Dominguez (2009)

[10] Freemium : néologisme provenant de la contraction de « free » et de « premium »

[11] Citons également le dossier « e-management » de la Revue Française de Gestion, publié en 2000.

[12] Les actes des communications sont accessibles en ligne : http://www.univ-paris1.fr/recherche/bibliotheques-et-centres-de-


documentation/journees-e-marketing/
[13] http://www.livre-ecommerce.fr/

[14] http://www.i-marketing.blogspot.com

[15] À ce jour, plus de 6000 RFCs, dont les premières datent de 1969 sont disponibles en ligne sur le site de l’IETF. Elles constituent une
mémoire technique exceptionnelle du réseau Arpanet puis d’Internet, que certains chercheurs ont commencé à explorer à l’instar de
Sandra Braman (« Internet RFCs as a social policy : Network Design from a Regulatory Perspective,
http://www.utwente.nl/mb/steps/research/colloquia_and_seminars/colloquia/bestanden/braman.doc/).
[16] Voir le rapport d’activité de la CNIL 2012. http://www.cnil.fr/fileadmin/documents/La_CNIL/publications/CNIL_RA2012_web.pdf

[17] Source : http://www.itu.int/en/ITU-D/Statistics/Documents/facts/ICTFactsFigures2014-e.pdf

[18] Voir Le citoyen de verre, entre surveillance et exhibition de Wolfgang Sofsky, 2011.

[19] Des extraits des articles et livres de ces différents auteurs peuvent être trouvés dans Ocqueteau, Ventre, 2011.
Chapitre
2 Médias sociaux et marketing

Thomas STENGER,
Maître de conférences, IAE de Poitiers, laboratoire CEREGE
et chercheur associé à l’Institut des sciences de la communication du CNRS

Alexandre COUTANT,
Maître de conférences, Université de Franche-Comté,
laboratoire ELLIADD, équipe « Objets et usages numériques »

Objectifs

■ Comprendre l’origine et les principes génériques des médias sociaux.


■ Définir les médias sociaux et leurs caractéristiques.
■ Cartographier les différents types de médias sociaux et de participation en ligne.
■ Développer des actions marketing adaptées à chaque type de dispositif socionumérique.
■ Analyser et évaluer les actions marketing sur les médias socionumériques.

Sommaire

Section 1 Médias sociaux et participation : définition et cartographie


Section 2 Agir sur les médias sociaux
Quatre milliards de vidéos sont consultées chaque jour sur YouTube, Flickr héberge plus de 6 milliards
de photos, Facebook dépasse le milliard d’utilisateurs actifs depuis octobre 2012, Google+ compte plus
de 500 millions de membres et de nouveaux venus apparaissent chaque jour (Foursquare, WhatsApp,
Snapchat, Instagram, Pinterest, Diaspora, Familyleaf, Pair, Path, Hoople, etc.). Trois internautes sur
quatre dans le monde sont déjà inscrits sur les « sites de réseaux sociaux ». Si « 180 millions de
professionnels utilisent LinkedIn », « 55 millions de professionnels sont présents sur Viadeo », la
participation des entreprises sur ces sites n’est pas encore évidente. Les marques sont fortement attirées
par l’audience des plateformes socionumériques ; elles sont aussi à la recherche de solutions concernant
leur modalité de présence.
Les publications consacrées aux potentialités marketing offertes par les médias sociaux abondent, mais
celles décrivant les résultats et les manières de faire demeurent bien plus rares. De plus, elles font
souvent référence aux difficultés pour les marques (Manara et Roquilly, 2011 ; Gensler et al., 2013 ;
laroche et al., 2013), aux « défis » en termes de réputation (Jones et al., 2009 ; Castellano, Dutot, 2013 ;
Alloing, 2013), d’analyse de données (Fader in Deighton et al., 2011) ou de mesure sur la performance
(Libai, Muller, idem ; Trainor, 2012).
Indépendamment de la relative nouveauté de ces dispositifs, cela s’explique notamment par la grande
confusion générée par l’appellation « médias sociaux ». On notera d’ailleurs que les notions de réseaux
sociaux, sites de réseaux sociaux, réseaux socionumériques ou médias sociaux (sans parler des
expressions anglo-saxonnes) sont souvent employées sans distinction ni effort de clarification. Cet effort
est indispensable à la compréhension de ces dispositifs et si on souhaite concevoir une politique
marketing adaptée.
La première section de ce chapitre dresse un panorama des médias socionumériques grâce à une
cartographie qui permet de distinguer les types de dispositifs et leurs caractéristiques. La deuxième
section décrit et analyse les actions marketing en fonction des types de dispositifs socionumériques. Les
stratégies et actions marketing mises en œuvre sont illustrées à partir de nombreux cas récents.
L’appellation médias sociaux, héritée de social media apparaît de prime abord comme un pléonasme –
que seraient des médias asociaux ? Pourtant, le qualificatif a vocation à souligner une dynamique sociale
spécifique. Les appellations « médias sociaux » ou « médias socionumériques » ont ainsi le mérite
d’évoquer instantanément un ensemble de sites Web où la participation des utilisateurs et les interactions
entre utilisateurs sont encouragées.
Section 1

MÉDIAS SOCIAUX ET PARTICIPATION : DÉFINITION ET CARTOGRAPHIE

1 Origines, fondements et définitions des médias sociaux


S’il existe quelques pistes sur les origines de cette expression et sa première utilisation, du côté des
consultants et des journalistes américains (notons les deux racines) en 2004, il n’y a pas de « paternité
officielle » comme c’est le cas pour le Web 2.0 (cf. Focus 2.1). Wikipédia, souvent pris comme exemple
type des médias sociaux, ne propose d’ailleurs pas d’article, au sens de l’encyclopédie en ligne, mais un
essai, une ébauche « dont le sujet n’est pas traité entièrement ou de manière déséquilibrée ou mal
organisée », que ce soit dans sa version française ou en langue anglaise. De nombreuses définitions ont
pourtant été proposées.
Dans un des ouvrages les plus documentés sur les pratiques numériques des jeunes américains, Ito et al.
(2010, p. 28) expliquent :
« Nous utilisons le terme « médias sociaux » pour référer à l’ensemble de nouveaux médias qui
permettent l’interaction sociale entre participants, souvent à travers le partage de médias. Bien que tous
les médias soient d’une certaine façon sociaux, le terme « médias sociaux » s’est répandu en 2005 comme
élément central de ce qui est généralement appelé « Web 2.0 » (O’Reilly, 2005) ou « Web social ». Tous
ces termes renvoient à la combinaison d’interaction sociale et de contenu en ligne. Les types de médias
sociaux les plus populaires incluent la messagerie instantanée, les blogs, les sites de réseaux sociaux, les
sites de partage de vidéo ou de photos ».
Cette définition souligne le lien et même la filiation avec le Web 2.0 et insiste sur l’interaction sociale
entre participants. Ito et al. (2010) tiennent beaucoup au concept de « participant » pour souligner le rôle
actif et même productif des « utilisateurs » des médias sociaux. Il s’agit de s’opposer à l’image de
consommation ou d’audience passive. Les structures et les genres de participation peuvent alors être
définis (nous y revenons plus loin).

Focus 2.1
Le Web 2.0 et l’essor de la participation en ligne
Le Web 2.0 est devenu durant le milieu des années 2000 le symbole d’une nouvelle répartition des
rôles entre producteurs et consommateurs. C’est ainsi que le magazine américain Time a élu « Vous »
(You) comme personnalité de l’année 2006 pour signifier l’essor de la participation et de la
collaboration en ligne.
En effet, là où l’on attendait plutôt le développement des relations BtoB, et dans une moindre mesure
du BtoC, ce sont les relations interpersonnelles (le CtoC) qui se sont imposées comme l’usage
principal du Web. À partir de « communautés » d’échange, se sont restructurés aussi bien le
commerce en ligne, les mécanismes de diffusion de la notoriété et de l’influence, que la distribution
de logiciels libres ou le travail collaboratif. Le marketing est directement concerné par cette
reconfiguration. Les conséquences sont en effet multiples pour la marque, la gestion de la relation
client et le recours à la « boîte à outils » traditionnelle du marketeur (études, marketing mix, etc.).
L’expression « Web 2.0 », proposée par Dale Dougherty, membre de la société O’Reilly, en 2004,
renvoie selon Tim O’Reilly lui-même (2005) à une série de principes :
le Web en tant que plateforme de services facilement intégrables ;
l’intelligence collective ;
l’importance des données utilisateurs ;
des mises à jour de plus en plus régulières ;
des modèles de programmation légers ;
l’extension des outils qui interagissent avec les applications Web ;
l’enrichissement des interfaces utilisateurs.
Sont qualifiés de 2.0 les sites partageant une partie de ces principes. Il s’agit majoritairement des
blogs, des plateformes de travail collaboratif, des réseaux socionumériques (ou sociaux
numériques), des mashup*, de la folksonomie ou encore des Digg-like.
Ce vaste ensemble repose sur un ensemble de technologies identiques (Ajax, architectures de
services Web, flux RSS/Atom, microformats) ayant comme caractéristiques principales :
le seul rafraîchissement des parties nécessaires d’une page Web – sans recharger la page entière ;
une modification aisée du contenu de la page (mise en forme, ajout de contenus) ;
l’interopérabilité, c’est-à-dire une utilisation au sein de différents environnements (navigateurs,
systèmes d’exploitation, terminaux, API).
Il ne s’agit donc ni d’un standard ou d’une technologie particulière. Chaque fonction développée sur
une plateforme est facilement intégrable sur d’autres sites. Ajoutons à cela la possibilité offerte aux
utilisateurs d’adopter une démarche plus active en créant leur propre contenu ou en commentant les
autres, et qui les encourage à préférer les interactions entre pairs. Les actions marketing y sont donc
d’autant plus facilement ignorées, détournées, voire rejetées si elles ne savent pas se fondre dans la
logique « participative » qui constitue la culture associée à ces plateformes.
L’expression Web 2.0 est donc devenue le symbole d’un « nouveau Web collaboratif/participatif ».
Une autre signification a peut-être échappé à bon nombre d’observateurs. Nous voulons souligner ici
que le Web 2.0, chez O’Reilly en particulier, a vocation à donner un nouvel élan à la « nouvelle
économie » mise à mal par l’éclatement de la bulle Internet, comme l’explique très bien Matthew
Allen (Bouquillion et Matthews, 2010). Il s’agit de légitimer et de restaurer l’image de l’industrie
du Web auprès des sphères politique, économique et surtout financière.
Kaplan et Haenlein (2010, p. 61) ont quant à eux défini les médias sociaux comme « un groupe
d’applications Internet qui se fondent sur l’idéologie et la technologie du Web 2.0 et qui permettent la
création et l’échange du contenu généré par les utilisateurs ». Cette définition souligne à juste titre les
liens étroits entre médias sociaux, Web 2.0 et UGC, mais elle tend aussi à les assimiler. De plus O’Reilly
(2005) explique bien qu’il n’existe pas de technologie du Web 2.0 (cf. Focus 2.1). Plus récemment,
Hoffman, Novak et Stein (2013, p. 29) définissent les médias sociaux comme « un ensemble d’outils et
applications Web et mobiles qui permettent aux gens de créer (consommer) du contenu qui peut être
consommé (créé) par d’autres et qui permet et facilite les connexions ». Ces définitions mettent
systématiquement l’accent sur, d’une part, la double activité de consommation et de création ou
production de contenu médiatique, et d’autre part, sur le partage et l’interaction sociale entre utilisateurs
des médias sociaux.
Dans une perspective très proche, Stenger et Coutant (2013, p. 115) définissent les médias sociaux (ou
socionumériques) comme des services Internet :
dont le contenu est très largement produit par les internautes utilisateurs (principe UGC : user
generated content) ;
qui regroupent des configurations sociotechniques très variées en termes de dynamique de
participation […] et de visibilité […] ».
Les dynamiques de participation et de visibilité sont ensuite précisées (cf. section 2 de ce chapitre).
Plus précisément, les auteurs considèrent que « les médias sociaux :
reposent sur le principe d’expression et de participation de masse qui conduit les internautes-
utilisateurs à produire l’essentiel du contenu de ces sites (principe UGC) ;
permettent à n’importe quel internaute de participer avec des outils et applications d’une grande
simplicité d’usage ;
ont un coût de participation (quasi)-nul pour les internautes mais qui a un prix (Douplitzky, 2009) ou
peut être considéré comme un contrat (Benavent, 2009) qui implique en contrepartie le traçage, le
profilage et l’exploitation des données publiées ;
proposent un contenu évoluant en permanence, dans une logique de flux, constitué de témoignages
(badins, sérieux, ordinaires, etc.), commentaires (en réaction aux précédents contenus),
d’appréciations/jugements (évaluations, notations…) et de partage de documents/ressources (image,
texte, son, vidéo, etc.) ;
sont le fruit de la rencontre de l’usage, de la technologie, de stratégies économiques et de leurs
constructions progressives ;
constituent le support de pratiques et de normes sociales très variées – d’où la nécessité de voir plus
clair parmi l’ensemble des médias sociaux » (idem).
Selon cet ensemble de principes, Facebook, Twitter, MySpace, YouTube, Wikipedia, Instragram, Sina
Weibo, Tumblr, Google+, Pinterest etc. sont des exemples typiques de sites de médias sociaux. Ils sont en
grande partie laissés entre les mains de leurs utilisateurs. Cette « ouverture » effraie d’ailleurs certains
annonceurs, habitués à contrôler bien davantage leurs espaces de communication.

Focus 2.2
Les médias socionumériques en quelques chiffres
74 % des internautes dans le monde sont inscrits sur des sites de réseaux sociaux (soit 26 % de la
population mondiale).
Facebook compte 1,28 milliards d’utilisateurs actifs mensuels (UAM) dont 26 millions en France ;
802 millions d’utilisateurs quotidiens (dont 602 millions se connectent avec leur mobile) ; 81 % des
utilisateurs ne sont pas nord-américains (données en mars 2014). Le chiffre d’affaires 2013 est de
7,85 milliards de dollars et le bénéfice de 1,5 milliard de dollars.
YouTube compte 1 milliard d’UAM ; 4 milliards de vidéo sont vues chaque jour.
Google+ compte environ 500 millions de membres et 300 millions d’UAM.
Twitter compte 241 millions d’UAM ; 117 millions d’utilisateurs publient des tweets ; 500 millions
de tweets sont envoyés chaque jour.
LinkedIn compte 187 millions d’UAM et 277 millions de membres inscrits.
Instagram compte 150 millions de membres et plus d’un milliard de photos.
Tumblr compte 100 millions d’UAM et 185 millions de visiteurs uniques mensuels.
Viadeo compte 55 millions d’UAM (dont 8 millions en France).
Pinterest compte près de 50 millions de membres.
Sources : ComScore, We are Social,
IFOP et données entreprises.
Les médias sociaux ont démontré leur caractère social dans le sens où les internautes y recherchent
majoritairement les interactions entre pairs. Il est essentiel de les distinguer car les normes sociales sont
très différentes selon les dispositifs et les moteurs de la participation comme les modes de visibilité
diffèrent fortement (idem). Les médias sociaux appellent ainsi des stratégies très différentes de la part des
marques. WebPour cela, il est très instructif de comprendre l’imaginaire véhiculé par l’idée même de
participation (cf. Focus 2.3).
En synthèse, le principe central des médias socionumériques peut être résumé en trois lettres : UGC
pour User Generated Content (contenu généré par les utilisateurs). Plus précisément, la caractéristique
commune de ces sites Web est de bâtir un modèle économique autour de contenus et parfois même
d’outils essentiellement produits par les utilisateurs. L’intérêt économique est évident pour les
plateformes. Ajoutons que cette stratégie garantit une plus grande fidélité des utilisateurs, d’autant plus
attachés au site qu’ils ont contribué à son contenu (Stenger, Coutant, 2013). Ainsi, l’appellation « médias
sociaux » ou « médias socionumériques » permet de regrouper un ensemble d’espaces potentiellement
très intéressants pour le marketing mais très différents les uns des autres. Cet intérêt est justifié
essentiellement par l’audience exceptionnelle dont bénéficient ces sites (cf. Focus 2.2). Pour comprendre
comment en tirer le meilleur parti, il est fondamental de distinguer les différents dispositifs.

Focus 2.3
L’imaginaire de la « participation »
Le succès du Web 2.0, puis des médias sociaux, s’est construit sur l’idée d’une participation de
l’utilisateur. Les promoteurs du Web comme les médias ont alors insisté sur la révolution véhiculée
par ce principe : le pouvoir serait désormais entre les mains de l’internaute. Libre de créer les
contenus qu’il souhaite, il ne serait plus soumis au bon vouloir des entreprises et de leurs offres. Le
journalisme citoyen prôné par le site Agoravox, où tout internaute est libre de contribuer, a ainsi été
vu comme une alternative au journalisme traditionnel. Les sites de vente aux enchères ont laissé
imaginer un détachement par rapport aux circuits de distribution traditionnels et à la norme de
l’achat de produits neufs. Les sites permettant aux internautes de voter pour les produits qu’ils
préféreraient voir produire ont généralisé l’idée d’une co-construction de l’offre, menaçant à terme
toute offre commerciale unilatérale : La Fraise propose aux internautes de voter pour les motifs
qu’ils veulent voir imprimer sur leurs tee-shirts, Ben & Jerry relancent tous les ans une glace qu’ils
avaient cessé de produire et que les internautes ont plébiscitée, MyMajor Company fait de chacun un
producteur de musique. Les forums de discussion et de recueil d’avis ont encouragé à repenser
totalement les manières de communiquer des entreprises, dont le discours ne serait désormais ni
crédible ni écouté (Lassica 2006, Gervais 2008). Pour les entreprises, il s’agirait alors de réussir à
exister au milieu de cet environnement ou d’être condamnées à disparaître.
Ces « prophéties » méritent d’être abordées avec recul. C’est ce que propose Rebillard (2007) dans
son ouvrage Le Web 2.0 en perspective. L’idée d’une révolution générale dans l’activité des
individus ou dans les rapports entretenus entre ceux-ci et les institutions productrices depuis
l’avènement du Web 2.0 est donc dénoncée : « toute « nouvelle » technologie est sujette à la
production d’un imaginaire qui, pour résumer à grands traits, lui attribue la paternité d’une
« nouvelle » société » (ibid., p. 14). Plus précisément, il souligne « qu’il est difficile, lorsque l’on
étudie Internet, d’échapper à un environnement idéologique qui pose comme évidente une
transformation radicale de la société par la technologie » (ibid., p. 101). L’ouvrage reprend les
différents discours tenus sur le Web 2.0 pour replacer les tendances dépeintes dans leur contexte.
Ainsi, par exemple, d’une « synthèse dédiée au Web 2.0 » de Médiamétrie : « son annonce sous le
titre « plus de 3,1 millions de créateurs de contenus sur le Web » représente un caractère
promotionnel. Un tel slogan fixe l’attention sur le chiffre le plus positif de l’étude, et permet du
même coup de passer sous silence l’envers d’un tel résultat, à savoir que l’immense majorité des
Français ne s’affaire pas à créer des contenus sur le Web. Il faut bien réaliser que la création de
contenus par les internautes constitue un épiphénomène plutôt qu’un phénomène social généralisé. Et
en déduire par extension que la posture active des internautes tant vantée par les partisans du Web
2.0 est sans doute l’exception, non la règle » (ibid., p. 48).
Loin de la foi technologiste des slogans annonçant « l’usager tout puissant », Rebillard rappelle la
permanence sur Internet de modes de communication hiérarchisés parallèlement à d’autres plus
horizontaux. De la même manière, les modes de consommation des contenus s’avéreront selon les
cas passifs ou actifs. Enfin, les modes de production professionnels demeurent bien plus fréquents
que les contenus co-construits ou pris en charge par l’internaute (ibid., p. 105). Si la participation
n’est plus une pratique mineure, elle demeure malgré tout minoritaire. Elle est aussi extrêmement
stratifiée socioculturellement : les internautes intervenant sont ceux ayant déjà une position leur
permettant de s’exprimer ou d’agir dans les contextes hors ligne. Ce recul permet de mesurer que ces
discours apparaissent dans le contexte d’une nécessité de relancer l’engouement pour la nouvelle
économie (Bouquillion et Matthews 2010). Ils ont une vocation communicationnelle que l’analyse
des derniers discours promotionnels des « gourous » de l’Internet révèle d’ailleurs clairement en
témoignant du passage d’un imaginaire de la participation à une stratégie bien moins émancipatrice
d’exploitation de celle-ci (Rebillard 2011).
Rappelons donc que les médias sociaux ne constituent pas le seul espace de visibilité d’une
entreprise et que les stratégies classiques des marques demeurent pertinentes dans beaucoup de cas,
même si certaines plateformes issues des médias sociaux comportent des opportunités invitant à de
nouvelles formes d’action.
2 Une cartographie des médias socionumériques
Depuis plus de dix ans, l’arrivée continue de nouvelles plateformes et applications rend bien difficile
la conception d’une approche marketing adaptée aux médias socionumériques dans leur ensemble.
Snapchat n’a pas grand-chose à voir avec Wikipedia et l’on peut s’interroger sur les points communs à
Twitter et YouTube tant ces plateformes diffèrent, à la fois du point de vue technique que du point de vue
des usages et normes en vigueur. Un effort de clarification et même de classification paraît indispensable.

2.1 Le besoin d’une classification


Les classifications proposées, essentiellement par des agences et cabinets de consulting sont longtemps
restées focalisées sur les caractéristiques techniques des plateformes. Elles permettent de pointer leur
diversité fonctionnelle : sites de partage, sites de discussion, sites de publication, de micropublication,
sites de réseaux sociaux, univers virtuels, jeux massivement multi-joueurs etc. Elles demeurent cependant
peu opérationnelles, faute d’informer sur les usages et les activités de leurs utilisateurs. En conséquence,
les recommandations restent très générales (par exemple il faut « cultiver sa visibilité » ou « engager le
dialogue ») et livrent peu d’éléments pour convertir ses objectifs en actions concrètes.
Le Digital Youth Project, principale étude nord-américaine consacrée au rôle des nouveaux médias
dans la vie des jeunes[1], propose une dichotomie intéressante centrée sur la dynamique de participation
en ligne des individus. Ito et al. (2010) distinguent ainsi deux « genres de participation » : la
participation conduite par l’amitié et la sociabilité (friendship-online driven participation) et celle
conduite par un intérêt précis (Interest-Driven Online Participation). Ito (2009) explique : « la
participation axée sur l’amitié correspond à ce que la plupart des jeunes font en ligne : passer du temps
avec leurs amis, s’amuser, flirter et se comparer par l’intermédiaire des sites sociaux comme MySpace
ou Facebook. La participation axée sur les centres d’intérêt, elle, renvoie à des pratiques plus créatives
ou plus technophiles, où les jeunes se connectent en ligne avec d’autres autour de passions ou d’intérêts
partagés tels que les jeux ou la production créative ».
Il s’agit d’une distinction essentielle dans le contexte des médias socionumériques. Nous avons
effectivement souligné que beaucoup de plateformes proposent aux internautes de se retrouver entre eux et
sans prévoir nécessairement la présence de dispositifs marketing. Les prises de parole des marques y
sont par conséquent peu naturelles. La tolérance voire l’engouement des usagers à l’égard de ces
dernières suppose toujours qu’elles aient trouvé un moyen de justifier leur présence en apportant quelque
chose aux activités des utilisateurs.

2.2 Participation et visibilité au cœur des médias socionumériques


Une cartographie permettant de mieux appréhender les médias sociaux a tout intérêt à considérer les
pratiques des utilisateurs à la fois sur les caractéristiques des plateformes et sur les usages. C’est
justement l’objectif de celle proposée par Stenger et Coutant (2013) exposée ci-dessous. On notera
qu’elle exclut les sites de jeux, considérés comme une catégorie à part.
■ Deux dimensions pour cartographier les médias socionumériques
La cartographie repose sur la mise en tension de deux axes : participation et visibilité. Le premier axe
reprend la distinction proposée par Ito et al. (2010). Il oppose la participation des utilisateurs fondée sur
un intérêt précis et celle fondée sur l’amitié et la sociabilité. Le deuxième axe renvoie à la visibilité du
contenu publié en ligne. Il considère à la fois les potentialités offertes par la plateforme et les pratiques
des utilisateurs en se focalisant sur ce qui est partagé et rendu visible à travers ces sites. Il oppose ainsi
deux finalités : une démarche de publication de soi et une démarche de publication de contenu tiers, c’est-
à-dire de tout autre contenu que « soi ». À travers le « soi », nous retrouvons les pratiques et les contenus
concernant l’individu qui effectue un branding personnel plus ou moins délibéré et maîtrisé : une mise en
visibilité de soi (son quotidien, ses goûts, ses compétences, ses relations, etc.). À l’opposé de ce
deuxième axe, la publication de contenu concerne la mise en visibilité de contenu tiers, réalisé le plus
souvent par agrégation de données multimédia (image, vidéo, etc.), de liens hypertextes, provenant de
sources multiples et quelle que soit la technologie employée. Ce deuxième axe oppose ainsi la mise en
visibilité de soi à la mise en visibilité de contenus tiers.

Source : Stenger et Coutant (2013).


Figure 2.1 Cartographie des médias sociaux
La publication de soi peut prendre essentiellement deux formes aux finalités sensiblement différentes.
Elle peut tout d’abord être à vocation professionnelle. Dans ce cas, la présentation de soi prend
l’apparence d’un quasi-CV. C’est le cas des sites de réseautage professionnel (networking) tels que
LinkedIn ou Viadeo. Elle peut aussi être à vocation non professionnelle et orienté vers l’amitié. Dans ce
cas, l’enjeu consiste à apparaître plus « cool » – comme sur Facebook par exemple, et plus encore sur les
dispositifs socionumériques plébiscités par les adolescents et jeunes adultes (ex. : Snapchat, Instagram).
On retrouve ainsi, dans la partie supérieure de la carte, des données personnelles, essentiellement de
nature biographique, fondées sur l’expérience des individus, ses préférences, ses goûts, éléments centraux
de la construction identitaire et de la présentation de soi en ligne (Coutant, Stenger, 2010).
À l’opposé du « soi », l’activité se transforme en celle d’éditeur de contenu (partie inférieure de la
figure 2.1), celui-ci pouvant avoir une audience mondiale (certaines vidéos sont visionnées des millions
de fois) ou bien réduite à quelques individus (par exemple, la plupart des profils sur Twitter n’ont que
quelques followers).
Cette cartographie permet d’identifier à la fois des types (catégories) de médias socionumériques (cf.
Focus 2.4) et des types d’action marketing recommandées – comme celles risquant de se révéler
inadaptées aux usages ayant cours selon les dispositifs (cf. paragraphe suivant).

Focus 2.4
De l’intérêt fondamental de distinguer les types de médias
socionumériques
Les « communautés virtuelles » (centrées sur un intérêt), les « réseaux socionumériques » (avec des
pratiques orientées vers l’amitié et la présentation de soi), les « sites de networking/réseautage »
(centrés sur un intérêt ainsi que la promotion de soi) comme les « sites de rencontre » retrouvent
bien leur place au sein de cette cartographie. Il en est de même pour les sites de partage de vidéo
(Dailymotion, YouTube), de photos (Flickr), les plateformes de micro-blogging telles Twitter, de
ressources d’information (Netvibes, Delicious) ou de savoirs (Wikipedia), centrés sur un intérêt et
la publication de contenus. Plateformes et types de médias socionumériques peuvent ainsi être situés
sur cette carte en considérant à la fois les caractéristiques techniques et surtout les pratiques, les
usages des utiisateurs.
Distinguer réseaux socionumériques et communautés virtuelles est d’autant plus important qu’ils sont
souvent amalgamés (la fâcheuse expression « réseau communautaire » en est l’illustration). La
tentation est d’autant plus forte qu’une importante littérature marketing dédiée aux communautés en
ligne existe déjà alors que les travaux consacrés aux réseaux socionumériques sont encore
émergents. Ces deux configurations sont pourtant fort distinctes en termes d’usage et de genre de
participation.
Une deuxième différenciation essentielle peut être opérée entre réseaux socionumériques et leurs
proches cousins : les sites de réseautage (social networking sites). Les seconds sont justement
animés par cet intérêt : le projet de networking. Ainsi, les sites de réseautage tels que LinkedIn ou
Viadeo se situent entre les réseaux socionumériques et les communautés en ligne. Ils sont proches
des premiers techniquement mais plus proches encore des seconds en terme d’usage. Ils s’avèrent en
définitive assez proches des sites de rencontres comme Meetic ou Match, car il s’agit bien de mettre
en relations des personnes compatibles pour des raisons professionnelles (LinkedIn, Viadeo) ou plus
intimes (Meetic), même si techniquement, les écarts sont importants, en particulier en ce qui
concerne la visibilité et la construction de lien social.
Il faut aussi expliquer l’absence des blogs sur cette carte. Les plateformes de blogs et les blogs ne
constituent pas une catégorie homogène (ex. : le blog d’un expert en BD sera focalisé sur cet intérêt
précis alors que le blog d’une adolescente pourra avoir vocation à entretenir des relations amicales
avec des proches)1. En d’autres termes, les usages sont multiples et les blogs doivent donc être
situés au cas par cas.
Source : extraits de Stenger, Coutant (2013).
■ Premières recommandations marketing
Une première distinction est possible en considérant le premier axe (intérêt versus amitié). Les
plateformes relevant de centres d’intérêt facilitent les démarches marketing. Les campagnes de publicité
en ligne ou d’e-mailing profitent d’un ciblage déjà réalisé en grande partie par les thématiques précises
des plateformes. Le contexte dans lequel la publicité est diffusée s’en trouve optimisé : la marque
d’appareils photographiques annonçant sur Flickr sait que l’internaute se connectant à cette plateforme est
à ce moment précis réceptif au domaine de la photographie. Les membres ne sont généralement pas
hostiles à la présence de marques si celles-ci leur apportent une plus-value. Tout en restant très attachés à
leur indépendance vis-à-vis de toute entreprise, ils apprécient que les marques relevant de leur domaine
les écoutent, les consultent, voire les mobilisent. Sous certaines conditions, des démarches de co-
construction de l’offre, de community management et d’étude marketing sont possibles si la marque
réussit à se faire accepter par la communauté (Füller et al., 2007, Kozinets 2009).
En revanche, sur les dispositifs orientés vers l’amitié, le ciblage est beaucoup plus complexe. Les
activités y sont orientées par l’amitié, sans intérêt précis et surtout dans une dynamique sociale faite
d’activités ordinaires du quotidien, de conversations badines, frivoles et résolument non marchandes,
comme l’expriment les utilisateurs (Coutant et Stenger, 2010). En clair, les internautes sont là « avec leurs
amis » et non pour acheter ni même pour rechercher de l’information sur des produits ou des marques. En
conséquence, les taux de clics et de conversion sont bien plus faibles sur ces dipositifs socionumériques
(partie gauche de la cartographie). Les utilisateurs s’avèrent même souvent hostiles aux démarches des
marques s’ils perçoivent leur finalité commerciale. Une entreprise souhaitant profiter de l’affluence sur
ces plateformes devra par conséquent accepter de s’écarter d’une vision exclusivement transactionnelle
pour se fondre dans la dynamique de sociabilité propre à ces espaces. Placement de produit dans des
jeux, vidéos originales créant le buzz, pages proposant des informations diverses et des bons plans, les
vecteurs sont multiples mais le point commun est de jouer sur l’originalité, le ludique et éviter toute
référence directe à la sphère marchande. Certaines marques en sont même arrivées à ne pas indiquer leur
nom sur les applications qu’elles proposent. Si la rentabilité de telles démarches devient difficile à
évaluer, il est en revanche indéniable que les marques ayant réussi à se fondre dans ces activités
renforcent leur valeur de signe culturel, à l’image de la page Nutella réunissant plusieurs millions de
« fans » reconnaissant que la marque constitue un signe culturel fort des habitudes alimentaires.
On notera d’ailleurs que les marques les plus suivies sur les médias socionumériques diffèrent
fortement selon les plateformes. Facebook regroupe essentiellement les grandes marques agro-
alimentaires alors que Twitter recense davantage d’ONG et de marques de luxe ; YouTube est plus
diversifié, comme Google+ même si les entreprises de nouvelles technologies dominent sur cette dernière
plateforme.

Source : Social Bakers (fin juin 2013) sur le site de l’Union des Annonceurs (UDA).
Figure 2.2 Les dix premières marques par plateforme socionumérique en France
Enfin, les forums privés constituent un territoire interdit aux marques, pour des raisons pratiques et
éthiques. Volontairement construits pour permettre à des groupes de se retrouver entre eux de manière
privée, ils devraient imposer aux entreprises de ne pas tenter d’y pénétrer. Cette forme de communication
est assimilable à du spam. La logique encourage à respecter cette déontologie puisqu’une marque
s’immisçant dans ces espaces serait perçue comme très intrusive et passerait à côté de ses objectifs de
promotion.
Les genres de participation définis plus haut et les types d’activités poursuivies par les individus
déterminent en grande partie leur disponibilité et leur attitude à l’égard des actions marketing et des
marques. Les différents modèles développés par les chercheurs travaillant sur « l’économie de
l’attention » offrent une grille de lecture particulièrement intéressante pour voir l’attention des individus,
une ressource particulièrement rare dans l’univers foisonnant d’Internet et des médias sociaux, peut être
obtenue selon les contextes.

Focus 2.5
Une économie de l’attention
Les différentes formes d’économie dite de l’attention se développant sur Internet permettent
d’appréhender les nombreuses plateformes peuplant les médias socionumériques sous l’angle de ce
qui justifie qu’un internaute leur accorde de l’intérêt (Mellet 2009, Goldhaber 1997, Falkinger
2007 ; Boullier 2012a, 2012b).
L’intérêt pour une « économie de l’attention » ne s’est pas manifesté avec les médias
socionumériques. On peut remonter aux travaux d’Herbert Simon (1971) pour trouver les premières
définitions de ses enjeux : « dans un monde riche d’information, le foisonnement d’information
implique la pénurie de quelque chose d’autre : une rareté de tout ce que l’information consomme. Ce
que l’information consomme est plutôt évident : cela consomme l’attention de ses bénéficiaires.
Ainsi la richesse d’information engendre une pauvreté d’attention et le besoin d’allouer cette
attention efficacement parmi l’abondance de sources d’informations qui pourrait la consommer »
(p. 40-41). Dans une société où l’information abonde, l’attention est reconnue comme une ressource
rare, susceptible de revêtir une grande valeur économique. Les travaux menés dans ce cadre ont
permis d’identifier différents modèles d’économie de l’attention, où les ressorts de son obtention
diffèrent. Nous allons les présenter en expliquant comment ils illustrent des fonctionnements
retrouvés sur les catégories de plateformes proposées.
Sept types d’économies de l’attention peuvent être identifiés : l’amplificateur, le filtre, la
réciprocité, le style, l’alerte, la fidélisation et l’immersio(Kessous, Mellet, Zouinar 2010 ; Beuscart,
Mellet 2011, Boullier, 2012a, 2012b). Chacun propose un modèle de production, d’allocation et de
régulation de l’économie de l’attention. Un déterminant de l’attention est, dans chaque cas, mis en
avant pour expliquer les ressorts de son obtention.

1. L’amplificateur renvoie à la question de la notoriété. L’accent est mis sur la fréquence et


l’intensité des signaux envoyés par les entreprises. On cherche alors à obtenir l’attention
involontaire des individus. Les médias socionumériques, par la multiplicité et la diversité des
signaux qu’ils permettent, complexifient ce modèle de base en élevant le seuil minimal pour obtenir
l’attention. Il s’agit d’une problématique de visibilité à laquelle les entreprises sont confrontées
depuis longtemps par le jeu concurrentiel, mais qui se trouve renforcée par la multiplicité des
acteurs pouvant prendre la parole. Beaucoup d’interventions sur les médias socionumériques sont
ainsi condamnées à l’invisibilité, faute d’audience. Les autres modèles font reposer l’attention sur
certaines caractéristiques qui peuvent aider à dépasser ce stade de l’invisibilité.
2. Le filtre renvoie aux problématiques de référencement. Le nœud de cette économie repose sur la
capacité à filtrer le « bruit » pour accéder uniquement aux informations intéressantes. Cette
problématique n’est pas nouvelle. La marque joue d’ailleurs ce rôle de filtre permettant de gagner du
temps et de sélectionner les offres nous intéressant le plus (Lendrevie, Levy et Lindon, 2009). Le
développement d’Internet a cependant donné beaucoup de place à ce principe, puisque la profusion
des informations y rend nécessaire le recours à des outils de filtrage, comme les moteurs et
annuaires de recherche. Les médias socionumériques rendent difficile l’exploitation de ce filtrage
par une marque : beaucoup de ces espaces ne sont pas considérés comme marchands. S’ils abordent
des sujets de consommation, c’est justement pour obtenir une information alternative à celles
proposées par les entreprises (avis de consommateurs, comparaison par les usagers, etc.).
L’intervention est alors délicate pour le marketeur car elle risque au mieux d’être ignorée, au pire
d’être perçue comme une intrusion dans un espace interdit. Faut-il rappeler que MySpace signifie
« mon espace » ?
3. La réciprocité renvoie davantage à la GRC et au marketing relationnel. L’attention y est cette fois
prise sous un angle plus qualitatif puisqu’il s’agit de témoigner de reconnaissance envers son
interlocuteur. Ce modèle prend acte du fait que les individus sont à la recherche de réassurance
mutuelle. Ils sont sensibles aux témoignages d’attention. Dans un Web souvent qualifié de
narcissique, ces derniers possèdent une valeur particulière permettant de renforcer le lien. Les
marques peuvent alors exploiter leurs espaces sociaux (pages, forums, compte Twitter, etc.) pour
témoigner de leur engagement auprès de leurs consommateurs et doubler ainsi le lien transactionnel
par un lien attentionnel. Les médias socionumériques constituent donc un territoire d’application
inédit des principes d’un certain marketing relationnel voulant que le lien compte davantage que le
bien (Cova 1995, Hetzel 2004, Martin et Todorov, 2010).
4. Le style renvoie à la culture du buzz et à la viralité. Le marketing se soucie beaucoup de ce mode
de propagation et de son ancêtre, la rumeur (Kapferer 1987). Les médias socionumériques
complexifient une fois encore ce phénomène (Dellarocas 2003, Kozinets et al., 2010). Dans ce
contexte d’économie de l’attention, la valeur est apportée par l’originalité, le style, tout ce qui
permet d’éviter l’ennui. Les recours à l’humour, aux effets spéciaux, à la ludicité (Rampnoux et La
Ville 2011) constituent des moyens de créer de la valeur dans ce cadre et d’initier ainsi le processus
de circulation des messages estimés divertissants, esthétiques, originaux, etc. En un mot, dignes
d’intérêt. Le marketing viral est favorisé dans le contexte des dispositifs orientés vers l’amitié ainsi
que sur les sites ayant vocation à agréger des contenus et centrés sur un intérêt. Le challenge consiste
alors à prendre part aux conversations ordinaires, en jouant sur l’esprit potache de ces réseaux, le
« fun », le « cool », et en devenant un contenu à éditer et partager. Il faut alors avoir conscience que
dans ce « marché de l’attention » (Goldhaber 1997), la concurrence est très vaste. Elle ne se limite
pas aux seules marques puisque chacun peut être candidat – heureux ou malheureux – à la popularité
sur Internet : Leave Britney Alone était la vidéo la plus vue sur YouTube en 2007 et la campagne
Red Bull Stratosphere en 2012, ayant coûté 50 millions d’euros, a généré autant de visionnage sur
YouTube que la vidéo amateur « Catch The Ice Dude », diffusée la même semaine, où un malheureux
saute dans une piscine plus gelée qu’il n’y paraît.
5. Le régime de l’alerte entretient des liens avec celui du style, mais il se focalise cette fois sur la
stimulation récurrente, quelle que soit la forme qu’elle prend. Son objectif est de perturber
l’attention accordée à d’autres éléments, à la manière des notifications push multipliées par les
applications mobiles et les réseaux socionumériques (Boullier, 2012b). Son effet est en général bref,
mais relativement profond. En ce sens, ce régime se rapproche aussi de l’amplificateur puisqu’il
s’agit d’obtenir une attention plus ou moins involontaire (Kessours, Mellet, Zouinar, 2010) : si nous
pouvons paramétrer la plupart de ces notifications, nous ne décidons pas du moment de leur
survenue. Ces « coups » (Boullier, 2012a) pour obtenir l’attention se retrouvent donc dans la même
situation concurrentielle qui rend leur efficacité d’autant plus limitée.
6. À l’opposé de ce régime, la fidélisation tend à préserver l’attention en engageant l’internaute dans
un rapport à long terme. Il est alors question de construire un cadre commun, des habitudes, des
routines chez l’internaute, qui l’encourageront à préférer un service aux autres. Les profils
constituent le signe le plus évident de cette personnalisation comparable à ce que Cochoy décrit
comme une captation (Cochoy, 2004), puisqu’il devient de plus en plus délicat d’abandonner ce
construit complexe avec le temps. Les distinctions et récompenses pour la fidélité constituent l’autre
source générant ce type d’attention, qu’il s’agisse du statut obtenu sur un forum, du nombre de
contacts sur un site de réseautage ou de l’accès à certains services dans les communautés en ligne.
7. L’immersion tente de cumuler les caractéristiques des deux régimes précédents en dépassant leurs
limites : si l’alerte permet d’obtenir une attention forte, elle est en revanche fugace ; Si la
fidélisation garantit une plus grande pérennité de l’attention, elle s’avère en revanche peu intense, au
point où l’usage puisse en devenir si familier qu’il disparaît de notre conscience (Kaufmann, 1995).
Pour cumuler l’intensité et la durée, l’enjeu consiste à fournir des expériences consistantes,
fascinantes, réalistes, à la manière des stratégies transmédias (Bourdaa, 2013). Cette démarche
ambitieuse s’avère évidemment très exigeante à mettre en place et repose notamment sur la capacité
à développer un véritable univers, dépassant la simple transmission de contenus pour proposer des
récits, et laissant des prises aux internautes pour qu’ils puissent intervenir au sein de celui-ci.

Les sites organisés autour de centres d’intérêt et orientés vers l’édition de contenu permettent de
réaliser des études spécialisées sur un domaine de pratique ou de consommation. La quantité des
informations échangées peut permettre l’élaboration de profils de consommation aboutis par l’emploi de
logiciels spécialisés (de type data mining). Cependant, la diversité et la qualité des informations
disponibles sur ces espaces encouragent aussi à effectuer des études qualitatives renseignant en
profondeur sur les cultures de consommation au sein desquelles les marques s’inscrivent (cf.
ethnographie virtuelle et netnographie dans la section suivante).
Les réseaux socionumériques et les sites de réseautage constituent des supports à fort potentiel pour les
enquêtes en ligne par questionnaire. L’effet de réseau et la prescription des amis qui recommandent à
leurs proches de faire de même y sont très efficaces (Tchuente et al., 2011). Ces plateformes recueillent
surtout un très grand nombre de données personnelles sur leurs utilisateurs. C’est d’ailleurs le cœur de
leur business model. Elles sont à même de les exploiter directement ou pour des tiers. Les marques ont
donc intérêt à accéder à ces informations pour construire et/ou affiner leurs bases de données. Les
méthodes d’analyse structurale des réseaux sociaux (ARS) paraissent les plus prometteuses puisqu’elles
analysent non plus les individus mais les relations qui les unissent. Les exigences méthodologiques de
l’ARS sont toutefois très élevées (Stenger et Coutant, 2010). Elles conduisent à utiliser ces méthodes
avec précaution, notamment en associant des résultats issus d’études qualitatives aux résultats renvoyés
par les logiciels d’analyse réseau (Tchuente et al., 2011).

3 Les grands types de médias socionumériques


Avant d’examiner en détail les actions marketing adaptées à ces dispositifs (section 2), nous proposons
d’établir un panorama des grands types (catégories) de médias socionumériques.

3.1 Blogs et plateformes de blogs


Le terme Weblog, qui sera vite raccourci en blog (et ses auteurs qualifiés de blogeurs), serait apparu en
décembre 1997 avec Jorn Barger, mais les origines et la filiation exactes sont difficiles à établir (Le Cam
2010). Les Weblogs seraient issus de pratiques des milieux informatique et journalistique mais aussi de
pratiques plus intimes et personnelles. Si Pitas.com est considérée historiquement comme la première
plateforme de blogs gratuite grand public (1999), c’est Blogger qui va la même année démocratiser et
populariser le phénomène du blogging.
Aujourd’hui, un blog peut être défini comme un journal personnel en ligne. Contrairement aux pages
personnelles qui nécessitaient des compétences techniques (langage HTML, protocole de transfert FTP,
etc.), les blogs sont très simples à utiliser. Les outils de conception s’apparentent à des versions
simplifiées de traitements de texte tels que Word de Microsoft ou Writer d’OpenOffice. Ils sont composés
d’une succession d’articles qualifiés de billets, contenant texte, photo, audio ou vidéo et présentés du plus
récent au plus ancien.
Les blogs possèdent généralement un système de commentaires permettant aux lecteurs de réagir, ce qui
implique un suivi continu et une modération, au risque de voir le contenu du blog échapper à son auteur.
Cette participation est au cœur de la dynamique sociale des blogs et constitue souvent l’objectif central
pour son auteur.
L’intérêt marketing pour une marque qui arriverait à fédérer autour d’un blog est évident. Quatre
démarches sont en fait envisageables :
identifier et collaborer avec des blogueurs populaires considérés comme influents, dans une logique de
leadership d’opinion ; il faut alors veiller à évaluer cette influence avec pertinence (Vernette et Tissier-
Desbordes, 2012 ; Perters et al., 2013) ;
bénéficier des informations publiées sur le blog pour obtenir un feedback des consommateurs (cf.
Balagué et Devalck, 2013) ;
créer et animer un blog de marque
créer et animer un blog pour un événement spécifique.
Ces démarches sont difficiles à mener car les résistances de la « blogosphère » aux démarches
marketing sont intrinsèques à la « culture blog ». De grandes entreprises pourtant conseillées par des
agences ont déjà fait les frais de cet apprentissage. Parmi les exemples les plus connus et les plus
documentés, citons le cas de L’Oréal avec sa marque Vichy et le blog Le journal de ma peau (qui tentait
de se faire passer pour une cliente (cf. cas d’entreprise ci-après). Les blogueurs débattent aussi entre eux
des vertus, limites et implications déontologiques des billets promotionnels, c’est-à-dire commandés par
une marque. Faut-il alors en informer les lecteurs du blog ? L’éthique encourage à répondre positivement,
d’autant plus que la facilité avec laquelle l’information circule dans la blogosphère rend illusoire
d’espérer conserver le secret longtemps. Blogueurs comme marques ont donc tout à perdre à assimiler
leurs démarches à de la manipulation.
Les blogs ont permis de nombreux succès. Axe s’est par exemple fait le spécialiste des campagnes sur
Skyrock, fondées sur des concours où les participants voient leur blog habillé aux couleurs de la marque
le temps de l’opération. L’exploitation du potentiel viral de la plateforme et une participation à la culture
générationnelle des adolescents permettent à Axe d’asseoir son image jeune et décalée auprès de cette
cible.
Les blogs constituent aussi des outils de veille sur de nombreux sujets. On notera ainsi l’existence de
blogs spécialisés en e-marketing, TIC et médias sociaux tels que TechCrunch.com, ReadWriteWeb.com
(et leurs versions françaises), Mediassociaux.com ou i-marketing.blogspot.com. Notons enfin l’existence
du portail Wikio.com, qui permet de rechercher par thème des articles dans les sites de presse et les
blogs les plus fréquentés.

Cas d’entreprise
Les internautes ont eu la peau du Journal de ma peau
L’expérience difficile vécue par la marque Vichy du groupe L’Oréal lors du lancement du blog « Le
journal de ma peau » constitue l’un des cas marketing les plus commentés par la profession.
À l’origine de ce cas se trouve la décision prise par l’agence Euro RSCG 4D de monter un faux blog
d’une consommatrice, Claire, pour le compte des laboratoires Vichy. Claire est utilisatrice des
produits Vichy et le ton est clairement promotionnel, mais rien ne renseigne sur le caractère factice
du blog. Le site est lancé le 27 avril 2005. En à peine deux semaines, de nombreux blogueurs
dénoncent ce dernier et la manipulation commerciale qu’il représente. L’affaire est rapidement
reprise par les blogueurs influents, les consultants en marketing et même le secteur de la santé, tant et
si bien que les médias classiques finissent par accorder un traitement médiatique important à cette
polémique. L’équipe marketing de Vichy fait amende honorable et réagit rapidement. Dès juin, le site
est profondément modifié : sa vocation promotionnelle est clairement indiquée, de vraies blogueuses
sont recrutées pour animer le site et identifiées comme telles, les faux commentaires sont effacés et
les internautes sont encouragés à laisser leur propre témoignage. Blogueurs comme spécialistes du
marketing saluent cette gestion de crise efficace. Le nouveau site laissera indifférent les internautes.
Il est fermé fin 2006 et remplacé par un site vitrine de la marque.
On l’aura compris, il est facile de fédérer contre les marques mais beaucoup plus difficile de
rassembler en sa faveur. Plusieurs règles s’appliquant aux médias sociaux en découlent :
Tout se sait ou finit par se savoir. Il est donc très dangereux d’envisager des démarches qui ne
manqueront pas d’être perçues comme manipulatoires.
Les utilisateurs perçoivent les médias sociaux comme des espaces qui leur appartiennent. Ils
sont d’autant plus sévères dans leur jugement de telles stratégies qu’ils se sentent trahis dans un
espace personnel.
Enfin, les médias sociaux constituent pour leurs utilisateurs une alternative aux dispositifs
officiels de la marque. Reproduire ces dispositifs risque de provoquer au mieux l’indifférence,
au pire la défiance. L’entreprise doit plutôt chercher à intervenir sur les espaces animés par les
utilisateurs, lorsque la présence des marques n’y est pas clairement refusée. Les responsables
marketing doivent alors accepter d’accompagner leurs consommateurs et non de les diriger.

3.2 Communautés en ligne


La communauté en ligne ou communauté virtuelle est l’exemple typique de dispositif où la participation
est motivée par un intérêt précis (versus l’amitié). En effet, nul besoin d’être expert pour connaître les
motivations des internautes visitant quotidiennement les sites communautaires golftechnic.com ou
basketsession.com. Elle intéresse ainsi particulièrement le marketing qui y voie un outil de segmentation
naturel.
Les communautés en ligne constituent les dispositifs Web les plus étudiés en e-marketing. Il existe un
débat sur l’emploi de la notion de communauté en ligne, dont ressortent au moins deux acceptions du
terme. La première, extensive, doit être prise au sens de mise en commun et peut être considérée comme
synonyme de regroupement. La seconde, plus restrictive, considère les communautés en ligne comme une
forme particulière de groupe social où les liens qui unissent les membres sont différents de ceux unissant
d’autres regroupements (associations de consommateurs, familles, clubs, amis, collègues, publics). Dans
ce cas, l’appellation communautés virtuelles est souvent préférée à celle de communautés en ligne. Le
marketing s’intéresse à ces groupes essentiellement sous l’angle des communautés de marque ou de
consommation.
Gensollen relève que les communautés « peuvent servir, à la fois, au conseil avant l’achat, pour les
biens d’expérience ; au soutien après l’achat, pour les biens complexes ; à la mise en relation des
utilisateurs et des concepteurs, afin d’asservir l’innovation aux usages ; enfin, elles constituent un espace
de rencontre entre, d’un côté, une production hiérarchique et rationnelle, de l’autre, une consommation
hédonique et sauvage » (2006, p. 109). Gensollen précise : « On emploie ici « sauvage » dans le sens
donné à ce mot par Lévi-Strauss dans La Pensée sauvage (1962) : il s’agit d’une pratique inventive,
tâtonnante, analogique, empirique et bricoleuse ». C’est l’échange qui est au cœur des pratiques
communautaires en ligne et l’objet de cet échange qui le conduit à distinguer :
les communautés d’expérience : sites où les personnes peuvent échanger des avis, des critiques, des
conseils, qui facilitent le choix des consommateurs pour les biens d’expérience, en particulier les
biens culturels ;
les communautés d’échange (de fichiers) : communautés de mise en commun de fichiers,
essentiellement de biens culturels ou de logiciels ; ces communautés permettent de dégager les gains
de productivité promis par les TIC, gains qui reposent sur les faibles coûts de duplication, de
traitement et de stockage de l’information numérisée ;
les communautés épistémiques (c’est-à-dire ayant trait à la construction de la connaissance) où il
s’agit de partager des savoirs, des connaissances, ce qui permet de diffuser la connaissance requise
pour des biens complexes. Dans ces espaces, consommateurs et designers peuvent communiquer et
concevoir ensemble des produits nouveaux adaptés.
La définition extensive des communautés permet de souligner la complexité des échanges, les formes
originales de communication, les modes de socialisation, les formes de participation et la diversité des
rôles au sein des communautés.
La définition plus restrictive des communautés en fait des groupes particuliers formés autour d’une
pratique ou d’un intérêt commun, partageant des valeurs, attitudes et pratiques communes ainsi qu’un
sentiment réciproque d’appartenance. La littérature marketing, qui les qualifie plutôt de virtuelles, est
extrêmement abondante depuis les ouvrages de Rheingold (1993) : The Virtual Community, puis Hagel et
Armstrong (1997) : Net Gain. Les deux ouvrages identifient l’intérêt d’accéder aisément à des segments
cibles structurés autour d’intérêts précis mais les « modèles » et outils proposés restent très classiques :
publicité, e-mailing, abonnement. Nous aborderons dans la deuxième section de ce chapitre des outils
plus fins pour le marketing qui peuvent être synthétisés autour de deux axes : la communication et la
participation.
REMARQ UE
La virtualité est traditionnellement opposée à l’« actuel » par les philosophes. Le virtuel est alors l’état de ce qui n’est pas encore
actualisé. Dans ce cas, le terme convient mal aux communautés retrouvées sur Internet, dont les liens et les actions sont tout à fait actuels.
Pire, le terme pourrait encourager à penser que les relations nouées sur Internet pourraient avoir un degré moindre de réalité. L’idée
qu’Internet détournerait les utilisateurs d’une « vraie » vie ou de « vrais » liens se trouve ainsi encouragée. Or, si les relations nouées sur
Internet ont des caractéristiques propres, les enquêtes sociologiques témoignent toutes du fait qu’elles ne constituent en rien des ersatz de
relations sociales (Ito 2009, Jenkins 2006a, 2006b, Proulx, Poissant et Sénécal 2006). L’appellation « en ligne » comporte l’avantage d’être
plus neutre.

Les communautés en ligne sont surtout des communautés d’intérêt. Dans la communauté traditionnelle
(Tönnies 1922), le lien se fondait essentiellement en fonction d’un territoire partagé. Pensons aux routes
et aux moyens de transport qui connectaient les résidences des familles dans le village, aux écoles
communales ou aux divers services (parcs publics, police, hôpitaux) se situant à proximité. Les situations
d’interactions en ligne ne reproduisent rien de tel. Au contraire, la notion d’espace physique y est en
grande partie absente. Ce qui fait lien entre les membres d’un groupe se reconnaissant comme
communautaire tient alors davantage au partage d’intérêts, de pratiques ou d’opinions communs (Proulx,
Poissant et Sénécal 2006).
Notons enfin que les communautés constituent des groupes sociaux et non un type de site Web aux
caractéristiques techniques précises. Elles sont donc susceptibles de se former par l’intermédiaire de
multiples supports, même si le forum reste le support d’expression le plus fréquent. Un site
communautaire peut donc héberger une plateforme de blogs, des forums spécialisés, des articles, des
wikis, des profils, etc. tous dédiés au thème de cette communauté.

3.3 Wikis
Les wikis sont des espaces en ligne réalisés et partagés par un grand nombre d’utilisateurs qui
disposent chacun de la possibilité de construire et de modifier le contenu. Certains utilisateurs ont
généralement un droit de validation des modifications. L’encyclopédie Wikipédia est le principal
exemple de wiki mais d’autres sites comme Wookipeedia (Starwars. wikia.com), consacré à l’univers de
Star Wars ou Bibliopedia (Bibliopedia.fr), proposant des ressources aux bibliothécaires francophones,
en sont aussi représentatifs.
Les wikis s’inscrivent dans une logique d’intelligence collective et de collaboration universelle pour la
production commune de savoirs chère aux pionniers de l’Internet. Pierre Lévy (1994) qualifie de
« computation sociale » cette collaboration qui « construit et partage de manière collaborative des
mémoires numériques collectives à l’échelle mondiale ». Lévy a une conception très large du concept : il
retient les photos, vidéos, la musique, les signets* ou encore les connaissances encyclopédiques. Aussi,
la publicité y est généralement proscrite, comme toute démarche marketing. Indépendamment de la
présentation officielle de l’entreprise ou de la marque dans une démarche de communication très
institutionnelle, le marketing a donc peu de marge de manœuvre avec les wikis comme Wikipédia, qui
sont historiquement et officiellement opposés à toute activité marchande. Une entreprise se doit toutefois
d’avoir une page décrivant objectivement ses activités sur Wikipédia.
Les entreprises et les marques peuvent créer leur propre wiki avec des finalités pouvant aller de la
communication média à la recherche et développement et la conception de produits nouveaux, en passant
par la mobilisation d’une communauté d’intérêt. Le projet InnoCentive auquel participent Procter &
Gamble, les laboratoires Eli Lilly (à l’origine du projet) et 62 autres partenaires encouragent, contre une
rétribution financière, les scientifiques du monde entier à collaborer et concevoir de nouveaux
médicaments. Ce principe de « collaboration de masse » facilité par Internet a été particulièrement
analysé par Tapscott (1996) et Tapscott et Williams (2006). Ils en vantent les mérites dans leur ouvrage
Wikinomics (généralement traduit par wikinomie ou économie de la collaboration de masse) à travers des
études de cas. Tapscott et Williams voient dans les exemples de Wikipédia, MySpace, YouTube, mais
aussi de Boeing, BMW ou Procter & Gamble (exemple supra), la remise en cause du modèle
hiérarchique traditionnel entre producteurs et consommateurs. Ils présentent les enjeux et (brièvement) les
processus de cette intelligence collaborative qui permet de réduire les coûts (de recherche et
développement en particulier, mais aussi de marketing) et de co-créer de nouvelles offres en associant
clients, partenaires et bénévoles. Si les cas étudiés sont intéressants et stimulent la réflexion, il faut
néanmoins garder à l’esprit qu’ils demeurent exceptionnels dans les industries concernées.

Focus 2.6
La folksonomie
Le terme folksonomie renvoie moins à une plateforme particulière qu’à une forme de classement des
informations sur le Web, popularisée par le site Technorati, dans laquelle les contenus sont classés
en fonction des avis des utilisateurs. Ces derniers sont obtenus via des « tags » ou mots-clés qu’ils
décident de lier aux ressources publiées afin de les caractériser. Le classement obtenu n’est plus le
fruit d’un expert ou d’une autorité reconnue comme compétente mais représente l’avis direct des
internautes. Ce classement peut être le seul retenu par le site ou se cumuler avec d’autres indicateurs
pour obtenir une évaluation de qualité optimale des contenus. Digg constitue l’un des premiers sites
à mobiliser « la sagesse des foules » (Surowiecki 2008) pour classer et hiérarchiser les contenus
disponibles sur le Web. Au point que les sites permettant aux utilisateurs la publication de liens vers
d’autres sites ou des articles sont désormais qualifiés de Digg-like. Le site Del. icio. us propose
pour sa part aux internautes de mutualiser leurs favoris Web afin d’identifier les sites les plus en vue
en se basant sur une analyse sémantique des mots-clés associés à chaque URL. Signalons aussi le
succès du site français Wikio, qui propose une sélection de contenus puisés dans les sites de presse,
les blogs, les sites d’avis de consommateurs et les sites marchands.
L’ensemble des tags peut être visualisé par un moyen populaire : le tag cloud, c’est-à-dire un nuage
de mots qui affiche les tags qui ont été les plus utilisés dans un laps de temps donné. La taille des
mots est proportionnelle à la fréquence de leur utilisation dans les tags des internautes, ce qui permet
d’identifier en un clin d’œil les « sujets chauds ».
Source : Tchuente et al. (2011).
Figure 2.3 Nuage de mots obtenu à partir des centres d’intérêt des profils sur Facebook
La folksonomie est désormais intégrée, au moins partiellement, sur de nombreux sites marchands, à
l’image des évaluations, listes et avis proposés par le site Amazon, l’un des pionniers de l’utilisation de
ce service. L’intérêt est multiple :
mise à disposition d’un nouveau type de prescription complémentaire aux informations
commerciales ou avis d’experts (Stenger 2006, 2008) ;
contenu rédactionnel des sites délégué aux utilisateurs, allégeant d’autant la charge de travail des
gestionnaires du site ;
fidélisation des clients, par la possibilité d’intervenir sur le contenu.
Comme pour la plupart des médias sociaux, la liberté d’avis et de ton des contributeurs est le prix à
payer. Cela nécessite de faire accepter aux marques de voir parfois leurs produits critiqués sur la page
même où est présenté le produit.
Il n’existe que très peu de travaux en marketing sur les wikis. Il s’agit pourtant d’un terrain d’étude
prometteur en matière d’innovation produit, de gestion de la relation client et de communication en ligne.

3.4 Mondes et univers virtuels


Les mondes et univers virtuels « sont des environnements persistants, de simulation en trois dimensions
(3D), dans lesquels l’utilisateur se déplace et interagit à la fois sur le monde et avec les autres
utilisateurs par la médiation d’un avatar, représentant de l’individu dans un monde virtuel » (Parmentier
et Rolland 2009, p. 44). Ces dispositifs ont charrié un ensemble de fantasmes, de craintes et d’espoirs à
propos de la possibilité qu’ils offriraient à chacun de démarrer une « seconde vie », pour reprendre le
nom du plus connu d’entre eux. Un marché important était prévu puisqu’il s’agirait alors pour l’individu
de s’équiper à nouveau de tout ce dont il a besoin au quotidien : domicile, ameublement, vêtements et
bijoux, moyens de locomotion, etc. De la même manière, les activités passeraient par la consommation de
services divers et variés : activités culturelles et festives, restauration, etc. Outre la possibilité
d’interagir avec d’autres personnes, ces sites insistent sur l’opportunité qu’ils offrent de s’inventer une
autre vie, plus ou moins éloignée de sa vie hors ligne, grâce à la disparition des contraintes de
nombreuses caractéristiques identitaires indissociables de l’individu dans les situations hors ligne (sexe,
âge, caractéristiques physiques, situation géographique).
Les utilisateurs de ces sites se sont vite révélés de véritables amateurs des marques. Avec quelques
années de recul, il convient de relativiser cet engouement. L’enthousiasme initial des entreprises est vite
retombé, faute de résultats encourageants en matière de fréquentation des dispositifs proposés par les
marques. Second Life, plateforme la plus médiatisée, a d’ailleurs rapidement quitté les gros titres après
avoir bénéficié d’une couverture médiatique impressionnante en 2006-2007. Ses récentes stratégies de
développement de solutions pour entreprises, davantage orientées vers la gestion des ressources
humaines, n’ont pas davantage convaincu. Les raisons de cette fréquentation relativement faible sont
nombreuses :
les contraintes techniques imposant parfois l’installation d’un logiciel dédié pour accéder au monde
virtuel ;
un niveau de compétence technique relativement élevé pour l’utilisateur ;
les contraintes temporelles propres à la gestion de sa vie virtuelle. À la différence des jeux en ligne,
les univers virtuels ne sont pas organisés autour d’objectifs précis. L’intérêt d’y être présent n’arrive
qu’avec un engagement suffisant pour que l’utilisateur puisse se construire un quotidien. Il s’agit
donc d’une activité chronophage ;
la surestimation de la capacité et de l’envie de se créer une vie alternative. Contrairement à ce que
pourrait laisser penser le discours de promotion des espaces virtuels, il n’est pas aisé de s’inventer
nouveau ou différent, en ligne comme hors ligne. Ceci nécessite des ressources identitaires élevées,
notamment en matière de capitaux culturels et sociaux. La mise à disposition d’un avatar
personnalisable ne garantit pas pour autant la capacité des individus à « l’habiter » en tant que
support identitaire. Par ailleurs, le travail nécessaire à la gestion de sa vie hors ligne est déjà
important et peut laisser planer un doute sur l’envie des individus de doubler celui-ci en se dotant
d’une deuxième vie. Ces limites se sont traduites par l’abandon de ces espaces par de nombreuses
marques.
Toutefois, des travaux marketing ont mis en évidence l’intérêt de ces sites pour favoriser les
interactions entre grandes marques et consommateurs. L’exposition à des magasins phares virtuels, c’est-
à-dire l’équivalent en ligne des points de vente détenus par la marque et servant à vendre tout autant qu’à
renforcer l’image de marque, a ainsi une incidence sur l’attitude positive envers la marque et sur
l’intention d’achat hors ligne (Haenlein et Kaplan 2009). L’expérience d’achat et l’usage en ligne auraient
même un impact significatif sur l’attitude envers la marque et l’intention d’achat (idem). Les mondes
virtuels s’avèrent donc des espaces propices aux interactions marchandes et favorisant aussi la relation
hors ligne de l’individu à la marque. C’est naturellement le cas dans les mondes où le joueur/membre est
placé en situation de consommateur, comme dans Habbo Hotel ou Second Life, où il peut par le biais de
son avatar acheter dans des boutiques virtuelles des vêtements, cheveux et caractéristiques physiques
prêts à l’emploi. Les limites évoquées supra doivent néanmoins encourager le marketeur à demeurer
sensible au ratio entre le nombre de contacts possibles et les coûts de déploiement d’une présence en
ligne. Une autre difficulté, régulièrement rencontrée en ligne, consiste dans la caractérisation des profils
de consommateurs. En effet, le contact s’initie avec un avatar qui pourra parfois se révéler fort éloigné de
l’identité de son possesseur hors ligne (Turkle, 1996). Parmentier et Rolland (2009) identifient ainsi
quatre formes de positionnements identitaires sur Second Life selon que les utilisateurs modifient ou non
leur apparence et leur comportement.
Ils rapprochent ensuite ces postures d’une démarche de renforcement ou d’ouverture identitaire. Dans le
premier cas, les individus ne testent pas de facettes identitaires nouvelles et le monde virtuel sert
uniquement à vivre de nouvelles expériences. Dans le second, l’individu révèle, teste ou libère des
facettes qu’il n’assumerait pas hors ligne. Enfin, ces postures sont associées à des activités davantage
orientées vers la consommation des offres disponibles dans le monde virtuel ou au contraire vers la
création de ses propres projets.

3.5 Réseaux socionumériques et sites de réseautage


Le premier site identifié comme réseau socionumérique est SixDegree.com en 1997, bien avant
l’avènement du Web 2.0 et la popularité des sites actuels tels que Facebook, MySpace, Hi5, Orkut, etc.
Souvent présentés comme synonymes et symboles des médias sociaux, les réseaux socionumériques
doivent pourtant être très clairement distingués des autres dispositifs car ils sont les supports d’usages, de
formes de communication, d’échanges, de relations sociales spécifiques. L’erreur la plus fréquente
consiste à les considérer comme des communautés virtuelles, ce qui est tentant car ces dernières sont
effectivement mieux connues et plus faciles d’accès pour le marketing (voir supra).
Les réseaux socionumériques (RSN) peuvent être définis comme des services Web qui permettent aux
individus de :
construire un profil public ou semi-public au sein d’un système ;
gérer une liste des utilisateurs avec lesquels ils partagent un lien ;
voir et naviguer sur leur liste de liens et sur ceux établis par les autres au sein du système (Boyd et
Ellison 2007) ;
ils fondent leur attractivité essentiellement sur l’opportunité de retrouver ses « amis » et d’interagir
avec eux par le biais de profils, listes de contacts et applications à travers une grande variété
d’activités (Stenger et Coutant 2011).
Les utilisateurs des RSN rejoignent et utilisent les dispositifs pour retrouver leurs « amis » et échanger
avec eux. C’est en cela que ces plateformes sont sociales et se distinguent d’autres dispositifs. Les RSN
doivent notamment être distingués des sites de réseautage (networking) professionnels tels que LinkedIn
et Viadeo, focalisés sur un intérêt précis. Si leurs caractéristiques techniques peuvent paraître proches
(profil, liste de contacts, inscription à des groupes), leur objectif diffère : les seconds sont exclusivement
destinés à la promotion de la carrière professionnelle, notamment au branding personnel. Les RSN se
distinguent aussi des communautés en ligne (quel que soit le type de communauté), car ces dernières
procèdent d’un regroupement par intérêt : pour les Harley Davidson, le football brésilien, la photographie
marine, l’harmonica, l’e-marketing ou la cuisine vietnamienne, etc. A contrario, les RSN correspondent
avant tout à des plateformes où des « amis » se retrouvent et « traînent ensemble » (Ito 2010). Ami doit
ici être compris dans une acception élargie renvoyant aux connaissances de l’utilisateur. L’idée de
« traîner ensemble » signifie pour sa part que les utilisateurs (essentiellement des jeunes) y mènent un
ensemble très diversifié d’activités valant moins en elles-mêmes que pour l’occasion qu’elles constituent
de rentrer en relation avec ses amis.

Focus 2.7
Yes we c@n : Barack Obama 08
Barack Obama a été le candidat des réseaux sociaux, a-t-on pu lire à travers la presse. Épaulé par
Chris Hughes, cofondateur de Facebook, il a su à la fois mobiliser les réseaux socionumériques
existants et surtout créer son propre réseau social : « MyBO » pour collecter des fonds et recruter
des « ambassadeurs » (social media ambassadors) qui se sont chargés de la promotion de sa
campagne.
Deux études de cas assez complètes de l’agence SocialMedia8 (2009) et de l’agence de relations
publiques Eldelman et Krempasky (2009) retracent la stratégie mise en place par l’équipe d’Obama.
Elles incitent les professionnels du marketing à s’en inspirer pour réaliser des campagnes plus
innovantes, interactives et efficaces, indiquent Girard et Fallery (2009). Le rapport de la mission
Terranova (accessible en ligne) réalisée en France est aussi instructif.
Nous nous arrêterons ici sur le bilan synthétique mais précis de cette campagne dressé par
Heinderyckx (2011). Elle ne constitue pas selon lui une quelconque virtualisation de la campagne
électorale, mais bien une utilisation intelligente et très efficace d’un ensemble de TIC au service de
modalités très traditionnelles de campagne. Le Web, les réseaux sociaux et les téléphones portables
se sont révélés d’une efficacité inédite dans un champ d’actions stratégiques en direction de cinq
axes : recruter des militants, les motiver, les informer, les organiser et récolter des fonds, explique-t-
il. Les médias ont en effet surtout commenté le recours à Facebook et à un réseau social dédié
(mybarackobama.com) ayant compté jusqu’à 2 millions de membres pour animer la campagne et en
particulier récolter des dons, un très grand nombre de petits dons (600 millions de dollars en tout),
illustrant à merveille l’intérêt de la « longue traîne » (cf. chapitre 1). Mais il faut aussi retenir le
rôle central des bases de données (chaque parti possédait des listes informant sur environ
200 millions d’individus), de l’e-mailing (1 milliard de messages envoyés à 13 millions d’adresses
mail), des vidéos et des SMS (5 à 20 messages envoyés chaque mois au million de correspondants
ayant enregistré leur numéro de téléphone mobile). Heinderyckx (2011) rappelle aussi que la plupart
des chiffres qui circulent à propos de la campagne d’Obama proviennent des organisateurs de la
campagne eux-mêmes et d’une interview accordée au Washington Post par Joe Rospars (New
Media Director de la campagne) en novembre 2008. En bref, les RSN ont avant tout été mobilisés
dans une optique de recrutement, d’animation, d’information, de collecte de fonds, avant qu’e-
mailing et SMS ne prennent le relais pour aboutir à une mobilisation « réelle » dans les rues
(80 000 réunions de quartiers), meetings et bureaux de vote (le site voteforchange.com a ainsi
permis de recevoir des informations personnalisées sur le sujet : où et comment voter en fonction de
son lieu de résidence et même et même de télécharger un formulaire d’inscription sur les listes
électorales).
L’engouement marketing pour les médias sociaux est incontestablement lié à la réussite de la campagne
d’Obama. Mais mobiliser les internautes pour faire la promotion d’une marque de produits de grande
consommation ne repose pas sur les mêmes ressorts que pour celle d’un candidat à la présidentielle tel
qu’Obama. Les expériences menées en France en marketing politique conduisent à des résultats contrastés
que le lancement peu remarqué des RSN du parti socialiste (La Coopol) et de l’UMP (Les Créateurs de
Possible) courant 2010 illustre bien. De plus, certains candidats peuvent constater qu’ils fédèrent parfois
au moins autant contre eux que pour eux.
La reprise du « modèle Obama » s’avère encore plus hasardeuse lorsque la démarche est appliquée aux
marques. Les utilisateurs de RSN paraissent effectivement indifférents aux démarches de ces dernières
sur ces espaces. Les jeunes utilisateurs déclarent, à quelques exceptions près, ne jamais avoir effectué de
démarche commerciale ou cherché de renseignements sur des produits par l’intermédiaire des réseaux
socionumériques. Ils soulignent qu’il existe d’autres plateformes pour cela (forums, sites officiels,
comparateurs, sites d’e-commerce ou de CtoC). Ils savent où se trouvent les encarts publicitaires et ne les
regardent pas. Pire, ils oublient très vite s’être inscrits sur des groupes ou pages de marque, les consultent
très rarement, n’y interviennent pas et n’ont le plus souvent jamais été directement sur la page mais se
sont inscrits par le biais du flux d’actualités en imitant leurs amis. Lorsque les démarches marketing se
font reconnaître, elles sont mal acceptées et perçues comme une intrusion dans leurs activités de
sociabilité. Enfin, la plupart ignorent que des espaces marchands, comme Facebook Marketplace, sont
accessibles.
Si ce bilan peut paraître assez sombre, on aurait tort de sous-estimer le potentiel des RSN pour le
marketing. Nous verrons dans la section 2 que de réelles opportunités existent pourtant à condition
d’adapter la démarche marketing aux pratiques des utilisateurs sur ces dispositifs.

3.6 Mashup
Le mashup n’est pas un dispositif spécifique mais un principe qui renvoie à l’assemblage de données
ou applications existantes afin de proposer de nouveaux services. Le terme est hérité du domaine musical
(le mashup consiste à associer au sein d’un nouveau morceau plusieurs morceaux préexistants). Appliqué
au cas des médias sociaux, un mashup est une application ou un service combinant du contenu ou du
service provenant de plusieurs applications ou sites. Ces applications utilisent les services Web ou les
flux RSS que les autres sites mettent à leur disposition.
Les mashups proposant des services de géolocalisation sont les plus connus, il existe pourtant bien
d’autres applications et services pour l’e-commerce (Mercanti-Guérin, 2013). L’API Google Maps est
l’exemple typique : elle fournit des services permettant à d’autres sites de pouvoir intégrer la recherche
des cartes dans leurs pages. Des sites d’e-commerce, comme Amazon ou PriceMinister, fournissent
également à des sites externes le moyen d’interroger leur catalogue de produits et d’utiliser les résultats
dans leur site. Cette possibilité a donné naissance à des services de comparateurs de prix comme Kelkoo
ou Earlyminer qui puisent dans les différents catalogues des sites d’e-commerce pour afficher en un même
endroit les résultats pour un même produit.

REMARQ UE
Techniquement, un mashup est composé d’API (Application Program Interface). Les API sont des interfaces permettant d’appeler une
application à partir d’une autre (hybridation).
Les mashups sont donc issus des possibilités d’assemblage d’API. Les grandes sociétés comme Google, Yahho, Amazon, eBay ou
Facebook offrent librement leur API (on dit alors que l’API est ouverte), afin de devenir incontournable sur le marché (Mercanti-Guérin,
2013).

Ce « bricolage » ouvre la porte à un ensemble de services permettant d’agréger l’information (prix,


avis, documentation technique, disponibilité, etc.), de la comparer, voire de l’évaluer. Plus encore, il
permet d’ajouter des informations ou services adaptés aux types d’échanges commerciaux : visualisation
sur une carte de la situation géographique d’une commande, localisation du domicile d’un vendeur,
invitation à partager ses activités par l’intermédiaire de ses profils sur les réseaux socionumériques ou
les forums, alertes, information en temps réel sur les enchères ou sur la mise en vente de produits relevant
d’une catégorie sélectionnée (appartements, places de concerts). Les bénéfices apportés aux
consommateurs en termes de gain de temps et de qualification des informations sont multiples. Un mashup
peut virtuellement être ajouté sur n’importe quel site relevant des médias sociaux pour offrir services ou
informations concernant l’entreprise.
Outre le développement de services, le mashup peut donner naissance à un ensemble d’outils
permettant de faciliter le travail de veille ou de gestion de relation client : tableau de bord agrégeant les
informations à la manière des agrégateurs de flux RSS (ex. : Netvibes, Google News en ligne ; Rss Owl,
Feed Reader en applications à installer sur l’ordinateur), application mettant automatiquement à jour les
informations clientèle ou entreprise à partir de bases de données en ligne.

Section 2 AGIR SUR LES MÉDIAS SOCIAUX

La cartographie retenue (cf. figure 2.4) permet d’identifier les types d’actions marketing selon les
contextes définis en termes de genre de participation et de visibilité.

Figure 2.4 Cartographie des médias socionumériques et des techniques marketing associées
Les chiffres de fréquentation particulièrement impressionnants des médias socionumériques ne doivent
pas aveugler le marketeur : une affluence importante ne signifie pas nécessairement une audience
qualifiée pour une marque. Les opportunités marketing dépendent à la fois des caractéristiques
fonctionnelles des plateformes, mais aussi des motivations des participants, de leurs usages et de leurs
pratiques (cf. section 1). Toutes les marques n’ont pas vocation à exploiter le cadre très spécifique des
médias socionumériques. Il s’agit effectivement de s’insérer dans un univers participatif où les
consommateurs disposent au moins autant que les marques du droit d’expression. Le choix de s’exprimer
sur les médias socionumériques doit donc correspondre à l’image que souhaite défendre la marque.
L’Oréal a développé une typologie de ses marques afin d’évaluer leur propension à engager le dialogue
avec leurs consommateurs. Elle les distingue sur un axe allant de la marque conversationnelle à la marque
d’autorité. Dans le premier cas, la recherche d’interactions avec les consommateurs et l’encouragement à
co-construire la communication et l’offre apparaissent cohérents. Les médias socionumériques peuvent
donc être envisagés au sein d’une démarche de communication plurimédia (multicanal) privilégiant la
connivence, l’événementiel, les occasions de rencontres entre représentants de la marque et
consommateurs. À l’opposé de cet axe, les marques d’autorité représentent davantage des modèles
destinés à provoquer le désir et l’aspiration à s’identifier aux attitudes, valeurs et esthétiques qu’elles
proposent. Elles exigent une certaine hauteur et se prêtent donc moins à la participation en ligne, toujours
difficile à maîtriser. Dans le cas de L’Oréal, cette distinction permet de ne pas développer la même
stratégie pour la marque Garnier, plus proche de ses consommateurs (comme le signale par exemple le
tutoiement de son slogan « Prends soin de toi ») et donc plus encline à entamer une discussion avec ces
derniers, ou pour la marque L’Oréal Paris, garante d’un niveau d’expertise qui la distingue.
Le marketing peut exploiter les médias socionumériques et le Web participatif sous plusieurs angles :
pour informer et communiquer auprès de larges audiences ou au contraire de cibles très précises ;
pour tenter d’exploiter la participation des internautes dans une logique de marketing participatif,
voire de co-conception ;
pour suivre et étudier les discours des internautes en matière de marque et de consommation ;
pour gérer les interactions avec les consommateurs (questions, commentaires, réclamations, retours
d’expérience etc.) dans une perspective désormais qualifiée de social CRM.
Quel que soit l’angle retenu, la définition d’indicateurs pertinents pour évaluer l’efficacité de ces
différentes actions marketing est indispensable.

1 Informer et communiquer avec les médias socionumériques


Les médias socionumériques constituent des espaces originaux. Ils peuvent donner lieu à des
campagnes de communication classiques top-down (one to many) mais aussi faire évoluer cette
communication verticale et unilatérale (il s’agit donc plus d’information que de communication), encore
largement majoritaire dans l’appréhension des médias socionumériques par les directions marketing
(Robson, Sutherland, 2012 ; Wolf, Archer, 2012), vers un dialogue entre l’internaute et la marque (one to
one) ou plus encore entre les internautes eux-mêmes (many to many). L’exploitation de cette
communication entre internautes et du potentiel viral associé constitue l’un des intérêts, mais aussi des
enjeux majeurs, de ces espaces.
Ainsi, par exemple, Fiat a promu en janvier 2010 l’édition limitée de sa Fiat 500 rose, vendue
exclusivement en ligne, en mettant en ligne une WebTV sur Pinkmyride. tv. Un ex-footballeur devait y
repeindre en rose une Fiat 500 à l’aide de vernis à ongles. Il ne pouvait s’exprimer autrement que par
Twitter pour tenter de recruter des personnes prêtes à l’aider. 40 000 visiteurs uniques se sont succédé
pendant ces quatre jours et Fiat est entrée dans le Guinness des records pour la plus longue publicité en
ligne jamais diffusée. Dans l’automobile toujours, Audi a lancé un site dédié : Mivirtualme.com
permettant de créer un avatar. Le dispositif complète un spot vidéo présentant une Audi A3 virtuelle
censée permettre, non sans ironie, de ressentir les sensations que procure cette voiture pour ceux qui
n’ont pas la chance d’en posséder une. Une fois créé, l’avatar gère les relations sociales de l’utilisateur
lorsque celui-ci n’est pas connecté. Il peut agir sur les différents comptes de son créateur grâce à
l’interopérabilité de Facebook Connect. Il en profite pour inclure dans les conversations qu’il initie
certaines références personnelles glanées sur le profil : clin d’œil sur le fait qu’il aimerait connaître le
double virtuel de la personne déclarée dans la rubrique « relation », évocation des groupes dont le
créateur s’est déclaré fan ou référence à des amis. Incidemment, il vante bien sûr aussi les mérites de la
voiture.
L’inventivité de ces campagnes est une nécessité dans un environnement où les internautes développent
leurs capacités d’évitement de la publicité en ligne (Cho et Cheon, 2004). Kelly et al. (2010) montrent
dans le cas des réseaux socionumériques que les jeunes en particulier évitent la publicité sur ces
plateformes et sont très sceptiques vis-à-vis de la pertinence et de l’intérêt des messages publicitaires sur
ces dispositifs. Ils leur préfèrent alors largement les avis de leurs pairs lorsqu’ils s’intéressent à des
produits de consommation (Pasquier, 2014)
Des démarches relativement efficaces existent néanmoins pour tenter de capter l’attention involontaire
des internautes via la publicité. C’est l’objectif du retargeting, qui consiste à proposer à nouveau les
contenus consultés par un internaute sous la forme de publicités. La Redoute agit ainsi sur Facebook :
grâce à l’utilisation des cookies, le site affiche aux utilisatrices fréquentant les deux plateformes les
derniers produits consultés sur La Redoute, ce que ces dernières remarquent et reconnaissent comme
tentant. Les tentatives de développer un commerce sur les RSN se révèlent pour leur part être de francs
échecs Web. Les enquêtes d’usage valident cette partition des activités en ligne où les internautes
distinguent bien les médias socionumériques des espaces où ils effectuent des achats.
Les utilisateurs ne se rendent que très rarement sur les espaces de communication ouverts par la marque
comme les pages et groupes. Quelques marques bénéficient d’une véritable affluence comme la page de
Nutella qui dispose de plus de 3 millions de fans animant le mur quotidiennement, ou la page de Chick-
fil-A disposant de plus de 1 million de fans, mais elles constituent les exceptions et deviennent dérisoires
dès lors qu’on les compare à l’audience potentielle disponible. Se lier à une page constitue en outre un
acte ponctuel, peu impliquant, souvent oublié dans l’instant. Il est rare que les pages soient ensuite
consultées, encore plus que les utilisateurs y interviennent. Ceux-ci laissent au mieux un message court
lors de leur première visite et beaucoup de pages sont occupées par des messages de spam. Pire encore,
les plus jeunes utilisateurs ne reconnaissent pas ces espaces comme ceux de la marque mais plutôt comme
la création par l’un de leurs pairs d’une page, en clin d’œil à ce qu’ils ne voient pas comme un objet
commercial mais un signe culturel générationnel (Coca-Cola, Nutella, etc.). Lorsque la page cherche à
faire connaître ses activités en s’inscrivant dans les flux d’actualités, cette intrusion au sein des nouvelles
des amis est souvent peu appréciée par les utilisateurs.

Cas d’entreprise
Breizh-banque.com – Communiquer sur les médias socionumériques
Dans le monde participatif et surchargé d’informations des médias socionumériques, communiquer
consiste déjà à dépasser le seuil de la visibilité. Pour cela, les plans de communication cherchent à
exploiter plusieurs plateformes simultanément. La plupart des campagnes ambitieuses ont su jouer sur
la complémentarité entre un site propriétaire et un panel de plateformes où faire connaître la
campagne et générer du trafic.
Le Crédit Agricole a suivi cette démarche en se focalisant sur sa clientèle bretonne. Le cœur de son
dispositif est constitué par un site dédié, Breizh-banque.com, lancé fin 2009. Développé initialement
en 3D, ce qui lui a valu une visibilité propre au régime du style parmi les médias spécialisés dans la
communication, il se veut espace communautaire régional tout autant qu’espace bancaire,
particulièrement destiné aux Bretons résidant hors Bretagne. Ainsi, des visioconférences sont
proposées avec les conseillers bancaires, mais la plus grande partie du site est consacrée à
l’information locale. Les espaces communautaires sont dédiés aux discussions autour du
développement économique et culturel de la Bretagne. On peut s’inscrire en créant un profil qui
donne accès à des offres spéciales, ouvre les forums de discussion et blogs et permet même d’avoir
accès à des petites annonces. Les membres sont particulièrement impliqués puisqu’ils peuvent aussi
donner leur avis sur les produits bancaires. Une offre adaptée aux expatriés bancaires est même née
de leurs réclamations. Le Crédit Agricole ambitionne de développer de nouveaux produits d’épargne
en lien avec la région. Pour mieux faire connaître ce site communautaire, la banque a aussi créé une
page et un profil Facebook, diffusé des publicités sur YouTube, développé un programme de
sponsoring d’événements bretons et prévu des relations publiques lui permettant une grande visibilité
lors de son lancement.
Source : http://cbWebletter.fr/2010/02/15/breizh-banque-innove-entre-3-d-et-communaute-
regionale

Focus 2.8
Des fans de marques sur Facebook ?
L’étude exploratoire1 menée par Helme-Guizon et Magboni (2013) propose les bases d’une
typologie de fans de marque sur Facebook. Envisagée sous l’angle de la relation à la marque et du
sentiment d’appartenance à une communauté, elle distingue cinq types de « fans » :
le fan passif ;
le fan délaissé ;
le fan intéressé ;
le fan fun ;
le fan modèle.
Si le fan modèle est le plus recherché par les marques (tous les indicateurs sont au vert : sentiment
d’appartenance à la communauté, engagement vis-à-vis de la marque, amour/passion envers la
marque, etc.), le fan passif est le plus représenté.
Enfin, les applications développées par les marques ou incluant des marques sont rarement reconnues
comme telles mais assimilées à des jeux en ligne (par exemple invitation à l’apéritif entre amis, envoi
d’un pot de pâte à tartiner, d’une paire de baskets, d’un téléphone mobile). À ce titre, le publicitaire
Franck Tapiro souligne que beaucoup de marques développent un jeu ou une application ludique sans se
signaler. L’intérêt est double : placer discrètement ses produits dans des jeux sans que ceci soit assimilé à
une publicité, et accéder à des informations contenues dans les profils (car l’installation d’une
application, sur Facebook par exemple, permet le recueil de données personnelles par l’auteur de
l’application). Outre la question éthique posée par ces pratiques, rappelons le risque pris par les marques
dans le cadre d’une prise de conscience de plus en plus grande des internautes de leur profilage. S’ils ont
une attitude ambivalente à l’égard de leurs données personnelles (se déclarant soucieux mais s’opposant
rarement à les publier et restant relativement indifférents à leur exploitation marketing), les réactions
d’hostilité face à une démarche perçue comme manipulatoire peuvent se révéler dramatiques pour une
image de marque. Par ailleurs, ils entretiennent un rapport aux exploitations marketing de leurs traces de
plus en plus réfléchi : leur acceptation de l’exploitation se fonde à la fois sur la justification de celle-ci
pour augmenter la qualité du service et sur l’intérêt perçu du service proposé (Lancelot-Miltgen, 2011).
Briser les mises en page habituelles des écrans consultés et encourager les internautes à se faire les
diffuseurs des campagnes constituent deux stratégies permettant de casser les routines d’évitement de la
publicité des consommateurs. Virgin Radio a relayé sa campagne d’affichage sur Facebook en proposant
à ses auditeurs et fans d’afficher leur publicité en photo de profil. À la clé, 5 000 euros à gagner pour l’un
des participants. La campagne a permis à Virgin Radio de multiplier par 10 le nombre de « fans ».
Lancôme propose pour sa part de déposer sa déclaration d’amour sur le love wall de son site dédié au
lancement de son parfum Trésor in Love. Cette démarche de marketing participatif vient s’ajouter au
contenu du site produit par la marque (vidéos tournées par le réalisateur du spot vidéo et diffusées
exclusivement en ligne). Il demeure évident que la grande majorité des destinataires de ces dispositifs ne
participeront pas, mais dans une perspective de visibilité de contenus publicitaires, le fait qu’ils soient
relayés, même par une minorité d’internautes, constitue un moyen de diffuser davantage le contenu et de
passer outre les routines d’évitement des zones usuellement réservées à la publicité.

Focus 2.9
Des publicités avec des fonctionnalités de partage ?
Yahoo! propose un service de partage des publicités en ligne. Cette décision fait suite à une vaste
étude menée en 2009 auprès de 1 062 internautes de 16 ans et plus et qui met en lumière que seules
22 marques sur les 1 039 annonçant sont mémorisées par les internautes. De même, si 71 % des
enquêtés déclarent avoir cherché à retrouver une publicité sur Internet, seulement 59 % d’entre eux
ont réussi.
L’enquête (qui combine focus groups, carnet d’écoute publicitaire, étude en ligne, journal vidéo) met
en lumière les attentes des internautes à l’égard des dispositifs en ligne, notamment en matière
d’aide-mémoire. Ainsi, 72 % des enquêtés déclarent ne pas faire confiance à leur mémoire. 73 %
font appel à une mémoire digitale au quotidien (ordinateur, assistant personnel, téléphone portable)
et ces chiffres augmentent avec les plus jeunes générations (89 % des 16-24 ans). Face à cela, les
internautes regrettent de ne pas trouver les mêmes fonctions de partage sur les publicités que celles
qu’ils trouvent sur les sites de partage de vidéos. Yahoo a donc testé plusieurs solutions, dont un
widget de stockage qui s’est cependant avéré trop compliqué à l’usage. Début février 2010, la
plateforme a équipé ses publicités de barres de partage similaires à celles de YouTube et
Dailymotion.

2 Accompagner la participation
Les marques sont de plus en plus conscientes qu’elles doivent engager de nouvelles relations avec les
clients et être davantage à l’écoute de leurs points de vue. L’ouvrage Groundswell de Li et Bernhoff
(2008), de Forrester Research, illustre quelques bonnes pratiques issues d’études de cas Web 2.0. Elles
renvoient essentiellement au bon sens et à des principes connus (s’interroger sur la volonté des clients de
participer, définir ses objectifs, choisir la bonne technologie). En bref, il s’agit de mettre en place une
écoute et un dialogue réels. L’honnêteté de la relation construite en ligne est primordiale. Dans le cas
contraire, les conséquences pourraient être lourdes. Alors que la presse comme les agences focalisent
leurs discours sur les opportunités marketing, insistons sur la conscience que doivent avoir les
professionnels du marketing des risques que comporte leur démarche de management ou tout du moins
d’influence sur le bouche-à-oreille en ligne.
Dans ce nouvel environnement que constituent les médias socionumériques, il serait d’ailleurs
dommageable de se focaliser sur les seuls exemples de succès. Outre le danger de l’effet loupe masquant
que la plupart des actions ne sont pas des réussites franches, il y a aussi beaucoup à apprendre des échecs
et des difficultés rencontrés par les marques. Ainsi de l’exemple connu de L’Oréal avec sa marque Vichy
et le blog Le journal de ma peau (2005) (cf. cas d’entreprise ci-avant). Les complaint sites (sites de
contestation) sont d’ailleurs apparus bien plus vite que les opportunités marketing et de manière plus
virulente. La facilité avec laquelle l’internaute peut désormais s’exprimer rend d’autant plus fréquentes et
inventives ces réactions hostiles à la marque telle que l’exploitation des données ouvertes pour fournir un
compteur des années de retard accumulées par les trains de la SNCF[2].
Le cas de Nestlé et de l’attaque menée en mars 2010 par Greenpeace (cf. cas d’entreprise ci-après)
convaincra ceux qui douteraient encore des risques associés à une présence sur les médias
socionumériques sans réelle conscience des enjeux et des codes. La stratégie de Greenpeace a été
d’autant plus efficace qu’elle ne s’est pas limitée à une plateforme mais a utilisé une variété de médias
socionumériques (YouTube, Twitter, Facebook), de blogs et sites dédiés, d’outils de communication
(logos détournés, clips vidéo, lettres à envoyer à Nestlé, etc.) et qu’elle a ensuite été relayée par les
médias traditionnels (CNN) et par les internautes eux-mêmes, condition sine qua non du Web participatif.
De plus, elle cible à la fois les fournisseurs de Nestlé et ses consommateurs. Les réactions de Nestlé suite
à cette crise permettent aussi de mieux comprendre l’investissement nécessaire pour envisager une
présence durable sur les médias socionumériques.

Cas d’entreprise
Nestlé face à Greenpeace
En mars 2010, Greenpeace met en ligne un premier article et surtout un clip vidéo parodiant une
publicité Kit-Kat, propriété de la marque Nestlé (la barre chocolatée est remplacée par un doigt
d’orang-outan). Un site dédié prend le relais et dénonce les agissements de Nestlé en Indonésie (sa
sélection de fournisseurs d’huile de palme). Une multitude de sites régionaux destinés à permettre aux
activistes de porter leurs actions localement l’accompagne. Enfin, du « matériel de campagne » est
mis en ligne sur le blog de Greenpeace : logos détournés, clips vidéo, lettres type à envoyer aux
représentants de Nestlé, etc. Ce blog joue le rôle de quartier général des attaques, relayé par Twitter,
dont la page a été rhabillée pour l’occasion. Le 17 mars, la guérilla est lancée et les tweets sur
Nestlé fourmillent.
La réponse de Nestlé est d’abord juridique. Nestlé tente de faire retirer la vidéo des sites comme
YouTube au motif qu’elle porte atteinte à sa propriété intellectuelle (emploi du logo). Conséquence :
les protestations jusqu’ici limitées aux blogs militants se multiplient sur la Toile et l’information est
même reprise dans certains médias comme CNN. Les internautes se retrouvent sur la page Facebook
de Nestlé pour clamer leur mécontentement et utiliser les outils de guérilla conçus par Greenpeace
(logos détournés en particulier – Killer Kat, Nestlé Killer, etc.). La participation devient populaire,
massive.
La gestion de cette crise sur la page Facebook par Nestlé correspond presque en tout point à ce qu’il
faut éviter de faire dans la culture des médias socionumériques : discours autoritaire, menaçant et
condescendant, refus de dialoguer avec les internautes, puis censure des commentaires négatifs à
l’encontre de la marque. Mais comment lutter face au nombre d’internautes mobilisés ? La page sera
finalement abandonnée quelques jours par le community manager d’alors, avant que celui-ci ne
s’excuse puis ne disparaisse. Il y avait pourtant des solutions, des réponses à apporter, à la fois
techniques (l’ouverture de la page Facebook sur le mur aurait pu être reparamétrée) et surtout en
termes de communication, de relation avec les internautes : de management de la participation en
ligne. Il faut aussi ajouter que la cause de cette attaque par Greenpeace aurait pu être traitée à la base
par Nestlé, qui aurait ainsi évité cette crise.
Deux ans plus tard, Nestlé dévoile les résultats de la profonde remise en question de son organisation
provoquée par cette crise. Ils se traduisent par la mise en place d’une équipe dédiée, la « digital
acceleration team ». Elle se compose de quinze personnes dédiées à la gestion de la réputation des
marques du groupe sur les médias socionumériques. Elle dispose de 12 % du budget marketing de la
marque (pour gérer pas moins de 800 pages sur Facebook), emploie des outils de veille avancés,
dispose d’une autonomie de réponse aux échanges initiés sur ces espaces et même d’un studio
audiovisuel dédié pour réaliser des contenus de qualité dans des délais compatibles avec la
temporalité très courte des médias socionumériques. Elle emploie d’ailleurs les tons et tactiques de
ses détracteurs (buzz, behind the scene, etc.). Cette équipe est aussi composée « d’évangélistes »
chargés de former les directions nationales lors de séminaires ou de séjours plus longs au siège de
Nestlé, afin que celles-ci diffusent ensuite la culture des médias socionumériques au sein de la
société. Cette organisation renouvelée repose sur un travail de deux ans de compréhension des
médias socionumériques. Il s’est fondé sur l’achat et la gestion du site Petfinder pour expérimenter
leur culture. Des partenariats auprès des acteurs des médias socionumériques (rendus visibles
notamment par le nom « Kitkat » donné par Google à l’une de ses versions d’Android) ont aussi été
lancés via l’ouverture d’un incubateur de Nestlé au sein de la Silicon Valley et par l’accueil de
représentants de ces grands acteurs au sein de la digital acceleration team.
Source : Fabrice Epelboin, « Nestlé se met aux réseaux sociaux pour mieux se défendre », 2013,
site Internet de la Tribune de Genève.

2.1 Communautés de marque et community management


Prolongeant les travaux de Muniz et O’Guinn (2001), Amine et Sitz définissent les communautés de
marque comme « un groupe électif pérenne de consommateurs partageant un système de valeurs, de
normes et de représentations (i. e. une culture) et se reconnaissant des liens d’appartenance de chacun
avec chacun et de chacun avec le tout communautaire sur la base d’un attachement commun à une marque
particulière » (2007, p. 65). Les marques se sont révélées particulièrement attentives à ces communautés,
d’autant plus susceptibles de répondre positivement à leurs sollicitations qu’elles sont censées se former
sur la base d’une même affinité pour l’une d’entre elles et d’une libre adhésion des participants. La
caractéristique majeure de ce type de regroupement est donc de permettre à la marque d’initier des
contacts plus relationnels que transactionnels. Fila, Nike ou encore Reebok ont ainsi pu bénéficier des
conseils de ces consommateurs éclairés lors du développement de nouvelles baskets (Füller, Jawecki et
Mühlbacher, 2006).
La structuration de ces communautés passe par un ensemble d’étapes identifiées par Amine et Sitz
(2007) : prise de conscience d’un attachement commun à une marque particulière ; création d’un lieu de
rencontre dédié ; interactions régulières construisant une culture commune ; développement d’un
sentiment d’appartenance ; stabilisation d’une hiérarchie des rôles et statuts au sein du groupe. Les
motivations des participants sont diverses : altruisme (répondre aux questions d’autres consommateurs
intéressés par la marque), hédonique (plaisir de rencontrer d’autres passionnés), recherche de leadership
(bénéficier d’un pouvoir au sein du groupe se constituant). Dans tous les cas, toujours selon les auteurs, il
en résulte un attachement au lieu de rencontre que les membres décrivent comme un espace chaleureux,
accueillant et amical, par opposition aux espaces généralistes qu’ils peuvent fréquenter.
Les bénéfices qu’une entreprise peut tirer d’une communauté de marque sont de plusieurs ordres. Le
plus évident est la fidélité des membres à la marque (Schau, Muniz et Arnould, 2009). Cette fidélité
communautaire est d’autant plus forte qu’elle ne repose plus sur une simple relation entre la marque et un
consommateur mais sur une relation triadique membre/marque/membres de la communauté. Elle se traduit
d’ailleurs régulièrement par une fidélité oppositionnelle (Muniz et Hamer 2001) consistant, lorsqu’on
apprécie fortement une marque, à détester en retour l’une de ses concurrentes considérée comme son
ennemie. Ainsi des partisans des Macintosh d’Apple qui ont pu développer une aversion en miroir pour
Microsoft. Certains membres peuvent aller jusqu’à devenir de véritables « évangélisateurs » (Mac
Alexander, Schouten et Koenig 2002, Muniz et O’Guinn 2001).
Les membres les plus actifs, par l’expertise qui leur est reconnue, constituent des leaders d’opinion
susceptibles de jouer un double rôle d’évangélisation de la marque auprès de leur cercle d’influence (en
ligne et hors ligne), mais aussi pour remonter l’information des utilisateurs vers l’entreprise. Dans ce cas,
ils seront utilement associés au processus d’innovation (Von Hippel, 2001), par leur connaissance des
attentes de la communauté et par leur expertise propre. Insistons sur ce dernier point car des recherches
récentes en marketing ont mis en évidence ce rôle très actif de co-construction que peuvent alors prendre
les membres des communautés (Füller, Jawecki et Mülhbacher 2006, Kozinets, Hemetsberger et Schau
2008, Füller et al., 2010) et la satisfaction que les membres retirent de leur participation active
(empowerment[3] parfois traduit par capacitation ou mise en capacité) dans des processus de co-création.
Indépendamment de ces formes très avancées, et finalement très rares à l’échelle du Web4, de co-
construction avec les consommateurs, une communauté de marque constitue une mine d’informations
extrêmement riches pour la marque. Les membres y échangent leurs avis sur les modèles, se livrent à des
récits de vie, commentent des expériences de consommation, demandent de l’aide lorsqu’ils rencontrent
des difficultés à utiliser le produit. Il est ainsi possible d’effectuer un relevé des éléments appréciés ou
dépréciés par les consommateurs, des dimensions à améliorer, des difficultés à résoudre.
Il existe toutefois un risque de voir ces communautés se transformer en groupes de pression une fois
qu’elles auront compris l’importance que leur accorde l’entreprise (Amine et Sitz 2007). Elles pourront
alors s’opposer à certaines décisions et réagir d’autant plus fortement que le non-respect de leur choix
pourra être interprété comme une trahison. Les réactions des amateurs de Newton, assistant personnel
numérique mis sur le marché par Apple en 1993, sont représentatives des complications dues à la trop
forte structuration d’une communauté d’amateurs. Lorsqu’Apple décide de retirer ce produit du marché en
1998, faute de succès commercial, cette société doit faire face à une franche hostilité de la part des
utilisateurs. Aujourd’hui, une communauté d’utilisateurs reste très active et s’est totalement approprié le
produit.
La prise en compte des communautés de marque ne doit pas pour autant aboutir à l’idée d’un pouvoir
exceptionnel exercé par la marque sur la communauté (Coutant, 2010). Muniz et O’Guinn (2001) le sous-
entendent lorsqu’ils insistent sur trois caractéristiques de ces communautés :
elles sont spécialisées et donc non englobantes. Il convient donc de distinguer l’attachement à une
marque (Apple à l’exception de toute autre marque d’informatique) de l’attachement à une culture ou
pratique plus générale (la photographie, le surf, le basket, la randonnée, les geeks). Le second cas,
beaucoup plus fréquent, ne garantit pas la même fidélité à la marque puisque les consommateurs sont
davantage passionnés par une pratique que par une marque particulière ;
elles sont non délimitées géographiquement. Les communautés accueillent non seulement des
amateurs de provenances et cultures diverses, mais peuvent aussi se déployer sur plusieurs supports,
en ligne ou hors ligne. L’analyste devra donc bien prendre gare à ne pas réunir tous les membres au
sein d’un unique profil d’adepte de la marque et rester conscient que les interactions auxquelles il a
accès sont peut-être lacunaires (cf. infra « Étudier et enquêter ») ;
elles sont constituées de consommateurs passionnés. Il s’agit donc d’une relation particulière nouée
avec la marque, non extensible à l’intégralité des consommateurs de cette dernière. Si certains
groupes de consommateurs de Nike retrouvés en ligne peuvent s’apparenter à une communauté de
marque, il existe de nombreux autres profils de consommateurs de cette dernière, peu susceptibles
d’entrer en contact avec les premiers, et qu’il est primordial de ne pas dédaigner.
Dans tous les cas, il serait dangereux commercialement et erroné de considérer ces communautés,
même lorsqu’elles témoignent d’un attachement exceptionnel à la marque, comme une simple variable
intégralement contrôlable à intégrer dans la stratégie de marque. Le fonctionnement d’une communauté de
marque est un phénomène complexe, social et culturel tout autant que consumériste. Engager une relation
avec une telle forme sociale implique pour l’entreprise d’accepter d’abandonner une partie de ses
prétentions au contrôle de sa marque pour se placer dans une optique de co-construction où tous les
retours qu’elle obtiendra ne seront pas nécessairement compatibles avec les choix stratégiques et
opérationnels qu’elle souhaite faire.
Enfin, le succès du terme « communauté de marque » a amené à qualifier ainsi bon nombre de collectifs
retrouvés en ligne. Les followers sur Twitter ou les fans sur Facebook relèveraient notamment de ce
phénomène. Or, il convient d’insister sur la rareté des communautés de marque si l’on s’en tient à la
définition précise qui en a été donnée (supra). Les résultats de l’étude consacrée par le Pew Internet à la
structuration des échanges sur Twitter soulignent ainsi à quel point les marques ne créent pas de collectifs
assimilables à des communautés et sont généralement sollicitées pour des raisons bien plus prosaïques de
SAV et de réclamations (cf. Stenger, 2014).

Focus 2.10
Community manager et social media management
La fonction de community manager, ou animateur de communauté, fait partie de celles tirant profit
de l’engouement pour les médias socionumériques. Ce « nouveau » métier doit sa popularité à la
multiplication des occasions de contacts avec les consommateurs. Il emprunte cependant à beaucoup
de fonctions plus « anciennes » trouvées dans le marketing, mais aussi dans la communication ou
dans le management. Les marques n’ont effectivement pas attendu l’avènement d’Internet pour se
rendre compte de l’existence de communautés de consommateurs. Les bikers, basketteurs, skateurs,
photographes, rockers, rappeurs sont étudiés et contactés depuis longtemps par les marques, comme
le marché des baskets l’illustre bien (voir à ce titre le documentaire Sneakers : le culte des baskets
de Lisa Leone et Thibaut de Longeville).
La structuration du métier s’effectue autour d’une tension entre deux visions de ce qu’il devrait être :
une première le voit comme une nouvelle fonction marketing focalisée sur la diffusion et la
valorisation des messages de la marque sur les médias socionumériques. Ce n’est alors pas tant la
communauté mais la marque qu’il s’agit de piloter et valoriser sur ces nouveaux vecteurs. On parle
alors plus souvent de social media manager. D’autres insistent sur son rôle dans l’établissement
d’une relation avec ses consommateurs. Ils voient ce métier comme une première étape permettant
de sortir d’une vision unidirectionnelle et transactionnelle des liens entre une marque et ses publics.
Si les praticiens en poste se reconnaissent davantage dans la seconde perspective, les recherches
menées sur le community management, portant pour l’instant majoritairement sur les perceptions et
attentes des entreprises à son égard, soulignent que les directions marketing comprennent davantage
la première (Robson, Sutherland, 2012 ; Wolf, Archer, 2012). Rappelons cependant le risque déjà
amplement souligné dans ce chapitre de prendre les médias socionumériques comme de simples
vecteurs de diffusion de contenus pour les marques.
Une autre question récurrente consiste à interroger le type de collectif auquel s’adresse le
community manager. Nombreux sont les praticiens et les analystes soulevant que le qualificatif de
communauté est trompeur. Les précautions soulevées à l’égard de l’emploi de la notion de
communauté de marque s’avèrent ici aussi essentielles. En effet, les community managers
s’adressent dans les faits à des collectifs variés où il s’avère toujours nécessaire de comprendre
quel type de lien est envisageable entre la marque et ses consommateurs. De cette compréhension
découlera le choix des actions que peut mener le community manager, s’étendant d’une simple
veille silencieuse à un rôle central d’animation.
Le métier de community manager est encore loin de s’être stabilisé autour de fonctions claires. On
peut cependant repérer quelques tâches récurrentes autour de cinq pôles : l’animation, la veille, la
création de contenu, la modération et la gestion de la réputation en ligne.
L’animation consiste repérer et/ou fédérer des communautés autour de sujets intéressant la marque
(marque elle-même mais aussi produits ou domaines de consommation, voire thèmes et valeurs). Le
rôle du community manager est alors d’initier et/ou encourager les échanges entre consommateurs,
de fixer le cas échéant des objectifs aux échanges (partage d’avis ou d’expériences, test de produit,
brainstorming de créativité)
La création de contenu concerne le développement de la visibilité de la marque en relayant ses
messages ou plus souvent en créant du contenu inédit adapté aux tendances et buzz du moment.
La veille revient à mettre en place un système de repérage des contenus évoquant la marque et ses
offres. Elle comporte une dimension réactive de réponse aux questions et critiques formulées à
propos de la marque.
La modération revient plus classiquement à contrôler le respect des règles de bonne conduite
(netiquette) sur les espaces d’échange gérés par la marque (page sur les réseaux socionumériques,
forums, etc.).
La gestion de la réputation en ligne est exercée à travers plusieurs activités (suppression de contenu,
réponse aux réclamations, gestion de crise – dans les cas extrêmes…). Elle s’organise à partir d’un
travail de veille indispensable (cf. Castellano et Dutot, 2013 ; Alloing, 2013 ; Stenger, 2014).
En synthèse, le community manager cherche à développer la notoriété d’une marque, développer
une relation personnalisée avec les consommateurs de celle-ci, structurer ces consommateurs en
communautés pérennes et dynamiques. Pour cela, il dispose des divers moyens disponibles sur les
médias socionumériques : jeux, concours, campagnes multimédias virales, lancement de discussions
synchrones ou asynchrones (Twitter, forums, pages, chat, mondes virtuels, MMORPG, réseaux
socionumériques, etc.).
Outre des compétences en marketing classique, notamment en ce qui concerne la gestion de marque,
le community manager doit disposer d’une solide culture de l’Internet. Celle-ci passe par la
connaissance des codes et normes d’usage sur les différentes plateformes (netiquette) mais aussi par
la compréhension des motivations des internautes. Des compétences techniques, bien que non
indispensables, sont bienvenues pour mieux appréhender l’éventail des actions envisageables sur
ces espaces en ligne. De fortes qualités relationnelles sont indispensables : le community manager
doit être capable d’identifier la manière dont la marque peut entrer en contact avec les différents
groupes trouvés sur Internet. Ces regroupements sont le plus souvent spontanés et peuvent voir d’un
mauvais œil l’intrusion d’une marque, même appréciée, dans un espace qu’ils considèrent comme le
leur. De la même manière, le community manager se trouve régulièrement confronté à la parole
libre des consommateurs, qui peuvent se révéler très critiques. Il se doit alors de défendre la marque
sans que son discours soit perçu comme trop officiel ou autoritaire (voir le cas Nestlé). Il se doit
enfin d’être organisé, les médias socionumériques regroupant une masse phénoménale de données et
d’espaces de discussion à prendre en compte (cf. Stenger et Coutant, 2011) pour une analyse
approfondie du métier de community manager et des pratiques de community management ainsi
que les descriptions des métiers et témoignages inclus dans les enquêtes annuelles menées par les
praticiens.
Les community managers peuvent exercer au sein de l’organisation ou en agence. Le premier cas est
désormais le plus fréquent et le plus recommandé tant les activités menées nécessitent une bonne
connaissance de l’organisation pour laquelle ils exercent et de ses offres. Les agences conservent un
rôle de formation à destination des entreprises et de service externalisé pour les petites et moyennes
structures. Des sociétés plus spécialisées dans l’e-réputation proposent aussi d’externaliser au
moins en partie la tâche de veille.
Enfin, une nouvelle activité hybride semble émerger, timidement, sur les médias socionumériques :
celle de la gestion de la relation client. Le projet de social CRM (Greenberg, 2009, 2010) est toutefois
complexe à mener. À la frontière du marketing, de la gestion de la relation client (GRC) et de la
communication numérique, il incombe parfois au community manager (ou social media manager) mais
peut aussi relever d’une extension de l’activité des équipes de GRC. Le social CRM[4] tente de répondre
à une problématique complexe. Si, comme nous l’avons déjà souligné, les médias socionumériques ne
sont pas perçus comme des espaces de vente en ligne, des publications récentes indiquent que les
consommateurs attendent davantage d’interactions avec les marques sur les médias sociaux et regrettent
que les entreprises ne s’engagent pas davantage dans ce sens (Hennig-Thurau et al., 2010 ; Trainor 2012),
notamment en France (Dutot 2013).

2.2 Encadrer et participer à la prescription ordinaire


Indépendamment des formes de publicité en ligne et d’e-mailing, plus familières pour l’e-marketing, les
médias socionumériques et en particulier les réseaux socionumériques (RSN) permettent à leurs
utilisateurs (individus, entreprises, etc.) de prescrire et de mettre en scène des recommandations liées à
la consommation, aux marques et parfois plus directement à l’achat, même si celles-ci ne sont pas
nécessairement perçues ou présentées comme telles. « Toute activité sur les RSN étant rendue visible et
fidèlement rapportée à ses « amis », elle peut être interprétée comme une prescription ordinaire, entendue
ici comme une forme de sollicitation ou de recommandation, une intervention potentielle sur l’action
d’autrui inscrite dans une relation particulière » (Stenger et Coutant, 2009 ; Stenger, 2011).
Nous qualifions ces prescriptions d’ordinaires, en référence aux travaux de Certeau sur les pratiques
quotidiennes des individus (1980). Il y démontrait la créativité des individus pour effectuer leurs
activités quotidiennes. Cette créativité passe souvent par le détournement plus ou moins intense des offres
commerciales qui les entourent. Les marques et la consommation sont alors régulièrement abordées, mais
sans que les consommateurs y soient attentifs. Il s’agit pour eux d’évoquer leur vie quotidienne. Les
marques ou produits de consommation apparaissent alors comme des supports, des moyens d’effectuer
tout un tas d’activités. Ils ne sont pas perçus comme des produits marchands mais comme des éléments du
quotidien.
Les réseaux socionumériques, et Facebook en tête, illustrent particulièrement bien cette créativité
puisque les outils proposés (pages, groupes, statuts, applications, publicités) servent de supports à des
activités amicales a priori éloignées de toute vocation commerciale (Stenger et Coutant 2009). Pourtant,
les marques et surtout les activités de consommation sont évoquées, mobilisées et donc prescrites dans
les interactions en ligne. C’est particulièrement vrai chez les jeunes pour la consommation culturelle
(musique, cinéma, télévision, etc.) à laquelle ils font souvent référence (Pasquier, 2014). Dans ce
contexte, « on ne peut pas ne pas prescrire » (Stenger, 2011) puisque toutes les activités sont rapportées à
nos « amis » par le biais de relais prescriptifs (outils de recommandation, applications de
« suggestions », etc.) mis au point par la plateforme. La plateforme instrumentalise ainsi les activités et
les déclarations des utilisateurs dans une logique prescriptive et marketing, et chaque utilisateur est invité
à suivre ce flux continu de prescriptions ordinaires (idem).
La prescription ordinaire est constituée a minima par la simple notification d’une activité menée par un
utilisateur (installation d’une application, ajout d’un ami, d’une photo, etc.) qui peut inciter son réseau
d’amis à effectuer la même activité. La forme la plus explicite de prescription est constituée par les
nombreuses applications fleurissant autour des activités d’évaluation et de comparaison. Elles peuvent
être intégrées par défaut au dispositif, telles les possibilités d’évaluation des profils et blogs sur Skyrock
ou les « j’aime », « causes » sur Facebook. L’option « partager » relève de cette même catégorie puisque
l’utilisateur peut faire connaître et donc prescrire un contenu à ses amis. Rappelons que l’utilisateur peut
aussi bien être un individu, une organisation, une marque, etc. De nombreuses applications très populaires
sur Facebook s’inscrivent dans cette même perspective : « top five », « compare » ou l’application à
succès de l’année 2009 : « living social » permettant de créer ses classements sur tous les sujets
imaginables (cinéma, voyages, sport, gastronomie, mode, culture, etc.). Elles témoignent cette fois d’un
soutien explicite, revendiqué, aux thèmes sélectionnés. Notons également que cette démarche affiche
publiquement les préférences de l’utilisateur et participe à la mise en scène de soi en ligne (Coutant et
Stenger, 2010).
L’application « Flixster » sur Facebook est particulièrement intéressante. Elle repose sur un système
prescriptif assez sophistiqué. En établissant des profils de préférences en matière de cinéma, elle calcule
un niveau de match up avec ses amis. Les résultats peuvent au contraire clairement différencier les amis
(l’application indique alors terrific results). Dans un deuxième temps, Flixster s’institue comme
prescripteur sur la base des préférences déclarées et des relations interindividuelles (votre ami X vous
recommande ce film Y). Le système de prescription s’appuie alors non seulement sur les préférences
initialement déclarées mais aussi sur un argument relationnel (Stenger et Coutant, 2009). On pourrait
imaginer le même type de système prescriptif pour d’autres catégories de produits.
La logique de comparaison entre amis a été comprise par certaines marques qui proposent par exemple
aux bacheliers de comparer leurs notes de bac (CIC), aux jeunes de créer un clip les mettant en scène
(Pages Jaunes), à tout un chacun de s’entre-tuer entre amis (13e rue), de dédramatiser la puberté
adolescente (Tampax). D’autres entreprises ont trouvé un moyen de proposer un service supplémentaire
apprécié, comme les bons plans échangés sur la page d’iDTGV. Sur Facebook, les applications ludiques
consistant à envoyer des produits marchands (par exemple des chaussures Nike, des iPod ou des
Hamburgers de telle ou telle marque) s’inscrivent dans la même logique. L’observation montre toutefois
que cet usage est marginal parmi le milliard d’utilisateurs.
Outre ces prescriptions ordinaires, il existe également de nombreux systèmes de prescription
« officiels ». Qu’ils soient qualifiés d’outils de recommandation, d’agents intelligents ou interactifs, ils
répondent à la même logique : produire des recommandations en fonction des préférences déclarées par
les utilisateurs (pour tel type de musique, de film, de livre, etc.). Le goût et les préférences des individus
sont ici l’objet de la prescription, comme dans la section consacrée à la prescription dans le cadre de
l’achat en ligne (cf. chapitre 5).

Focus 2.11
Exploiter la prescription ordinaire
Le site Socialmedia.com a provoqué de vives polémiques en 2010 en proposant une offre exploitant
directement les traces d’activités des internautes : il répertoriait et permettait de sélectionner les
critiques positives émises sur un produit par un utilisateur de Facebook, puis de les délivrer sous
forme de publicité, avec la photo de la personne qui a posté le commentaire, aux amis de cette
personne. Le site garantissait ainsi de recruter de nombreuses personnes non intéressées par une
publicité en jouant sur la pression sociale des amis. Le site ne rétribuait pas les internautes afin de
ne pas biaiser les commentaires. Il ne demandait pas non plus la permission aux personnes pour
employer leurs déclarations. Selon le fondateur, Seth Goldstein, ces dernières accepteraient de
participer malgré tout « parce qu’elles veulent partager l’info. Faire de la publicité avec leurs avis
fait grandir leur influence ». Cette offre a provoqué de nombreux remous dans le monde du marketing
(voir les réactions de Loïc le Meur ou les éditoriaux de la CB Webletter), gêné par cette démarche
très intrusive et par les enjeux déontologiques qu’elle soulève. Georges-Edouard Dias, directeur de
l’interactif chez L’Oréal, déclarait ainsi : « ce qui m’ennuie dans le dispositif de Socialmedia.com,
c’est qu’on ne demande pas l’avis de l’utilisateur final ». Le site a depuis fermé, mais l’idée n’a pas
pour autant été abandonnée et, après la tentative avortée de Facebook, Google se réservent le droit
d’employer des éléments des profils de leurs utilisateurs dans le cadre de campagne de promotion.
L’inscription des marques dans un système de prescription ordinaire généralisé constitue
vraisemblablement le moyen le plus efficace d’émerger parmi l’ensemble des activités en ligne. Les
marques et les activités de consommation peuvent ainsi se retrouver prescrites « par ses amis ». Les
marques doivent cependant demeurer conscientes qu’elles ne contrôlent alors plus les discours les
concernant, ni même les manières de s’approprier les dispositifs qu’elles proposent, comme l’illustre la
campagne Axe pour le gel douche Dark Temptation (cf. cas d’entreprise ci-après).

Cas d’entreprise
Accompagner la participation : le cas de Dark Temptation
La marque Axe a connu en 2008 un grand succès lors du lancement de son nouveau gel douche « Dark
Temptation ». La campagne plurimédia a mobilisé un important dispositif, particulièrement autour
d’un concours organisé sur le site Skyrock. Le concours est annoncé par une campagne de relations
presse auprès de bloggeurs influents invités à visiter le site Mangeusesdhommes.com, par un teasing
sur la radio Skyrock, où de mystérieuses « mangeuses d’hommes » annonçaient leur arrivée et par
deux vidéos virales diffusées sur Internet et renvoyant vers le site.
Le dispositif du concours « Alex croqueuse d’hommes » comportait un site Web qui diffusait la
publicité associée à la campagne « l’homme chocolat », des recettes de cuisine pour cuisiner son
« homme chocolat », une WebTV et surtout le lien vers le jeu concours renvoyant à la page Skyrock
de la marque. Sur cette dernière, tout membre de Skyrock pouvait s’inscrire et tenter de se faire
croquer un maximum de fois pendant la durée de l’opération. Les participants voyaient alors leur
page de profil habillée aux couleurs d’Axe Dark Temptation et pouvaient envoyer une vidéo à
diffuser sur la WebTV. Les filles étaient de leur côté invitées à voter pour les profils les plus
« croquables ». Un compteur affichait le nombre de crocs obtenus par le profil et des outils viraux
permettaient d’inviter ses amis à participer et voter.
La page officielle comptabilisait pour sa part le nombre de croqueuses d’hommes inscrites,
d’hommes croqués, le nombre total de crocs effectués et les profils les plus croqués. La
réappropriation du dispositif par les utilisateurs a bien eu lieu : les échanges sur la page de la
marque consistaient essentiellement à demander le numéro de téléphone du mannequin employé dans
la campagne ou à proposer son numéro en invitant… toute personne intéressée à appeler. Cependant,
cette campagne a généré un trafic important ainsi que de nouvelles inscriptions sur Skyrock. Elle est
considérée comme un véritable succès. Interviewé par Stratégie Magazine en juin 2008, Ali
Kashani, brand manager d’Axe, est dithyrambique. Selon lui, cette campagne constitue le plus beau
lancement de l’histoire d’Axe, et l’un des plus innovants : « Par son ampleur et ses moyens, le
concept était avant-gardiste. Nous avons mis en place un dispositif de masse, soutenu par une
campagne TV, mais centré sur Internet et en forte affinité avec notre cible. Les jeunes vivaient une
expérience surprenante et valorisante car ils pouvaient interagir avec les contenus mis à leur
disposition : 450 000 films ont été vus en ligne et 62 000 internautes se sont inscrits sur la plateforme
communautaire. En favorisant le buzz, Axe a réussi à entrer dans leurs conversations. L’intégration a
été très poussée en entrant à l’intérieur des pages personnelles des internautes inscrits sur Skyblog et
en animant le concept dans le temps […]. Dark Temptation s’est vendu deux fois plus que son
prédécesseur Axe Vice, et est rapidement devenu la première vente d’Axe, mais aussi du marché des
déodorants, hommes et femmes confondus ».

Campagne virale Burger King « Angry Whopper »
La chaîne de restauration rapide Burger King a décidé de tirer parti des polémiques autour de ce que
sont réellement les « amis » sur Facebook. Elle a donc créé uneapplication dans le cadre du
lancement de son nouveau sandwich, le « Angry Whopper ». Les participants se voient proposer
d’obtenir un bon pour un sandwich gratuit en l’échange du sacrifice de 10 amis. Ces derniers sont
prévenus par une notification indiquant qu’ils ont été radiés de la liste d’amis du participant en
échange d’un Angry Whopper gratuit. Ils se voient alors proposer d’en faire autant. L’application
« Whopper Sacrifice » titre avec humour « You like your friends, but you love the Whopper »
(« Vous aimez vos amis, mais vous adorez le Whopper »). La page Facebook de Burger King tient le
décompte des personnes ainsi supprimées des listes d’amis.
Pour le vice-président du département marketing de Burger King, Brian Gies, il s’agissait de jouer
avec la course à la popularité, pratique bien connue de certains utilisateurs de Facebook.
La campagne s’est déroulée en 2008, mais on trouve encore aujourd’hui la page de l’application
indiquant : « Facebook has disabled Whopper Sacrifice after your love for the Whopper Sandwich
proved to be stronger than 233 906 friendships » (Facebook a mis Whopper Sacrifice hors de
service après que votre amour pour le Sandwich Whopper s’est avéré être plus fort que 233 906
amitiés). Le chiffre peut paraître très important. Il doit cependant être divisé par 10 pour obtenir le
nombre de participants effectifs. Il n’y a donc pas eu plus de 24 000 participants à cette campagne.
Compte tenu de l’audience potentielle (Facebook comptait alors plus de 250 millions de profils
actifs) et de la popularité de la marque, cette démarche pourrait être perçue comme un demi-succès.
Il faut ajouter cependant tout le traitement médiatique dont a bénéficié Burger King pour avoir su se
fondre dans la culture de cette populaire plateforme et le gain d’image auprès de ses consommateurs,
dont certains se sont mobilisés contre Facebook pour demander la réouverture de l’application.
Le système de prescription généralisée s’est même étoffé depuis 2010 avec des outils situés à travers
l’ensemble du Web (i. e. hors plateforme socionumérique). Symboles de l’hégémonie des médias
socionumériques, d’anodins boutons « j’aime », « tweet this », « share » « add this » permettent depuis
de très nombreux sites Web, de partager et rediffuser des liens, vidéos, articles ainsi que des fiches de
produits, des sites marchands, etc. auprès de ses amis, contacts, etc. Google et Facebook, grâce à l’outil
Open Graph, ont popularisé cet outil qui offre la possibilité d’installer des boutons de la plateforme sur
des sites extérieurs partenaires. Les internautes peuvent ainsi poster sur leur profil des contenus, des
commentaires depuis des sites externes, favorisant d’autant plus la prescription en ligne au quotidien.
L’enjeu marketing est double : il s’agit non seulement de favoriser les relais prescriptifs mais aussi de
collecter un maximum de données sur les pratiques de consommation des internautes et potentiellement
d’établir une cartographie des activités d’un utilisateur sur l’ensemble du Web. Cette stratégie clairement
planifiée par Facebook est annoncée très officiellement le 21 avril 2010 par Mark Zuckerberg lors de la
conférence annuelle (cf. Stenger 2011). Elle est depuis devenue l’enjeu des grands acteurs de l’Internet
qui cherchent tous à mettre en place un écosystème, souvent qualifié de « silo », encadrant toutes les
activités en ligne de l’internaute afin de pouvoir mieux prévoir ses attentes mais aussi exploiter le
potentiel prescriptif de ses activités auprès des membres de son graphe de connexions.

3 Étudier et enquêter sur les médias socionumériques


Les médias socionumériques constituent des terrains d’enquête reconnus par les chercheurs comme les
praticiens. Tous soulignent l’intérêt d’un vaste accès à des données pour une somme souvent très réduite.
Ils rappellent toutefois que les données ne constituent pas de fait des informations et que leur
contextualisation est délicate. Les médias socionumériques sont récents et la prudence est de mise dans
l’application des méthodes d’investigation. C’est pourquoi nous insisterons ici sur les méthodes
qualitatives privilégiant la construction de l’interprétation à partir de l’analyse fine des terrains d’étude.
Nous mettrons l’accent sur les méthodes netnographiques et ethnographiques en ligne et renvoyons le
lecteur à la dernière partie de l’ouvrage consacrée aux études en ligne pour découvrir les autres
méthodes.

3.1 Netnographie et ethnographie virtuelle


Deux méthodes qualitatives aux approches sensiblement différentes sont essentiellement utilisées en e-
marketing : la netnographie et l’ethnographie virtuelle.
L’ouvrage Netnography – Doing Ethnographic Research online publié par Kozinets (2012) synthétise
et illustre l’intérêt de cette approche. Promoteur du terme netnographie depuis 1997, il définit par ce mot-
valise une méthode héritée de l’ethnographie pour étudier les communautés virtuelles de consommation.
Elle s’inscrit donc clairement au service du marketing. La définition de la netnographie proposée par
Kozinets est très précise et très stricte. Il s’agit d’une « méthode d’enquête qualitative qui utilise Internet
comme source de données en s’appuyant sur les communautés virtuelles de consommation ». Elle est
centrée sur les communautés virtuelles, et non pas sur l’ensemble des médias socionumériques ou
l’ensemble du Net, comme l’appellation netnographie pourrait le laisser entendre. Les grands principes
méthodologiques, qu’il s’agisse de la production et la collecte de données ou de leur analyse, à
dominante qualitative, restent néanmoins pertinents, moyennant des aménagements, pour une grande
variété de dispositifs.
Les communautés virtuelles de consommation sont des collectifs de passionnés qui trouvent grâce à
Internet et aux outils offerts par les communautés en ligne (forums, mailing-lists, blackboards, etc.) des
opportunités nouvelles d’interaction les affranchissant des contraintes de temps et d’espace. Les clubs de
fans (de Harley Davidson, de 2 CV, de véhicules militaires pour rester dans l’automobile, etc.) existaient
bien avant Internet mais ils peuvent aujourd’hui se retrouver et échanger avec une plus grande aisance. La
netnographie tire parti de cette situation sociotechnique en utilisant ces communautés comme sources de
données. Cova et Carrère (2002) étudient par exemple comment les consommateurs peuvent s’appuyer sur
le Net pour exercer une influence sur la gestion de marques auxquelles ils sont particulièrement attachés
(Star Wars et Citroën) ; Giesler et Pohlmann (2003) identifient les motivations d’adhésion à une
communauté d’échange de fichiers musicaux (Napster) et les types de don qui fondent la communauté
virtuelle.
La netnographie consiste en majeure partie à utiliser des données « naturelles » produites lors des
échanges entre les membres d’une communauté de consommateurs qui se retrouvent sur Internet autour
d’un objet de consommation. L’entrée sur le terrain est facilitée puisque les données sont directement
observables, mais elle implique néanmoins de nouer des relations de confiance avec des membres de la
communauté. Car l’objectif est ambitieux : « il s’agit de produire une « description dense » (terme
emprunté à l’anthropologie), c’est-à-dire une explication, une compréhension du point de vue des
membres de la communauté étudiée. Le résultat final d’une netnographie est donc un texte qui décrit de
manière interprétative la communauté étudiée en fournissant une compréhension du sens de l’expérience
personnelle de consommation des membres qui s’articule avec la construction sociale du sens au sein de
la communauté » (Bernard 2004 reprenant Kozinets, 2002).
La méthode consiste donc à exploiter les échanges communicationnels visibles (sur un forum, une
plateforme de chat, etc.) en rapport avec un objet de consommation ou une marque. L’exploitation de ces
matériaux doit cependant prendre en compte plusieurs biais potentiels :
une partie des échanges risque de rester invisible à l’homme d’étude (messagerie privée, posts
privés et échanges en dehors du site Web, interactions sur d’autres plateformes en ligne, rapports
hors ligne) ;
une compréhension fine de la communauté est indispensable à ce projet d’étude marketing. Ce
second point est souvent sous-estimé dans les études en ligne. L’ethnographie « traditionnelle »
insiste bien sur la difficulté de la démarche et la condition de présence durant une période (très)
longue afin d’appréhender les traditions, les rites, les croyances, les normes, les structures, les
symboles, le langage : la culture d’une communauté.
Ajoutons enfin que les travaux portant sur les communautés virtuelles de consommation se fondent sur
l’étude de cas de réussites. Le marketeur ne doit pas se laisser éblouir par cet effet loupe qui masque
l’immense majorité de marques ou produits ne produisant pas ce type d’engouement et des cas de
communautés souhaitant garder leur autonomie vis-à-vis d’une marque particulière. Ces limites
entendues, il n’en demeure pas moins que le Web compte un nombre impressionnant et potentiellement
illimité de sites communautaires consacrés à des objets ou des sujets des plus variés. Le marketing a donc
tout intérêt à explorer le Web et les médias socionumériques en particulier pour, a minima, observer et
écouter et dans certains cas (cf. supra) interagir au sein de ces espaces.
Sur le plan éthique, Kozinets (1997) formule dès le départ quatre recommandations :
celui qui mène l’étude au sein de la communauté dévoile clairement sa présence, son rattachement, et
ses intentions aux autres membres ;
il assure la confidentialité des informateurs ;
il suscite et intègre le feed-back des membres au cours de l’étude ;
il obtient la permission des membres concernés avant de publier dans ses travaux un extrait de leur
message (ou de tout autre artefact).

3.2 Analyse et interprétation des données : codage et outillage


Le matériau collecté est essentiellement littéraire (texte) et souvent narratif. Ainsi, la netnographie
étudie essentiellement des actes communicationnels et non pas le comportement « complet » des
consommateurs, rappelle Bernard (2004). C’est le point essentiel sur lequel se distingue l’ethnographie
virtuelle : « l’ethnographie traditionnelle et l’ethnographie virtuelle ont deux choses en commun : d’une
part, elles se centrent sur les comportements et les significations que les acteurs apportent à ces
comportements ; d’autre part, elles reposent sur une méthode inductive qui tente de construire une théorie
à partir de données contextualisées. Elles diffèrent sur un point : il est plus difficile d’avoir accès au
contexte dans l’ethnographie virtuelle » (Metiu 2008, p. 40).
Il faut donc fortement se méfier des mésinterprétations des données recueillies. Les limites et les
difficultés sont nombreuses : il y a un excès de matériau et des accès interdits. Surtout, l’analyste est
obligé de faire confiance aux réponses que donnent les gens (je suis une femme de 20 ans, etc.). Il faut
garder à l’esprit qu’on ne peut pas accéder à la signification réelle des textes (même les émoticons sont
difficiles à analyser – la remarque est-elle humoristique, ou sarcastique ?). Il est donc indispensable de
trianguler, de ne jamais se fier uniquement aux données en ligne et de croiser avec d’autres modes de
production des données, en ligne comme hors ligne. De nombreuses possibilités sont envisageables :
essayer de rencontrer les personnes qui ont mené les échanges, formellement ou non, assister à des
conférences, regarder les blogs, livres, articles écrits par les observés, tester les interprétations auprès
d’informateurs clés. Bref, ne pas rester derrière son écran. On se rapproche ainsi de l’ethnographie
traditionnelle.
Le codage des données s’effectue généralement à partir des textes, de façon thématique (Miles et
Huberman 2003). Cela est réalisé « à l’aide de logiciels spécialisés dans lesquels on intègre aisément les
données à l’aide d’un simple « copier-coller » (pas de retranscription). Les bons programmes d’analyse
de données qualitatives sont généralement bien adaptés ; parmi ceux-ci, on peut citer NUDist (Qsr.com.
au), Atlas. ti (Atlasti. de), et le programme français Modalisa (Modalisa.com) », résume Bernard (2004).
Retenons aussi l’adaptation de certains outils empruntés à l’ethnographie orientée marché d’Arnould et
Wallendorf (1994) qui proposent de s’intéresser à trois catégories clés dans les textes des
consommateurs :
les généralisations excessives (surestimations de l’intensité ou de la fréquence d’un phénomène) ;
les commentaires métaphoriques (utilisés par les informateurs pour décrire des événements ou des
actions avec leur propre perspective de ce que l’événement signifie) ;
les mises en avant d’idiosyncrasies (insistance sur la particularité ou l’unicité d’un fragment
d’expérience ; évoque davantage la croyance d’un informateur qu’une réelle rareté).
La démarche consiste à repérer les répétitions entre les textes des membres d’une communauté pour
mettre en évidence ces catégories clés. Une fois repérées grâce au codage, il faut analyser le contexte
d’apparition de chaque occurrence afin de déterminer les éventuels points communs liés au contexte
(Bernard, 2004, p. 58).

3.3 Veille marketing et outils logiciels


Le Web constitue une source incommensurable d’informations pour le marketing. La prolifération des
contenus complexifie la tâche de veille.
Certains sites proposent de tenir informé sur un sujet particulier en répertoriant le contenu des médias
socionumériques. Technorati répertorie ainsi les contenus partagés sur les blogs. How Sociable repère et
évalue la présence d’une marque sur les principaux médias socionumériques. Addict-O-Matic crée des
pages personnalisées pour suivre les nouveaux contenus sur n’importe quel sujet. Il est possible de
s’abonner à des thèmes existants ou de créer sa propre page à partir de mots-clés. Twitter permet une
autre forme de veille, fondée sur le suivi de personnes considérées légitimes dans leur domaine. Elles
constituent ainsi des filtres dans une ère d’« infobésité » (Desbiey, 2011). Le réseau social est mis à
contribution : les fonctionnalités de retransmission de tweets (retweets) permettent aux utilisateurs de
faire suivre à leurs followers les contenus qu’ils ont trouvés dignes d’intérêt dans leur propre liste de
contacts et ainsi de leur soumettre de nouveaux comptes potentiellement intéressants. Enfin, la plupart des
sites proposent désormais de se tenir informé de leurs publications par l’intermédiaire d’un flux RSS. De
nombreuses applications ou services en ligne, comme permettent de réunir en une page unique l’ensemble
des flux.

Focus 2.12
La mise en place d’une veille
Les services proposant d’agréger des flux, de répertorier les nouveaux contenus ou mettant en avant
la curation de contenus effectuée par des professionnels reconnus du domaine sont très nombreux.
Beaucoup d’entre eux ne survivent que le temps de quelques tentatives de levées de fonds et se font
remplacer aussi vite par de nombreux prétendants. Dans ce contexte, il est moins utile de connaître
un service que de comprendre les enjeux à aborder pour mettre en place une veille efficace.
Une démarche de veille se compose de deux facettes : la première consiste à repérer l’information
pertinente et la seconde à diffuser les résultats de cette veille auprès d’un public concerne (en
interne ou en externe selon les cas).
Le repérage de l’information passe par plusieurs phases. Il convient dans un premier temps de
collecter des contenus à travers des sources pertinentes. Plusieurs consultations des sources sont
possibles et permettent d’organiser les outils de regroupement des sources :
systématique, lorsque la source est une référence de notre domaine, comme par exemple
l’International Advertising Bureau pour les agences conseils en communication. Tout contenu sera
alors à consulter ;
attention sélective, lorsque la source produit des contenus diversifiés dont seuls certains nous
intéressent, comme un blogger renommé partageant certaines de vos tâches. Les contenus pourront
alors être survolés et approfondis uniquement lorsque le sujet le justifie ;
sérendipité, lorsque la source est choisie non pas pour la proximité des thématiques mais pour les
façons différentes d’aborder un sujet qu’elle pourrait vous faire entrevoir, comme un artiste ou un
penseur iconoclaste. Les contenus sont alors consultés avec une attention minimale, pas
nécessairement fréquente.
La deuxième phase consiste à trier et classer les contenus collectés. L’enjeu est alors de conserver et
de rendre réexploitables ces contenus. Beaucoup de démarches de veille sont peu efficaces car si
elles permettent d’accumuler des informations, rien n’est mis en place pour faciliter leur utilisation
future. Le tri consiste à répartir les contenus par catégorie (dossiers, tags, descriptions, etc.). Le
classement ajoute un ordre selon des critères définis (notes, étoiles, dates, auteurs, etc.). Il permet
ainsi de faire ressortir l’information en fonction des critères jugés les plus pertinents par le veilleur.
Des outils comme Diigo permettent d’effectuer cet archivage et ce classement des contenus d’une
veille et intègrent même des fonctionnalités de diffusion.
La dernière phase consiste à analyser les contenus. Une archive classable de contenus demeure
encore un matériau relativement brut que les publics du veilleur ne sauront pas nécessairement
exploiter. La dernière phase de repérage de l’information pertinente consiste alors à produire une
analyse synthétique exploitable par les publics. Des outils d’analyse classiques comme le SWOT, le
modèle de Porter ou le PESTEL sont alors mobilisables.
Reste alors à diffuser les résultats de sa veille auprès de ses publics. Il convient alors d’être attentif
aux attentes et contraintes de ces derniers pour choisir le mode de diffusion (newsletter, document
partagé, blog, support imprimé, etc.) et la fréquence de la diffusion (temps réel, quotidienne,
hebdomadaire, etc). Selon les cas, il peut aussi être pertinent d’envisager comment associer ces
publics à la veille (plateforme collaborative, bookmarks partagés, etc).
Source : Camille Alloing,
http://caddereputation.over-blog.com/
et Moinet, Deschamps, 2011.

Cas d’entreprise
Les enseignements de Ferrero
Ferrero constitue l’une des rares marques pouvant se targuer d’avoir très tôt réuni de nombreux fans
sur les médias socionumériques : plus de 22 millions en 2010. La page de Nutella réunit à elle seule
en 2013 plus de 17 millions de fans. Elle a pourtant envisagé avec beaucoup de précautions cette
opportunité pour qu’elle ne se convertisse pas en risque.
En 2010, Guillaume du Gardier, digital média manager Europe de l’Ouest et du Sud chez Ferrero,
insiste sur la chance qu’a la marque d’être autant citée (toutes les 3 minutes sur Twitter) dans des
conversations neutres ou positives à son égard. Malgré cela, il reconnaît que son travail consiste
pour l’instant uniquement à observer l’activité autour de leur marque : « le travail que nous faisons
consiste à suivre ces conversations pour observer où elles se déplacent et si les personnes qui
parlent de nous reflètent notre public. Il s’agit de voir où sont ces conversations, et de faire un lien
entre elles et le monde physique. Il s’agit de trouver un équilibre entre la présence officielle de la
marque et sa présence non officielle et de savoir comment jongler avec ».
Le choix de ne pas intervenir est dû à la fois à des contraintes culturelles et organisationnelles :
entamer le dialogue avec les internautes nécessite une équipe importante et de radicalement modifier
l’encadrement des prises de parole des représentants de la société, dont le système de validation des
interventions publiques ne convient pas à la vitesse avec laquelle il faut réagir sur les médias
socionumériques.
Guillaume du Gardier est conscient du peu d’exploitation de cet engouement des internautes par
Ferrero, mais sa démarche se veut prudente : face à la complexité de ces environnements encore en
mutation, son choix consiste à intégrer petit à petit ces espaces afin de ne proposer que des contenus
qualitatifs. La circulation de la marque au sein des médias socionumériques est donc perçue comme
une grande chance mais qui ne doit pas encourager à se ruer sur ces derniers sans réflexion
stratégique et préparation de l’entreprise. Cette démarche est sage : les internautes n’ont pas eu
besoin d’une stimulation de la marque pour l’évoquer, il paraît donc inutile, peut-être même contre-
productif, de venir le faire sans proposer une véritable valeur ajoutée.
Pour autant, la marque n’a pas renoncé à développer sa présence officielle : elle a créé sa page
officielle Kinder France sur Facebook où elle propose des informations de loisirs concernant les
familles. Elle a aussi développé une application iPhone, où le nom de la marque n’apparaît pas,
reprenant les thématiques de son site allezonbouge.net en proposant des idées de sorties en fonction
de la localisation de l’utilisateur. Mais le cœur de la stratégie Web de Ferrero demeure ses sites Web
(kinderchocolat.fr, lespetitscréatifs.fr et allezonbouge.net).
En 2013, la marque estime avoir suffisamment compris ces espaces pour adopter une démarche plus
active. Elle mobilise donc une équipe dédiée à sa présence sur les médias socionumériques avec un
positionnement unique : l’enthousiasme. Elle distingue deux cibles, les parents et les enfants,
auxquelles elle dédie des supports spécifiques : un Webzine pour les premiers et les pages pour les
enfants. Par ailleurs, sa ligne éditoriale précise affecte un rôle et un fonctionnement à chaque vecteur
employé :
Le Webzine diffuse des brèves en début de semaine, des bonnes idées et illustrations de
blogueuses pendant la semaine, et un zapping en fin de semaine, toujours sur la thématique de
l’enthousiasme.
La page Facebook encourage un « dialogue ouvert » encadré par les annonces d’événements, de
concours et la proposition de recettes, permettant le recrutement et l’engagement des internautes
via des actions valorisantes.
Le compte Twitter est dédié à la gestion des relations avec les leaders d’opinion et à la gestion
de la relation client.
Enfin, un site officiel (www.nutellaparlonsen.fr) et différents vecteurs top/down sont prévus en
renfort pour traiter des problématiques sensibles en renvoyant les polémiques pouvant émerger
sur les médias socionumériques vers ces espaces plus contrôlés et moins visibles.
Cette stratégie n’interdit évidemment pas des actions plus ponctuelles, comme celles ayant
accompagné les 50 ans de la marque Nutella où un site dédié (www.nutellastories.com) incitait les
internautes à partager leurs meilleures histoires à propos du produit et où un concours de
personnalisation de pot était relayé via Tumblr.
Source : CB Webletter : http://cbWebletter.fr/2010/02/01/comment-ferrero-observe-ses-22-
millions-de-fans/ et Blog du Modérateur
http://www.blogdumoderateur.com/community-management-nutella/

Les forums de discussion offrent un bon moyen d’étudier le bouche-à-oreille en ligne (word of mouse –
WOM). Des milliers de discussions concernant 44 séries télévisées au sein du site Usenet sont par
exemple étudiées par Godes et Mayzlin (2004). En appréciant le volume des discussions dans le temps
(lors de la diffusion des séries TV) et leur valence (positive, négative, mixte) mais aussi en exposant les
difficultés et les limites de ce type de démarche, ils montrent que ces conversations en ligne constituent un
moyen facile et surtout peu coûteux pour mesurer le WOM. Ils insistent sur le fait qu’un simple comptage
(sur un seul forum) ne suffit pas. Il faut surtout mesurer la dispersion des conversations à travers
l’ensemble des communautés virtuelles. Ils mettent aussi en garde, à juste titre, contre toute interprétation
hâtive concernant le sens de causalité entre le WOM et l’audience télévisée ou les ventes futures – une
des faiblesses de certaines recherches sur le WOM. Les origines du contenu du WOM (rôle de la presse,
de la publicité, des experts, etc.) et le rôle du bouche-à-oreille offline font partie des axes de recherche
complémentaires et indispensables (cf. chapitre 5, notamment Kozinets et al., 2010).
La profusion des données accessibles sur les médias socionumériques nécessite l’emploi d’outils
logiciels. Les logiciels d’analyse textuelle (et/ou sémantique) se focalisent sur les associations de mots
et/ou de sens au sein d’un espace donné (par exemple un profil, un forum, un blog) afin d’en déduire des
goûts et des liens entre thématiques ou les associations faites avec une marque. Le potentiel de ces outils
est considérable. Dans l’idéal, ils permettent une analyse combinant profondeur et représentativité. Ils
dépasseraient ainsi le clivage traditionnel entre méthodes qualitatives et quantitatives. Ils s’avèrent
efficaces à la fois pour repérer des signaux faibles ou des associations difficiles à faire émerger
autrement et pour tester des hypothèses (cf. Focus 2.13).

Focus 2.13
Analyser les profils Facebook avec le logiciel Tetralogie
Les logiciels d’analyse sémantique permettent de combiner quantité des données analysées et qualité
de l’analyse. En pratique, leur emploi passe par la création de dictionnaires adaptés à l’objet
d’étude afin de permettre une compréhension fine des contenus échangés. Ces derniers sont ensuite
analysés en tenant compte des contextes dans lesquels ils apparaissent. Ainsi, sur Facebook, les
éléments insérés dans les catégories citation, livres préférés, loisirs, statut, etc. peuvent se voir
attribuer des valeurs différentes (l’apparition du groupe nominal « match de foot » aura une
importance moindre s’il apparaît dans la rubrique statut que s’il apparaît dans la rubrique loisirs).
L’analyse prend aussi en compte la récurrence de certains mots (par exemple football) ou certaines
thématiques (par exemple le sport). Au final, le logiciel peut faire émerger de grandes thématiques
retrouvées sur un ou plusieurs profils et proposer une analyse plus fine de comment ces thématiques
sont évoquées. Le potentiel est donc extraordinaire. Cependant, l’utilisation de ces logiciels est
rendue difficile par le peu de respect qu’ont les utilisateurs des rubriques proposées par le site.
Une étude récente a comparé les résultats d’analyse de profils Facebook par un logiciel (Tétralogie,
voir Atlas. irit.fr) combinant analyse sémantique et analyse des réseaux sociaux, à une analyse
qualitative menée par observation et entretiens. Si le logiciel permet de faire émerger des
thématiques durables d’autres plus ponctuelles, l’étude conclut aux nombreux risques de
mésinterprétations. De nombreux biais sont dûs à l’usage très courant de l’ironie, de private joke et
de détournements des outils et rubriques par les utilisateurs (rubrique citation utilisée pour placer
des histoires drôles, liens familiaux servant à mettre en valeur ses amis, etc.). L’exploitation des
statuts, fonction de loin la plus utilisée, pose des problèmes complexes tant ils peuvent être utilisés
pour de nombreuses raisons et aborder diverses thématiques. Les résultats donnés par le logiciel
étaient donc souvent contredits par l’analyse qualitative du profil. On peut constater dans l’évolution
de Facebook une volonté de catégoriser ces contenus en distinguant liens, vidéos, photos et
événements organisés des statuts textuels. Ces modifications permettent de distinguer les contenus
facilement catégorisables des déclarations sur le quotidien des individus, fondamentales mais
encore peu interprétables autrement que par des méthodes qualitatives. Dans l’attente de l’adaptation
des outils et plateformes aux activités très particulières retrouvées sur les réseaux socionumériques,
l’analyse passera davantage par une approche qualitative des mécanismes de la prescription
ordinaire (cf. supra).
Source : Tchuente et al., 2011.
Toutefois, leur usage soulève des difficultés théoriques et méthodologiques encore importantes
(Mésengeau, 2012, 2014). La première concerne la constitution des corpus : quelle est la valeur d’une
analyse menée à partir de données récoltées exclusivement en ligne ? Les consommateurs agissent et
s’expriment sur de multiples supports en ligne comme hors ligne. Une utilisation raisonnée de ces outils
devra par conséquent passer par la comparaison de leurs résultats avec d’autres obtenus par des
méthodologies plus classiques (questionnaire, entretien, observation, etc.). Une autre limite concerne
l’accès aux données. Hormis quelques exceptions, une part non négligeable des informations contenues
sur les sites n’est pas accessible par des tiers. Cette absence d’exhaustivité fait peser de lourds biais sur
l’exploitation du matériau ainsi récupéré. Il convient alors de voir auprès des sites hébergeurs les offres
qu’ils proposent. Enfin, l’usage de ces outils impose un questionnement déontologique. Le marketeur ne
peut faire mine d’ignorer que les internautes fournissent naturellement des informations dans des
contextes éloignés de l’idée d’une exploitation marketing de leurs comportements.
Les sites relevant de la publication de soi, qu’ils soient focalisés sur l’amitié ou sur un intérêt précis,
sont les plus adaptés à un traitement logiciel. Les sites de réseautage et de rencontres se prêtent d’autant
plus facilement à ce traitement qu’ils regroupent les membres autour d’intérêts précis. Les entreprises
pourront donc choisir les sites correspondants à leurs marchés et être assurées que les données traitées
correspondent bien aux thématiques qu’elles veulent analyser.
Concernant les réseaux socionumériques, si le potentiel des outils d’analyse structurale des réseaux
sociaux et de textmining est important, leur utilisation est encore difficile à l’heure actuelle. La valeur à
accorder aux opinions exprimées dans les statuts ou aux liens noués avec des groupes et pages reste
problématique. Les deux pièges principaux sont le manque de représentativité et surtout l’absence de
contexte. Casteleyn et al. (2009) prennent l’exemple du groupe I bet I can find 1 000 000 people who
dislike Heineken qui peut aussi bien faire référence à des consommateurs n’appréciant pas la marque
qu’à d’autres ayant eu une expérience… trop passionnée et généreuse avec la marque la veille. Williams
(2008) interprétait pour sa part un statut de jeune « Run, Forrest, Run ! » comme une préférence affirmée
pour le film Forrest Gump alors qu’il s’agissait d’un surnom hérité de l’équipe de rugby de la jeune fille.
Ces enjeux de contextualisation constituent des biais faisant encore peser de lourds risques de
mésinterprétations sur les analyses se fondant uniquement sur l’exploitation des traces (Boyd, Crawford,
2012 ; Mésengeau, 2012, 2014).

4 Évaluer les campagnes sur les médias socionumériques


Les actions marketing envisageables sur les médias socionumériques sont très nombreuses. Cependant,
évaluer un impact social ou un taux de viralité nécessite des mesures adaptées. D’autant plus que le lien
avec les outils traditionnels d’évaluation du ROI, davantage focalisés sur l’impact en matière de chiffre
d’affaires généré, est difficile (Libai, Muller, in Deighton et al., 2011). Faute d’une meilleure lisibilité de
l’impact des campagnes menées sur les médias socionumériques, les investissements des entreprises
attentives à l’évaluation des retours sur investissement demeurent prudents.
Pour pallier ce manque, l’IAB (International Advertising Bureau), association américaine de
professionnels de la publicité en ligne, cherche à promouvoir des mesures qui pourraient être reconnues
par l’ensemble de la profession comme des standards. À ce titre, elle a publié dès 2009 un document
définissant les principaux indicateurs. L’IAB insiste sur le fait que ces indicateurs ne sauraient remplacer
les indicateurs traditionnels comme le nombre d’impressions ou le taux de clic. Elle les présente comme
des compléments permettant de mieux évaluer l’apport de la dimension sociale de ces sites.
Du côté académique, Peters et al. (2013) établissent une revue de la littérature consacrée aux mesures
pour les médias socionumériques. Ils proposent ensuite un cadre intégrateur du type stimulus (marketing)
– organisation (du média socionumérique) – réponse (en terme marketing) autour de quatre thèmes en
interaction : les motivations (inscrites dans les valeurs sociales et culturelles), le contenu (défini en terme
de qualité, de volume et de valence), les interactions sociales et les rôles (du côté des internautes), et
enfin la structure du réseau social. Neuf recommandations sont ensuite proposées (passer du contrôle à
l’influence, de la quantité à la qualité, développer la transparence et le feedback, équilibrer les
mesures…). Ils mettent également en garde contre le manque de transparence d’indicateurs « officiels »
concernant la mesure de « l’influence » des systèmes proposés par Klout ou EdgeRank. Ils rejoignent
Vernette et Tissiers-Desbordes (2012) sur ce point.
Nous reprenons ici les propositions de l’IAB en distinguant : les indicateurs généralistes, appliqués aux
blogs et appliqués aux widgets et applications.

4.1 Indicateurs généralistes


Le nombre de visiteurs uniques : individu unique ou navigateur ayant accédé au site et à ses
services. Le nombre de visiteurs uniques peut être calculé à partir de l’identification des utilisateurs,
d’un cookie ou par des instituts indépendants tels que ComScore ou Nielsen. Dans la majorité des
cas, c’est l’adresse IP qui est retenue pour effectuer le décompte. Celle-ci est cependant décriée
puisqu’elle ne permet pas de déterminer si plusieurs individus ont accédé au site par le même
ordinateur ou plusieurs ordinateurs par le même réseau local.
Le coût par visiteur unique : il peut être calculé en divisant le coût de la campagne ou de
l’application par le nombre de visiteurs uniques, avec les limites évoquées ci-dessus.
Les pages vues : cette mesure calcule le nombre de pages visitées par l’internaute. Elle est rendue
difficile sur certains sites ayant recours à la mise en cache des pages ou applications, comme
Facebook le propose dans son fil d’actualités. Les pages ne sont alors pas prises en compte tant que
l’utilisateur n’a pas délibérément cliqué dessus pour les visiter.
Le nombre de visites (spécifique aux UGC) : le nombre de sessions attribuables à un même
individu/navigateur (mesuré par un cookie ou par l’identification de l’utilisateur).
La moyenne des visites : le nombre de visites d’un même service Web sur une période donnée.
Le taux d’interactivité : la proportion d’utilisateurs interagissant avec une publicité ou une
application.
La durée de connexion : le temps passé sur le site au cours d’une même visite. Beaucoup d’outils de
mesure considèrent la visite comme terminée après une inactivité supérieure à 30 minutes.
Vidéos partagées : le nombre de contenus vidéo affichés par un utilisateur sur sa page.
Critères adaptés aux actions tirant parti des possibilités créatives des widgets et applications, ainsi
qu’à leur coût. Exemples d’éléments à mesurer : participants aux concours, coupons téléchargés,
jeux joués, vidéos visionnées, quantité d’upload, votants, messages envoyés, invitations envoyées,
messages postés dans la newsfeed, commentaires postés, amis ajoutés, forums ou sujets de forums
créés, groupes créés, nombre de fans, contenus partagés.

4.2 Indicateurs appliqués aux blogs


Les indicateurs appliqués aux blogs permettent aux média-planneurs de mieux effectuer leur sélection
des sites pertinents dans le cadre de campagnes ciblées. Plusieurs types d’indicateurs existent. Ils
permettent d’évaluer la profondeur et l’intensité des échanges autour d’une thématique, la pertinence des
blogs par rapport à une thématique choisie ou encore la crédibilité accordée à l’auteur du blog :
Le nombre de blogs pertinents : l’ensemble des blogs abordant la thématique retenue.
Le nombre de liens entrant et sortant pointant vers un billet pertinent : l’ensemble des liens pointant
vers des contenus abordant la thématique retenue.
Le nombre de visiteurs uniques ayant visité un billet pertinent (mensuellement).
Le nombre de billets pertinents au sein du blog.
Le pourcentage de billets pertinents sur l’ensemble du blog.
Le nombre de liens entrant et sortant pointant vers un billet pertinent du blog.
La date du premier post pertinent du blog.
La date du dernier post pertinent du blog.
La période de temps entre le premier et le dernier post pertinent du blog.
La durée moyenne entre deux posts pertinents.

4.3 Indicateurs appliqués aux widgets et applications


Nombre d’applications installées.
Utilisateurs actifs : nombre d’utilisateurs ayant utilisé l’application au cours d’une période donnée
(généralement un mois).
Informations sociodémographiques sur les utilisateurs : à partir des informations remplies par ces
derniers. Attention cependant, il est impossible de vérifier la véracité des informations renseignées,
sauf exceptions contraignantes (exemple : vérification d’âge sur les sites de poker et de pari en
ligne).
Taux de pénétration : pourcentage des utilisateurs ayant installé l’application en regard de la totalité
des utilisateurs du site.
Taux de croissance : moyenne des utilisateurs supplémentaires au cours d’une période donnée.
Taux de viralité : nombre moyen d’amis de l’utilisateur ayant installé l’application.
Applications installées par utilisateur : nombre moyen d’applications installées par un utilisateur.
Utilisateurs actifs au temps T : nombre d’utilisateurs actifs à un moment précis.
Nombre d’applications installées au temps T : nombre d’applications installées par un utilisateur à
un moment précis.
Cycle de vie : durée pendant laquelle une application reste installée par un utilisateur.
De nombreuses sociétés proposent des outils de mesure reposant sur ces indicateurs et allant du plus
qualitatif au plus quantitatif (par exemple Buzzrank, Altimeter Group, Mac Kinsley, Forrester, ComScore,
Médiamétrie).

EN CONCLUSION
Les médias socionumériques sont le territoire du buzz, de la viralité, des modes, mais aussi de
l’éphémère et de la concurrence dans la course à l’attention… Si les internautes s’échangent
avis et conseils, diffusent les contenus marketing qu’ils apprécient, initient occasionnellement
un dialogue avec certaines marques, ils les utilisent encore peu dans le cadre de transactions
marchandes.
La présence sur les médias socionumériques peut toutefois se révéler un moyen extrêmement
efficace, et parfois peu onéreux, pour faire connaître une marque, asseoir et entretenir une
image originale, s’inscrire comme symbole d’une culture de consommation, entretenir une
relation privilégiée avec certains consommateurs jusqu’à les faire participer à l’évolution de
l’offre ou encore établir des profils clients plus précis.
Cependant, deux points doivent rester présents à l’esprit des marketeurs. Tout d’abord, ces
dispositifs socionumériques demeurent très jeunes et leur popularité est souvent éphémère. Qui
peut dire aujourd’hui ce que seront demain Facebook, Twitter ou LinkedIn ?
Quelques signaux laissent prévoir un développement de la gestion de la relation client (social
CRM) sur les médias socionumériques, mais il est encore trop tôt pour en conclure à la
transformation de ces dispositifs en espaces marchands.
Ce nouveau support de communication charrie aussi un enjeu majeur pour le marketing : les
entreprises désirant s’investir dans les médias sociaux pour en tirer les bénéfices que nous
venons d’évoquer se trouvent confrontées à une véritable révolution culturelle. En effet, cette
démarche suppose d’initier un rapport avec leurs consommateurs et prospects radicalement
différent de celui auquel elles sont habituées. La volonté de contrôle de la communication
marketing est mise à mal sur ces espaces de profusion informationnelle et de libre expression.
Les exemples évoqués dans ce chapitre prouvent que les internautes considèrent avoir leur mot
à dire sur les marques, produits et campagnes des entreprises. Celles ayant refusé de prendre
acte de ce phénomène l’ont payé chèrement. Il s’agit d’un défi fondamental pour les
entreprises. Mais ceci constitue l’opportunité de développer un marketing plus attentif à la
complexité des comportements de consommation des individus et des rapports qu’ils
entretiennent aux marques. C’est à la fois un défi et une opportunité pour le marketing d’en
sortir plus efficace et plus éthique. La solution se situe peut-être dans la proposition de Singh
et Sonnenburg (2012) ? L’invitation faite aux marques à considérer les relations sur les médias
socionumériques selon les règles et les codes de l’improvisation théâtrale est une piste
intéressante à suivre – ou tout au moins une invitation à penser autrement les rapports entre
marques et consommateurs.

[1] Financée par la fondation Mac Arthur, il s’agit d’une étude ethnographique consacrée à l’apprentissage et au vivre ensemble à l’ère des

nouveaux médias, réalisée par 28 chercheurs pendant 3 ans avec plus de 800 jeunes interrogés (Ito et al., 2010).
[2] http://www.untrainderetard.com

[3] Pour aller plus loin sur le thème de l’empowerment du consommateur, et le rôle d’Internet dans ce processus, voir le numéro spécial de

l’European Journal of Marketing (Vol. 40, issue 9/10, 2006).


[4] Cf. numéro spécial « Social CRM », International Journal of Technology and Human Interaction (2014).
Chapitre
3 E-marketing à l’international

Stéphane BOURLIATAUX-LAJOINIE
Maître de conférences IAE de Tours (France),
laboratoire Vallorem

Fernando PADOVANI
Professeur Université d’Etat de Rio de Janeiro (Brésil)

Tatiana TYCHKOVA
Professeur Institut Stolypine (Russie)

Mohua BANERJEE
Professeur International Management, Institut de Calcutta (Inde),

Katherine MA et Gaël BELLAYER
Professeurs Université Normale de Chine du Sud (Chine)

Objectifs

■ Comprendre les grands acteurs liés à l’évolution du réseau Internet.


■ Appréhender les marchés émergents du e-commerce.
■ Comprendre les enjeux du web dans les pays émergeants et émergés.
■ Analyser l’évolution du e-commerce dans les BRIC.

Sommaire

Section 1 Internet un média planétaire


Section 2 Internet dans les pays des BRIC
2,484 milliards d’internautes[1] pour une population mondiale de 7,1 milliards d’habitants, un humain
sur trois est connecté au réseau Internet, mais la disparité est grande entre les différentes zones de la
planète. Ce chapitre propose une vision croisée d’Internet au travers de quatre points de vue. La première
partie expose les problématiques liées au développement d’Internet et à la fracture numérique dans le
mode. La seconde partie propose quatre vues des usages d’Internet dans quatre des plus grands marchés
en croissance : le Brésil, la Russie, l’Inde et la Chine. Quatre visions des usages et des attentes de la part
des nouveaux utilisateurs du réseau. Si le Web s’est développé en Amérique du Nord et en Europe, les
futurs marchés du e-business seront sans conteste dans ces quatre grands pays regroupés sous l’acronyme
de BRIC.

Section 1 INTERNET UN MÉDIA PLANÉTAIRE

En 2010, l’Internet World Stat annonçait 1,996 milliard d’utilisateurs d’Internet pour une population
totale de 6,845 milliards d’habitants sur la planète, en 4 ans le nombre d’utilisateurs a augmenté de 24 %
alors que la population mondiale n’augmentait que de 3 %. Si les disparités géographiques restent
présentes, plusieurs faits permettent d’expliquer cette croissance rapide du nombre d’usagers. L’évolution
de l’infrastructure des télécommunications est un élément clé du développement des usages d’Internet. Le
niveau de technicité de l’interface Web diminue avec le temps, il est ainsi de plus en plus intuitif de
surfer. Les coûts d’acquisition et d’utilisation d’Internet tendent à se réduire à débit constant ou supérieur.
Enfin, la volonté politique des pays reste l’élément doté de l’inertie la plus importante, si Internet permet
de développer les services aux usagers (e-services) et le développement de la culture « pour tous », il est
aussi un média d’ouverture, d’expression et de revendication, ce qui reste encore un obstacle à sa
généralisation.

1 Le réseau télécom : changement de paradigme


Plusieurs chercheurs se sont intéressés à la relation entre la qualité du réseau de télécommunication et
le développement de l’usage d’Internet (Straub et al., 2002, Wong, 2003). La qualité du réseau regroupe
les contraintes de mise à disposition d’un réseau télécom par l’État, les contraintes d’évolutions de ce
réseau et le cadre juridique favorable ou non à l’usage du réseau. La corrélation des variables rapidité et
disponibilité peut sembler évidente : plus le réseau est rapide, plus les usagers utilisent le réseau pour
communiquer. Mais cela reviendrait à faire abstraction de deux éléments importants : le nombre de
connexion et la perception de la vitesse de connexion.
Plus un réseau est rapide, plus le nombre d’usagers qui se connectent tend à augmenter, diminuant ainsi
la bande passante disponible par usager et finalement… la rapidité du réseau ! La perception de la
vitesse d’un réseau est sujette à variation, l’arrivée massive de la 3G avait produit une véritable
explosion des abonnements, mais depuis l’arrivée de la 3G+ et de la 4G, nombre d’utilisateurs trouvent
leur ancienne connexion lente. Il en est de même pour les connexions filaires, si la France annonce un
débit moyen de 8Mbps (nécessaire pour la télévision via Internet), de nombreux pays se contentent d’une
vitesse moyenne de connexion à 1 ou 2 Mbps. L’investissement direct ou indirect (via des projets de
recherche) de l’État dans les réseaux de télécommunication fut à l’origine du développement d’Internet en
Amérique du Nord et en Europe, mais l’évolution économique du réseau a rapidement laissé la place à
des acteurs privés. Les pays émergeants assistent aujourd’hui au même phénomène, l’État donne
l’impulsion primaire pour structurer les grandes dorsales du réseau, mais les sociétés privées sont le
relais indispensable pour un maillage effectif du pays. Le cas de l’Internet mobile est encore plus
révélateur de ces partenariats entre le public et le privé (Straub et al., 2002). Internet mobile semble être
le futur standard de connexion dans les pays en voie de développement. Le coût d’une infrastructure
filaire est prohibitif en raison des vastes étendues géographiques à couvrir ; l’utilisation d’onde radio
s’avère ici la meilleure solution pour connecter des usagers épars tout en gardant un coût d’abonnement
économiquement acceptable dans le pays.

Source : International Télécommunication Union.


Figure 3.1 Développement des moyens mondiaux de connexions entre 2003 et 2013
Source : International Télécommunication Union.
Figure 3.2 Évolution des connexions fixes et mobiles
2 Internet mobile et interface tactile : la révolution mondiale
L’année 2007 fut marquée par l’arrivée des smartphones (lancement de l’iPhone), les usagers
découvraient la possibilité de commander un petit ordinateur avec un doigt. Comparable à la révolution
de la souris fin des années 1980, le tactile a considérablement modifié l’usage d’Internet. Son impact est
double.
Tout d’abord, l’usage du tactile diminue le temps d’apprentissage de l’interface : la navigation est plus
intuitive car le tactile a induit un changement de paradigme dans les conceptions des systèmes
d’exploitation et des logiciels. Il n’est pas surprenant qu’Apple ait été un fer de lance du tactile, la
conception de son système d’exploitation ayant toujours été résolument tournée vers l’usager en masquant
les contraintes techniques. En 2012, le lancement de la tablette Ipad a ouvert un marché de l’informatique
nomade. De nombreux pays en voie de développement ont vu au travers des tablettes la possibilité
d’offrir un appareil peu coûteux et simple d’usage. La volonté des États fut ici de créer une économie
nationale face à cette demande émergente. Au lieu d’importer des produits américains ou européens, les
Chinois et les Indiens ont préféré développer leur propre marque, sur un marché captif de
plusieurs millions d’utilisateurs afin de créer une industrie informatique nationale. Cette dernière
jusqu’alors dédiée au marché local a aujourd’hui atteint un degré de qualité et une capacité de production
qui lui permet d’aborder le marché mondial. Des marques comme Huawei (chinois), ou encore ZTE
(chinois) étaient encore absentes des linéaires américains et européens il y a trois ans, elles sont
aujourd’hui référencées dans la plupart des sites internationaux. L’économie industrielle a ici rattrapé la
demande des consommateurs pour ce nouveau type de produits numériques.

Focus 3.1
Huawei, ZTE et Xolo : trois succes stories venues des BRIC
Huawei, créée en 1988, était un constructeur chinois spécialisé dans les routeurs, les switches et
autres appareils professionnels. Avec le développement de l’informatique nomade, il déploie en
2009 le premier réseau LTE (équivalent de la 4G) dans le nord de l’Europe et lance sa propre
marque de téléphones mobiles (initialement réservée au marché chinois). En 2011, il lance une série
d’offres de Cloud (matériel et stockage) destinée aux entreprises. En 4 ans, Huawei est passé du
statut de constructeur national de matériel et de smartphone à celui d’acteur international présent
dans le top 10 des plus grands acteurs.
ZTE, Zhong Xing Telecommunication Equipment Company Limited, créée en 1985, est un
constructeur chinois d’appareils de télécommunications qui travaille essentiellement en B to B. Il
proposait jusqu’en 2010 des téléphones et smartphones en marque blanche. Depuis cette date, il
propose également des appareils sous sa propre marque. ZTE a toujours été positionné à
l’international principalement dans le secteur du B to B.
Xolo by Lava Mobile, créée en 2009 Lava Mobile est un constructeur Indien principalement connu
via sa marque Xolo. Cette dernière avait pour mission de créer un smartphone et une tablette pour
équiper les besoins domestiques en Inde. À ce jour, Xolo propose plusieurs smartphones (dont le
plus léger du monde) sous Windows8 et une série de tablettes tactiles particulièrement complètes
pour moins de 300 USD. Xolo est depuis 2013 un acteur grandissant sur le marché mondial des
appareils mobiles.

3 Des coûts constants pour un service de meilleure qualité


L’augmentation rapide des usagers dans les pays en voie de développement a permis de développer un
modèle économique original dans lequel l’accès à l’Internet mobile est moins coûteux que l’accès à
l’Internet fixe. Autre spécificité de ce marché, son évolution très rapide évite les implémentations de
réseaux telles que les ont connues l’Europe ou l’Amérique du Nord. Le passage de la téléphonie installée
en Europe vers le milieu du XXe siècle à la fibre optique a induit de nombreuses étapes techniques, des
changements fréquents de matériel, des travaux de voiries. Dans les pays en voie de développement, on
pourrait caricaturer l’évolution des télécoms par cette simple phrase : ils sont passés d’un état où il n’y
avait rien (pas de réseau téléphonique) à un état où la 4G est considérée comme un débit normal. En effet,
de nombreux pays se sont équipés dès les années 2011-2012 de la dernière technologie en communication
mobile, l’absence d’antériorité du réseau n’ayant pas induit de frais de mise à niveau.
Autre élément important ; en raison de l’augmentation du niveau de vie dans les pays en voie de
développement, le coût affecté à l’abonnement à l’Internet mobile reste fixe (voire décroissant dans
certains pays) pour une qualité de réseau (maillage, débit) régulièrement améliorée. Internet mobile est
aujourd’hui le type d’accès qui se développe le plus dans ces pays.
Figure 3.3 Coût moyen mensuel d’accès au réseau fixe d’Internet (en PPA pour 1 Mbps)
4 Internet et politique : un équilibre délicat
Corollaire de cette diminution du coût des appareils de connexion (tablettes, smartphones) et de
l’augmentation des débits, l’usage d’Internet a littéralement explosé dans de nombreux pays en voie de
développement. Si des géants du Web comme Google et Facebook se sont généralisés, certains pays ont
décidé de développer leurs propres outils afin de limiter (et parfois de contrôler), l’accès aux
informations. C’est ainsi que des sites comme Alibaba (concurrent chinois de eBay), ou encore Yandex
(concurrent Russe de Google) se sont développés sur un marché national avant d’atteindre une taille
suffisamment importante pour s’émanciper de leur pays.
Le cas des réseaux sociaux est emblématique de cette ambivalence entre liberté d’accès et contraintes
politiques. La censure (politiquement dénommée « sécurité publique » ou « sécurité d’accès aux données
du Web ») reste encore un élément très sensible. De nombreuses associations de défense des droits de
l’homme communiquent sur cette atteinte à la liberté d’accès. Plusieurs chercheurs se sont intéressés à
l’importance de la censure dans l’usage du Web. Les usagers nationaux ont généralement deux types de
comportements. Le premier consiste à faire confiance aux autorités en place quant au libre accès au
réseau et au bien-fondé d’une éventuelle restriction. La seconde réaction revient à mettre en place une
stratégie d’évitement en utilisant par exemple des proxys afin de pouvoir naviguer sur l’ensemble du
réseau.

Focus 3.2
Google et la Chine
Il est connu que Google dut faire face à quelques déboires en Chine. Le moteur de recherche a vu ses
résultats de recherches expurgés de certains sites jugés inopportuns par le gouvernement chinois. Ne
désirant pas particulièrement collaborer avec les autorités, Google a vu son accessibilité de plus en
plus réduite et l’arrivée sur le marché d’un concurrent purement chinois : Baidu. Ce dernier est
aujourd’hui le principal outil de recherche sur le Web pour les internautes chinois. Baidu respecte
les consignes du ministère chinois de la sécurité publique et offre un avantage réel pour les usagers :
la possibilité d’écrire et de référencer son site en mandarin.
Le 4 juin 2014, les services Google étaient encore sous le couperet du fameux « bouclier d’or » voté
par l’Assemblé nationale populaire de la République populaire de Chine1 ; Gmail et Google étaient
partiellement bloqués ; quand à Facebook il restait inaccessible.
Source : www.webempires.org
Figure 3.4 Cartographie des principaux sites utilisés dans le monde
Nous avons présenté ci-dessus les principaux points d’analyse d’une vision internationale du Web en
orientant notre démarche vers les pays en voie de développement. Nous proposons maintenant la
transcription du Web vu par des chercheurs issus de chacun des pays des BRI.C. Leur analyse du Web
apporte un éclairage nouveau sur notre approche occidentale, si les géants du Web sont présents, leur
hégémonie n’est pas aussi naturelle que dans nos pays. Un autre Web existe, trop souvent ignoré mais il ne
faut pas oublier qu’il concerne un peu plus de deux milliards d’internautes, soit près de la moitié des
personnes connectées sur la planète.

Section 2 INTERNET DANS LES PAYS DES BRIC

Nous présenterons les contributions dans l’ordre de l’acronyme BRIC, chaque présentation suit la trame
suivante : tout d’abord son auteur propose une fiche descriptive d’Internet dans son pays. Puis il propose
une approche historique du réseau, il présente ainsi les données macro du Web, ces données sont relatives
au nombre d’utilisateurs d’Internet (fixe et mobile) ainsi qu’aux principaux acteurs des télécoms. L’auteur
traite par la suite de l’évolution du e-commerce et des principaux sites utilisés par les résidents
nationaux. Chaque analyse propose en référence des recherches nationales qui illustrent les propos
présentés. Bien évidemment, de par les grandes différences de ces quatre économies, certains points de
l’exposé peuvent être plus denses selon les pays.

1 Le Brésil
Par Fernando Padovani, professeur à l’Université d’État de Rio de Janeiro, département de finance
et administration des entreprises.

Tableau 3.1 L’utilisation d’Internet au Brésil

Source : IBGE – PNAD 2011, CGI 2012, IBOPE Media 2013.

Le e-commerce au Brésil est encore émergeant, cela peut s’expliquer par plusieurs points.
Tout d’abord l’économie brésilienne dans son ensemble est en phase émergente, après l’envolée de la
croissance en 2010/2013, la situation reste positive mais un ralentissement est nettement perçu.
Culturellement l’acte d’achat se fait dans les commerces de proximité et généralement en liquide, la
dématérialisation des moyens de paiement n’est pas encore un élément usuel pour les citoyens.
Il faut également souligner le problème de l’infrastructure réseau, l’accès à Internet fixe ou mobile est
très variable selon les zones du pays. Si un accès filaire et mobile est simple et de bonne qualité dans les
grandes villes il en est tout autrement dans le reste du pays.
Enfin, la législation n’est pas encore bien adaptée à la vente en ligne. En 1995 le « Comité de gestion
d’Internet » a été créé, constitué de représentants du gouvernement, du secteur privé et de la société
civile. Son rôle est d’éditer des recommandations sur les meilleures pratiques pour favoriser le e-
commerce. Au-delà des règles imposées par l’Anatel[2], le Comité de gestion d’Internet propose une
vision économique de l’usage du réseau. En février 2014, le Congrès national brésilien a proposé un
projet de loi dénommé « Cadre civil d’Internet ». Ce projet a pour but le développement de
l’infrastructure réseau et la mise en place d’un cadre juridique qui favorise le e-commerce.
Malgré ces problèmes, le Brésil est le 5e plus gros utilisateur d’Internet avec près de 100 millions
d’utilisateurs (soit les 2/3 des internautes d’Amérique du Sud –source : IPEA), la présence des grands
acteurs du Web est très marquée. Les brésiliens sont d’importants utilisateurs de Google, de Facebook,
YouTube de Twitter, et plus étonnamment d’Orkut[3] ! L’environnement économique est favorable au
développement du e-commerce, bien que ralentie la croissance est toujours présente et le taux de
chômage a atteint son score le plus bas. Durant les dix dernières années, la classe moyenne a atteint
98 millions de personnes (classe disposant d’un salaire entre 1 000 et 2 500 USD/mois – source : NERI).
Le primo équipement informatique de cette classe est très important. L’achat de tablette et de smartphone
s’est envolé, propulsant ainsi ce segment de population de 25 à 45 % d’utilisateurs d’Internet. L’accès
aux études s’est considérablement développé depuis 15 ans. La classe moyenne actuelle vit en ville (avec
un accès au réseau de bonne qualité), dispose de bons revenus, d’un niveau de connaissances, et de
besoins qui lui permettent d’accéder au e-commerce.
Parmi les 100 millions de brésiliens connectés à l’Internet, 70 % possèdent une page Facebook, 50 %
ont entre 25 et 49 ans et 40 % d’eux peuvent être considérés comme consommateurs actifs sur Internet.
Cette population s’agrandit en moyenne de 6 millions de brésiliens chaque année depuis 2009. Il est
intéressant de noter que les femmes représentent 60 % des nouveaux consommateurs. Parmi les classes de
revenus plus élevés, le taux d’achat sur Internet est déjà important, et ce segment est mature. Ce sont
30 millions de personnes, dont 80 % sont connectées, dont 68 % sont consommateurs réguliers sur
Internet. (CGI 2012)
Les chiffres d’affaires du commerce électronique augmentent en moyenne 29 % par an depuis 2008,
passant de 4 pour 14 milliards de dollars US entre 2008 et 2013, selon les données de l’Association
Brésilienne de Commerce Électronique, (ABComm), ce qui ne représente cependant que 3 % des ventes
du commerce en détail brésilien.
Alors que l’économie brésilienne représente 2 % du PIB mondial, le e-commerce brésilien représente
aujourd’hui 3,5 % du total mondial, ce qui représente le 7e plus grand e-marché du Monde (avec un total
de 13 milliards de dollars US), derrière les États-Unis, la Chine, le Japon, et les principaux pays
européens. Les projections de croissance élaborées par les consultants allemands de y-Stats, et basées
sur le maintien des taux de croissance actuels, indiquent pour 2016 une participation brésilienne de 4,5 %
dans le CA mondial du e-commerce, ce qui en fera le 4e plus important marché électronique du monde.
Même si les chiffres sont sujets à cautions, les spécialistes brésiliens s’accordent sur le fait qu’il
existerait environ 350 000 sites dédiés au commerce électronique au Brésil, environ 15 % du total des
2,5 millions de sites actifs dans le pays. Les produits les plus achetés sont dans l’ordre : l’électroménager
et l’électronique (23 % du total), les produits tablettes et smartphones (12 %), les produits de beauté
(8 %) et les vêtements (7 %). Ces 350 000 sites génèrent 75 millions de transactions, avec une valeur
moyenne de 185 dollars US par transaction. (source : e-Bit, e-Commerce.org et BigData Corp.)
Ces chiffres montrent l’importance encore accordée aux magasins traditionnels. De fait les magasins
physiques migrent peu à peu vers la vente en ligne en utilisant une stratégie de type « click and mortar ».
Les deux plus grandes marques de distribution qui développent cette stratégie sont le groupe B2W (qui
gère la chaîne de points de ventes spécialisés Submarino et Americanas), avec un chiffre d’affaires de
2 milliards de dollars US en 2012, et Nova Pontocom (qui contrôle les chaînes de points de ventes
généralistes Extra, Ponto Frio et Casa Bahia) et avec chiffres de 1,2 milliard de dollars US.
Mais le marché brésilien a également développé ses propres « pure players », dont les principaux
Mercado Livre (version brésilienne d’eBay, 9e site plus fréquenté au Brésil), Netshoes (chaussures et
vêtements), Luiza et Wal-mart (électroniques et électroménagers). Malgré la grande quantité de petits
« sites » de vente, qui représentent 90 % du e-marché, ils ne génèrent qu’à peine 15 % du total des
ventes, avec une portée régionale, voire locale. Ces transactions animées par des petits « sites »
dépendent de la poste brésilienne pour livrer les marchandises et des formes de paiement non-digitales,
particulièrement le virement entre comptes bancaires, ce qui représente 40 % du total des paiements de
l’e-commerce au Brésil. Cependant, malgré l’importance du versement bancaire, la carte de crédit tend à
devenir le moyen le plus populaire pour les paiements en e-commerce (source : CGI 2012, e-Bit 2012).
Malgré les indicateurs prometteurs le nombre d’accès à Internet est proportionnellement plus faible que
dans d’autres pays au même niveau de revenu et de développement économique. Parmi les plus
importantes barrières d’expansion de l’Internet haut débit au Brésil se trouvent les problèmes
d’engorgement des infrastructures de télécommunication, ce qui induit des problèmes de prix, de
couverture et de vitesse. Le gouvernement a lancé le Programme national de Large Bande en 2010, avec
pour objectif le développement de l’infrastructure réseau. Les investissements prévus étaient de l’ordre
de 500 millions de dollars US. Mais comme dans de nombreux domaines d’infrastructures brésiliennes,
les investissements gouvernementaux réalisés ont été assez timides.
Le marché des fournisseurs d’accès est également bridé par la présence d’un monopole très fort. Cela
contribue à la présence des coûts élevés et d’une qualité de réseau considérée comme inférieure par
rapport aux pays voisins. Seulement 12 % de la superficie du pays est couverte par l’Internet mobile avec
deux (ou plus) opérateurs concurrents. En conséquence, presque 90 % du territoire est contrôlé par un
seul fournisseur. L’accès à l’Internet à large bande coûte environ 30 dollars US par mois, c’est un coût
parmi les plus importants dans les pays émergents. Comparés au pouvoir d’achat local, les coûts de
services d’Internet et de téléphone mobile sont plus élevés au Brésil que dans une centaine d’autres pays.
(Barreto, 2012)

2 La Russie
Par Tychkova Tatiana, Professeur à l’Institut Stolypin de Volga, département d’informatique
appliquée et de gestion des nouvelles technologies.

Tableau 3.2 L’utilisation d’Internet en Russie

Source : Federal State Statistics service – www.gks.ru

D’un point de vue historique, Internet débute en Russie le 4 décembre 1993 avec la mise en place de
l’accord relatif au Top Level Domain (TLD) spécifique au pays le « RU ». Le premier opérateur « Russia
Online » apparaît très rapidement et dès 1995 il propose des contrats de connexions aux habitants des
principales villes du pays. Le moteur de recherche « Rambler » apparaît en 1996. Il propose l’indexation
des premières pages du Web russe et la mise à disposition d’un e-mail gratuit. Mais c’est surtout la date
de 1997 qu’il faut retenir, avec l’apparition du moteur de recherche « Yandex. ru », qui, dès le début de
son existence, va s’imposer comme le moteur de référence pour les usagers russes.
Le réseau Internet russe connaît un succès rapide et l’État doit très rapidement faire face à une
augmentation des connexions sur un réseau dont l’infrastructure ne permet pas des pics de charge. La mise
en place de structure mixte privée (grandes banques, médias) et publique a permis de développer très
rapidement un réseau Internet filaire fiable et puissant. Le ministère de la communication a mis en place
un vaste projet de déploiement de fibre optique dans le pays. Ce projet « Restelecom » doit permettre de
couvrir près de 2 millions de foyers dans les principales villes. Dans un même temps, le coût de l’accès
au réseau de type ADSL a été divisé par 4 pour atteindre une moyenne de 26 roubles pour 1 Mbps (soit
environ 0,76 USD). Le coût d’un abonnement mensuel à Internet est actuellement d’environ 550 roubles
pour une vitesse moyenne de 22 Mbps. La répartition des accès Web reste encore aujourd’hui inégale sur
le territoire russe, la région la plus numériquement enclavée restant celle de l’Est avec un débit près de
20 fois inférieur à celui des autres habitants. Mais la principale évolution du Web tient à la généralisation
des connexions mobiles. Le gouvernement russe, en partenariat avec les régions, mise sur une couverture
4G de 95 % des usagers dès 2018. C’est un investissement très important qui est mis en place. Les trois
grands opérateurs de téléphonie mobile, qui sont VymelKon, MTS et MegaFon, se positionnent sur ce
nouveau marché à très forte croissance. En 2013, seuls 50 % des internautes moscovites accèdent au
réseau via leur smartphone. La généralisation des smartphones et des tablettes[4] ouvre un marché
considérable pour les opérateurs de téléphonie mobile.
L’élément le plus important pour comprendre l’essor du Web en Russie est l’amélioration du revenu par
habitant. Durant les trois dernières années, la pauvreté a reculé de 2 %. Le coût d’accès à Internet a été
divisé par 4 alors que la vitesse d’accès était régulièrement augmentée. Aujourd’hui, seuls les
abonnements mobiles (facturés environ 200 roubles/giga consommé) restent réservés à une population
aisée.
En raison de la taille du pays et de la richesse de l’offre en ligne, les citoyens russes consomment via
Internet sans peur particulière. Leur panier moyen en 2013 est de 828 USD/an (contre 677 USD en
Allemagne et 1 104 USD aux USA). Aujourd’hui l’achat sur Internet touche tous les citadins russes, sans
distinction notable de sexe ou de revenus. L’accessibilité à un bon débit Internet (donc la présence dans
une grande ville) semble être le seul critère discriminant dans l’acte d’achat en ligne. Mais cette
population de Web acheteur ne représente que 14,5 millions d’habitants, ce sont des usagers débutants sur
Internet qui ont généralement entre 3 et 5 ans d’expérience sur le réseau. C’est sur l’apprentissage de la
consommation sur le Web que se tournent les principaux acteurs. La boutique en ligne Ozon propose ainsi
une « Online Purchase Academy » afin d’expliquer à ses clients comment consommer sur Internet. Cela
peut aller de problème très simple, comme trouver une référence produit et remplir son panier virtuel, à
des inquiétudes plus importantes relatives au délai de livraison ou au retour d’un produit commandé.
Comme dans de nombreux pays, le taux de bancarisation est un élément important pour le
développement du e-commerce. En Russie, ce taux n’est que de 50 %, dans l’absolu seul un citoyen russe
sur deux dispose d’une carte de paiement. Le e-commerce doit donc trouver des solutions palliatives à ce
manque d’outils de paiement (notamment le contre remboursement, l’envoie d’un chèque ou encore le
micropaiement par téléphone). Enfin, il est de tradition en Russie de payer ses achats en liquide, ce qui
freine l’achat en ligne.
L’usage de l’alphabet cyrillique et la méconnaissance de l’anglais ont eu un effet croisé sur le e-
business en Russie. D’une part, cela a freiné et freine toujours l’essor du e-commerce en rendant
impossible aux Russes l’accès à la plupart des sites internationaux, mais en contrepartie cela a permis le
développement de sites nationaux (donc écrits en cyrillique) qui sont aujourd’hui de réelles alternatives
aux sites mondiaux. La langue russe a ainsi créé une barrière a l’entrée pour de nombreux acteurs (Google
par exemple) et a octroyé une position dominante à ceux qui savaient s’adapter aux contraintes de cet
alphabet (Yandex par exemple).
Les consommateurs russes privilégient les sites nationaux pour leurs achats sur Internet. En 2013, la
Russian research Agency Datainsight dénombrait 2 000 sites nationaux pour les produits de grande
consommation. Les supermarchés sont encore très peu présents sur Internet et seuls leurs rayons
électroménagers peuvent parfois vendre en ligne. Comme dans de nombreux pays, ce sont les produits
culturels (livre, vidéo, billetterie) ainsi que l’électroménager et l’électronique qui sont les plus demandés
par les acheteurs en ligne. Les cinq sites suivants drainent l’essentiel du e-commerce russe :
Tableau 3.3 Le Top 5 des sites Internet russes de e-commerce
CA moyen par mois
N° Boutique Catégorie
(millions de roubles)

1 www.rzd.ru Tourisme 3 800

2 www.aeroflot.ru Tourisme 3 100

Électronique et
3 www.ulmart.ru 2 000
matériel de maison

Électronique et
4 www.citilink.ru 1 755
matériel de maison

5 www.onetwotrip.com Tourisme 1 450

Si les enseignes nationales regroupent la majeure partie du marché, il ne faut pas négliger les sites
internationaux qui tentent depuis plusieurs années de s’implanter sur le marché domestique russe (eBay,
Amazon). Outre la barrière de la langue qui limite l’accès des consommateurs aux sites internationaux, la
législation s’est considérablement durcie. Aujourd’hui, un acheteur russe peut acquérir et importer sans
taxe jusqu’à 1 000 euros HT de marchandises par mois. Cette règle avait pour but de favoriser le
développement des premiers achats sur Internet. Les consommateurs ont ainsi découvert des sites sur
lesquels les prix étaient particulièrement compétitifs et qui ont considérablement augmenté les
importations du pays – l’achat sur Internet à l’étranger a représenté ces dernières années jusqu’à 3 % du
PIB (soit 120 milliards de roubles). Constatant une perte sèche sur les taxes d’importation et une mise en
concurrence des sites nationaux, le gouvernement russe a décidé de changer cette règle pour ramener le
plafond mensuel d’importation sans taxe à 120 euros.
Quant aux moteurs de recherches et réseaux sociaux numériques, si les acteurs internationaux sont
présents en Russie, ils ne sont pas aussi populaires que les acteurs nationaux tels que Odnoklassniki. ru
ou encore Vkontakte qui sont de loin les plus sollicités par les internautes. Le premier propose tout à la
fois un réseau social et un moteur de recherche ; il est particulièrement populaire dans les générations
adultes. En revanche, Vkontakte est positionné sur le marché des jeunes (étudiants, scolaire) ; il est très
utilisé pour les communications journalières entre adolescents et jeunes adultes. Il propose un service de
messages entre abonnés.
Enfin le géant Google est détrôné par Yandex et Mail.ru qui sont respectivement le moteur de recherche
et le fournisseur de mail historique du Web en Russie.
Les réseaux sociaux nationaux sont particulièrement utilisés par les internautes, une fois encore les
géants américains sont loin derrière dans les classements. En 2013, Schoolmates représentait 74 % des
usages, In contact, 58 %, My world 27 % et Facebook ne représentait que 14 % des usages[5].
3 L’Inde
Par Mohua Banerjee, professeur à l’IMI Calcutta, département management et nouvelle
technologie.

Tableau 3.4 L’utilisation d’Internet en Inde

L’Inde est aujourd’hui le troisième pays présent sur Internet avec environ 120 millions d’internautes
(alors que le pays n’en comptait que 80 millions en 2010). Le développement des connexions est
particulièrement rapide dans ce pays où l’économie du numérique est promue par le gouvernement. Le
lien entre les nouvelles technologies et la culture indienne est très présent. Depuis plusieurs années,
l’Inde forme de nombreux ingénieurs informatiques et l’usage des moyens de communication moderne est
vite entré dans les mœurs. Le pays souffre pourtant d’une infrastructure Web insuffisante. L’autorité de
régulation des Télécoms a été obligée d’imposer aux opérateurs un débit minimal de 512 Ko pour la mise
à disposition des offres Internet. La taille du territoire national nécessite un investissement considérable
en termes d’infrastructure de télécommunication, et le gouvernement travaille actuellement sur la mise en
place d’une dorsale indienne, entièrement en fibre optique, qui permettrait de désenclaver les provinces
les plus rurales.
L’usage d’Internet comme canal d’achat n’est pas encore une réalité en Inde. Le e-business ne
représente que 0,3 % des achats réalisés par les citoyens. Traditionnellement les consommateurs indiens
préfèrent acheter dans les magasins de proximité qui offrent la livraison gratuite et surtout permettent de
payer en liquide les achats, cette dernière pratique est particulièrement importante dans un pays où le taux
de bancarisation est d’environ 30 %[6]. Ce phénomène est tellement important que les enseignes qui
vendent en ligne se doivent de proposer un mode de paiement en liquide lors de la livraison des
marchandises. Enfin, la plupart des sites limitent le montant des achats en liquide afin d’éviter tout risque
de non-paiement et le nombre d’intermédiaires à rémunérer. À titre d’exemple, Flipkart et Snapdeal
limitent respectivement à 800 USD et 320 USD le paiement en liquide. Cette limite restreint fortement le
développement du e-business qui n’augmente que dans les villes, les projetions les plus optimistes
(Technopack) estiment que le e-commerce pourrait atteindre 6,5 % des achats en 2023.
Le marché indien, contrairement aux marchés russe et chinois, ne s’est pas vu protégé par l’usage d’un
alphabet non latin. L’appartenance de l’Inde au Commonwealth a permis à de nombreux acteurs
internationaux de s’implanter rapidement dans le paysage du e-business. C’est ainsi sans surprise que
l’on retrouve la présence d’eBay-Inde (www.eBay.in) ou encore d’Amazon-inde (www.amazon.in) De
nombreux acteurs locaux ont alors pu s’implanter mais le modèle de e-business indien se caractérise par
l’hégémonie des places de marché. Ces intermédiaires proposent ainsi à des petits commerçants
l’ensemble de l’infrastructure nécessaire pour la vente en ligne.
Le plus important est sans conteste Flipkart qui propose des livres mais également de l’électronique, de
l’informatique et des fournitures pour la maison. Dans le même secteur d’activité nous trouvons
également Snapdeal, ou encore Jabong.com et Yebhi.com. Le modèle de ces sites est proche de ce que
propose Amazon.
Les réseaux sociaux sont également très présents en Inde, l’usage de l’anglais a permis à des géants
comme Facebook, Twitter ou Whatsapp de pénétrer très rapidement ce marché mais des réseaux purement
indiens sont également utilisés, à ce titre Worldfloat a fait une entrée remarquée dans le paysage des
réseaux sociaux indiens. Il propose, outre les fonctions identiques à celles de ces concurrents, de gagner
des bons-cadeaux en jouant en ligne.
Si l’on excepte les contraintes liées aux moyens de paiement et l’importance des marques nationales
(de matériels tels que Xolo ou de sites Web de commerce), l’Inde est probablement le pays des BRIC
dans lequel la consommation est la plus proche du modèle occidentale.

4 La Chine
Par Katherine Ma et Gaël Bellayer, professeurs à l’Université Normale de Chine du Sud,
International Business College.

Tableau 3.5 L’utilisation d’Internet en Chine

La relation entre la Chine et Internet est complexe, le gouvernement chinois étant tout à la fois conscient
de l’opportunité économique majeure que représente le réseau et inquiet par la liberté d’expression et de
pensée que peut véhiculer Internet.
Le premier point important pour comprendre le développement du e-commerce en Chine est de réaliser
la récence de l’industrie de la distribution. En à peine vingt ans, la Chine a vu un bouleversement sans
précédent dans l’offre de produit et dans les circuits de consommation. Mais les consommateurs qui
disposent d’un bon pouvoir d’achat ont très rapidement réalisé les opportunités du e-commerce (largeur
de l’offre, prix attractifs). En 2012, le volume des ventes en ligne en Chine progressait de 31 % pour
atteindre 8 milliards de yuans.
Le marché des fournisseurs d’accès filaires et mobiles est détenu par trois compagnies nationales dont
la plus importante China Telecom détient plus de 50 % du marché. Les deux autres compagnies,
nationales elles aussi, se partagent le marché restant. La couverture Internet est très inégale dans le pays.
Si les grandes villes et les zones denses bénéficient d’une bonne couverture (de 2 à 20 Mbps) à un prix
accessible (environ 77 yuans), de grandes parties du territoire n’ont pas accès à Internet. La population
ayant accès au réseau représente environ 18 % de la population totale du pays.
La Chine est un cas très particulier de développement du réseau. Le choix politique du pays fut de
proposer un accès à moindre coût afin de démocratiser le média Internet, tout en gardant un contrôle des
informations disponibles. À ce titre, le gouvernement chinois a mis en place un système de contrôle
dénommé le « bouclier d’or », qui a pour but de sélectionner les informations disponibles sur le réseau
afin de protéger la population chinoise. Les principaux acteurs internationaux ont ainsi dû accepter le
couperet du bouclier d’or s’ils voulaient être présents dans le pays. Facebook, Google ou encore Twitter
ont vu leur accès limité ou bloqué en fonction des événements politiques chinois. Enfin, l’usage d’un
alphabet non latin a, là encore, facilité le développement d’un moteur de recherche national BAIDU plus
apte à répondre aux besoins des utilisateurs et aux contraintes du gouvernement. Cette approche incitative
à l’usage d’un moteur national plutôt qu’un moteur de recherche américain est assez bien acceptée par la
population, qui voit en cette offre un moyen de conserver une autonomie nationale sur le réseau Internet
(ne pas dépendre des Américains) sans pour autant percevoir de frein à la qualité de la recherche
d’information.

Tableau 3.6 Part de marché des principaux moteurs de recherche en Chine

Source : CNZZ, 2013.

Le gouvernement chinois utilise également une autre méthode pour favoriser la consultation des sites
nationaux au détriment des sites étrangers : la priorité de vitesse de connexion est donnée aux sites
nationaux. Il est ainsi bien plus rapide et agréable de surfer sur Baidu que sur Google (1,6 % des parts de
marché des moteurs de recherches !).
Dans cette logique d’autarcie numérique, la Chine a développé une réponse nationale aux attentes de
ses consommateurs. eBay n’a jamais réussi à bien s’implanter sur le marché chinois, les consommateurs
lui préfèrent TaoBao (www.taobao.com) qui détient près de 90 % du marché du matériel d’occasion
(C to C). Le site Tmall (www.tmall.com), filiale du précédent, se spécialise sur le B et C avec près de
60 % du marché. Ces deux structures font partie de l’empire du groupe « Alibaba Group », fondé en 1999
par un ex-professeur d’anglais, le groupe s’est très rapidement développé sur le marché chinois, Yahoo
détient une participation (en baisse) de 24 % dans le groupe.
Des sites et des applications spécifiques ont également été créés, ou adaptés au « bouclier d’or », pour
répondre aux besoins de communications instantanées et de réseaux sociaux. C’est ainsi que Twitter est
remplacé par Sina WeiBo (www.weibo.com) avec ses 500 millions d’utilisateurs dans le pays, cette
plateforme est un hybride entre Facebook et Twitter, permettant des micros conversations mais également
des messages vidéos ou en images. WeChat ou weixin (www.wechat.com) est une messagerie instantanée
développée en Chine, le site revendique 250 millions de comptes dans le pays.
Il est intéressant de noter que l’ensemble de ses solutions ont été développées au niveau national sous
l’impulsion du gouvernement chinois qui tenait ainsi à appliquer ses règles de sécurité sur le contenu des
publications. Les grands acteurs internationaux qui n’ont pas voulu se plier à la règle imposée se sont vus
tout simplement fermer le marché chinois. Après plusieurs années d’existence, ces produits sont
aujourd’hui suffisamment matures pour conquérir le marché mondial : Alibaba et WeChat sont deux
exemples de l’émancipation internationale de ces marques « locales ».
L’explosion de la téléphonie mobile a bien eu lieu vers 2010 et aujourd’hui le marché de l’Internet
mobile est loin devant celui du fixe. La surface du pays et les contraintes de déploiement d’une
infrastructure réseau sont telles que la mise en place de connexions via les téléphones portables est bien
moins coûteuse à l’État. 62,7 % des utilisateurs de smartphones (821 millions) surfent quotidiennement.
Les connexions à haut débit (3G et 4G) concernent quant à elles 281 millions d’utilisateurs. Outre la
recherche d’informations et les micros messages, l’un des services les plus utilisés est celui du
micropaiement. Fin 2012, 223 entreprises disposaient d’un agrément pour être intermédiaire financier
dans des opérations de micropaiement. Alipay (www.alipay.com) est le leader sur ce marché avec
900 millions de comptes ouverts. Cette société est une filiale d’Alibaba Group, ce dernier diversifiant
ses activités vers le micropaiement et le stockage en ligne (cloud computing). Le gouvernement chinois
est également présent sur ce marché puisque Alipay fonctionne en partenariat avec les trois plus grandes
banques du pays : Bank of China, China Construction Bank et l’Agricultural Bank of China.

EN CONCLUSION
Quatre pays, 2.5 milliards d’habitants et un taux de croissance d’Internet de près de 8 % par
an : tels sont les trois données à retenir de cette analyse des BRIC. Les émergents du Web sont
assurément les futurs marchés pour le e-business ; l’infrastructure réseau est aujourd’hui tout à
fait acceptable pour un usage commercial ; l’accès aux interfaces (smartphone, tablette) a été
garanti par une double volonté de production locale et d’expansion internationale. Ces quatre
pays peuvent aujourd’hui entrer dans la cour des grands du Web. Nombre de grands acteurs tels
que Google ou eBay se trouvent en difficulté pour pénétrer ces marchés. L’isolement (le
protectionnisme ?) plus ou moins forcé par les gouvernements (notamment chinois), l’usage
d’alphabet non latin (Russie, Inde, Chine), les priorités sociales (Brésil) ont permis de
développer une économie du Web nationale. Cette dernière a pris le temps de structurer son
business model local avant de pouvoir aujourd’hui s’exporter dans le monde entier. Inconnu il
y a encore 3 ans, le site Alibaba est désormais un très sérieux concurrent pour Amazon et
eBay[7].
Source : www.bricscable.com
Figure 3.5 Tracé de la future dorsale Internet dédiée aux BRICS
Et la montée en puissance des BRIC continue. En 2013, les pays des BRICS (BRIC + Afrique
du Sud) annonçaient la mise en place de leur propre dorsale Internet. Lassés de dépendre des
câbles européens ou américains pour leurs échanges, les BRICS souhaitent se doter de leur
propre infrastructure qui contournerait géographiquement les goulots d’étranglement que sont
l’Amérique du Nord et l’Europe[8].
Disposer de leurs propres matériels nomades, de leurs propres acteurs du e-commerce, de leur
dorsale de connexion au réseau, trois éléments clés qui marquent l’émancipation des BRICS
par rapport au modèle nord-américain/européen. Le réseau évolue sans cesse, il est plutôt
rassurant de constater que les nouveaux entrants apportent leurs adaptations à ce processus
dynamique. À nous marketeurs de comprendre les attentes de ces nouveaux clients, d’intégrer
leurs contraintes dans nos stratégies. Plus que jamais le modèle d’Internet se heurte à la
diversité. Et si la solution résidait dans une double approche qui tiendrait compte des travaux
sur la culture et des travaux sur la valeur perçue ? Holbrook et Hirschman (1982) et Hofstede
(1980) seraient-ils les clés d’analyse de ce Web émergeant ?

[1] Source : étude Social, Digital & Mobile Around The World (January 2014), disponible à l’adresse :
http://fr.slideshare.net/wearesocialsg/social-digital-mobile-around-the-world-january-2014
[2] Agência Nacional de Telecomunicações : organisme publique qui régit les télécomunications.

[3] Orkut est un réseau social initié par Google en 2004, il ne connut pas un très grand succès sauf au Brésil où il fut très rapidement adopté
par la majorité des internautes.
[4] http://www.tns-global.ru/press/news/183388/

[5] www.levada.ru/sites/default/files/2012_eng.pdf

[6] http://www.lemonde.fr/economie/article/2014/04/04/l-inde-autorise-la-creation-de-nouvelles-banques_4395849_3234.html

[7] http://www.lesechos.fr/17/03/2014/LesEchos/21648-063-ECH_le-chinois-alibaba-va-faire-son-entree-en-bourseaux-etats-unis.htm

[8] http://www.rslnmag.fr/post/2013/09/26/Demain-un-Internet-bis-bresilien-russe-indien-chinois-et-sud-africain.aspx#commentlist et
http://vimeo.com/62538784
Partie Consommation et gestion de la relation
2 client

Chapitre 4 Management de la relation client à l’ère digitale


Chapitre 5 Achat et Internet
Chapitre Management de la relation client à l’ère
4 digitale

Christophe BENAVENT
Professeur des Universités, Université Paris-Ouest (Nanterre),
UFR SEGMI département de gestion, laboratoire CEROS

Objectifs

■ Comprendre l’évolution de l’environnement digital et son rôle croissant dans la relation entre la
marque et les consommateurs.
■ Analyser les conséquences du développement de l’environnement digital sur la gestion de la relation
client.
■ Réorganiser la gestion de la relation client à l’ère digitale selon trois principes fondamentaux : la
médiatisation, la socialisation et l’ubiquisation.

Sommaire

Section 1 Une relation médiatisée


Section 2 « Socialisation »
Section 3 Ubiquisation
Ce chapitre analyse les conséquences du développement de l’environnement digital sur la gestion de la
relation client. Différents facteurs transforment la relation des marques à leur client. L’abondance de
l’information qui est engendrée par les vagues successives de transformation technique affecte les
comportements des consommateurs et des entreprises : intensification du flux d’information, surcharge
informationnelle, degré de participation, effets de sélection, filtrage de l’information sont quelques-uns
des problèmes rencontrés dans le triple mouvement de la médiatisation de la communication, d’un
environnement digital socialisé, d’une présence ubiquitaire d’Internet.
Ce chapitre conclut à la nécessité d’une évolution de la gestion client qui s’organise selon trois grands
principes : structurer les communautés et articuler les canaux de communication, respecter l’intimité des
clients et être accepté dans la communication, enrichir la conversation par du contenu et une véritable
attention.
L’environnement digital est décisif pour le marketing. Il absorbe de 20 à 30 % des dépenses
publicitaires et cette part est croissante. Il est devenu un canal obligé pour les industries de services, un
quart des billets d’avion s’y vendent, et il est devenu le premier guichet des banques.
Il ouvre l’action marketing à de nouveaux espaces de vie en étendant le spectre de ses interfaces : après
la maison et le bureau par le PC, il envahit les transports en commun avec les mobiles, bientôt le
supermarché. En quelques années il a multiplié les canaux et les outils : e-mail, search marketing,
affiliation, vidéo, médias sociaux, applications mobiles, promotion dématérialisée, paiement sans
contact, chat, call-back, buzz, e-réputation et identité numérique, multicanal à 360 °, influence, ciblage
comportemental et contextuel, filtrage collaboratif, la connaissance se réduit à un nuage d’étiquettes.
L’environnement digital s’impose par son évidence, c’est un phénomène de masse – 80 % de la
population française est connectée – 3 milliards d’individus le sont dans le monde. Cependant, il ne
laisse pas apparaître clairement ses contours. La vague du smartphone amplifie le mouvement et
renouvelle les problématiques. C’est ainsi que la question du data mining devient celle du big data.
L’inflation du vocabulaire en témoigne : e-marketing, Web-marketing, e-mail, e-réputation, multicanal, m-
marketing, SEO, agent virtuel, retargeting, etc., chaque technique semble générer sa propre pratique et si
chacune d’elle se saisit facilement, l’ensemble échappe comme l’eau dans les doigts de la main. Pour la
gestion de la relation client cet environnement neuf a des conséquences sérieuses. De quelle manière en
change-t-il la philosophie, les pratiques et les doctrines ?
Dans ce chapitre, nous prenons un parti pris de méthode d’analyse qui s’appuie sur l’idée que la
technologie ne détermine pas les pratiques, mais se propose comme un champ de possibles : des
« affordances », ces capacités que l’usage réalise, un potentiel qui se manifeste dans la relation. La clé
d’analyse est la doctrine du marketing orienté client qui se construit depuis 30 ans sur l’idée que la
relation d’échange est au centre de l’analyse. Elle s’associe à celle, distincte, que la valeur se forme dans
l’expérience de consommation.
Qu’entendons-nous par technologies digitales, ou numériques ? On ne peut se limiter au seul Internet,
qui par nature est une simple norme de communication. Il faut étendre le champ aux bases de données et
aux systèmes CRM. On ne doit pas omettre les techniques de cryptage et de compression essentielles, les
unes pour l’e-commerce, les autres pour le multimédia. Il faut inclure nécessairement les capacités et
techniques de calcul : du data mining aux systèmes experts d’indexation. Il est indispensable de souligner
le rôle essentiel des capteurs qui se sophistiquent (par exemple les compteurs de pas pour le coaching),
de rappeler l’importance de la dématérialisation des documents et l’automatisation des archives (qui fait
naître une nouvelle discipline, l’éditique) et de prendre en compte la variété des terminaux : desktop,
laptop, consoles de jeu, smartphones, GPS, tablettes, et objets connectés.
Sans faire une histoire des techniques, nous pouvons définir les technologies digitales comme
l’ensemble des techniques qui transcrivent les informations dans un langage binaire, et qui se prêtent à
des opérations de calcul et de transport peu énergétiques, opérées à très grande vitesse, et portant sur des
volumes très importants.
Le champ des possibles ouverts par la technique est naturellement immense, mais sa dimension
économique est primordiale : le digital, en réduisant les coûts de communication et de traitement de
l’information, permet un accroissement considérable de la productivité des activités de diffusion.
Rappelons à ce propos la loi de la fatalité des coûts croissants de l’industrie du spectacle, formulée par
Baumol et Bowen (1966) : un quatuor de Mozart demande autant de temps aujourd’hui qu’hier pour être
exécuté, par conséquent le coût relatif de sa production n’a fait qu’augmenter au regard de celui de
l’économie matérielle. Aujourd’hui, même si les musiciens l’exécutent en autant de temps, avec la même
perfection, la pièce peut être reproduite fidèlement et toucher un public qu’aucun théâtre ne pourrait
accueillir. Si la production demande les mêmes moyens qu’il y a trois siècles, l’efficacité de la réception
s’est multipliée au centuple. Le mailing, pour être reproduit et diffusé, peut aujourd’hui d’un clic être
diffusé à de vastes populations, et ce seul clic suffit à engager une cascade de calculs qui ajustent le
message à chacun par des techniques de ciblage comportemental. Le digital se caractérise par son
économie : les coûts marginaux de la diffusion se réduisent à presque rien, ils incitent à intensifier la
communication, faisant peser le risque d’une surcharge informationnelle.
Pour comprendre l’impact de l’environnement digital sur la gestion de la relation client, trois faits
importants doivent être mis en évidence. Le premier est que la digitalisation de la relation est une
médiatisation. Les dispositifs techniques médiatisent les actions, les filtrent, les trient, les évaluent et les
contextualisent. L’industrialisation de ces dispositifs est un trait saillant, la relation client qui était définie
comme un état de confiance, d’engagement, de satisfaction, de justice, s’incarne désormais dans le
dispositif matériel des interactions. Le second est que la gestion de la relation dépend de manière
croissante du caractère « social » des technologies de l’information. La capacité des systèmes techniques
à retracer le graphe de nos relations personnelles s’inscrit désormais dans tous les artefacts. Le troisième
est l’ubiquité et l’immédiateté qu’apportent les assistants personnels. Un écran désormais nous
accompagne partout, des écrans nous attendent à tout moment. Ils transportent en tout lieu et tout instant
l’ensemble de nos données, l’univers informationnel qui devient peu à peu notre environnement naturel.
Nous transportons nos bulles.
Ces trois faits renforcent l’intérêt du marketing client mais font naître des paradoxes. Un des plus
remarquables est celui de l’automatisation de la relation client qui, permettant un contact permanent, en
réduit cependant la qualité humaine. Pour les résoudre, les marques s’engagent dans un processus
d’appropriation continu de ces technologies, les insérant dans l’écologie des systèmes sociotechniques
qui pilotent leurs stratégies, les adaptant si nécessaire et y découvrant des potentialités et des usages
nouveaux.

Section 1 UNE RELATION MÉDIATISÉE

Clarifions tout d’abord la doctrine de la gestion de la relation client. L’hypothèse clé est qu’en se
focalisant sur les clients dans la durée, l’activité marketing peut obtenir une meilleure rentabilité qu’en se
concentrant sur les conditions des actes d’achat (les transactions) et la formation des préférences. Une
très riche littérature désormais documente ce basculement de point de vue (Grönroos 1994, Bagozzi
1975). « Fidéliser est moins coûteux que d’acquérir », selon la formule de Reichheld (1996). La
focalisation sur le client conduit le marketing à privilégier la gestion de la relation au cours du cycle de
vie. L’objet central est défini par cette durée et l’ensemble des activités qui s’y déroulent. Elle se
concrétise dans la notion de valeur de clientèle et de capital client qui en est l’accumulation (Rust,
Zeithaml et Lemon 2000).
La diversité des relations implique une approche en termes de portefeuille de clients dont la
composition détermine les choix concernant les quatre politiques fondamentales à élaborer et à mettre en
œuvre :
Les politiques de fidélisation au sens restreint de la rétention de clientèle, pour protéger les
relations à forte valeur des attaques de la concurrence.
La valeur du client étant protégée, en le connaissant mieux, il est alors possible de la développer en
éduquant le client, en favorisant les ventes croisées, en élargissant son expérience. On parlera de
développement de la clientèle.
Le capital client étant ainsi fixé, une politique d’individualisation de l’action marketing permet d’en
accroître la valeur en ajustant au mieux les ressources et les prix. C’est ce qu’on appelle
couramment one to one, ou la personnalisation.
Rares sont les situations où les clients survivent éternellement, il est donc nécessaire de renouveler
constamment ce stock par une politique d’acquisition qui, par ailleurs, détermine en grande partie la
fidélité future des clients.
La conduite efficace et parallèle de ces quatre politiques est susceptible de produire quatre types de
résultats :
L’approche CRM permet l’amélioration de la productivité commerciale par une meilleure allocation
des ressources au cours des différentes phases de la vie du client (optimisation des dépenses).
Elle permet le renforcement de la qualité de service et de produit et en conséquence accroît la
satisfaction (adaptation des offres).
L’approche CRM conduit à une amélioration de la qualité de la relation, en créant un climat de
confiance qui renforce la fidélité (fidélisation).
Elle donne une plus grande capacité à exploiter la diversité de la clientèle en termes de
consentement à payer et d’investissement requis (discrimination).
Pour mener ces quatre grandes politiques et les appliquer aux différents segments de clientèle, une
capacité d’analyse puissante est nécessaire. Le développement de la relation client a été naturellement
favorisé par le développement spectaculaire des techniques de gestion et d’analyse des bases de données
au cours des années 1990, faisant émerger au tournant du siècle un appareillage sophistiqué qui se
présente sous le terme de système CRM et ses outils de data mining (pour une vue panoramique du
domaine, Berry 2001). Et ces outils contribuent à trois activités : mieux analyser le portefeuille de clients
et les résultats des opérations (CRM analytique), mieux conduire les opérations (CRM opérationnel :
automatisation des campagnes, des forces de ventes, etc.) et faire collaborer les différents canaux et
agents commerciaux (CRM collaboratif).
L’extension de ces dispositifs aux médias de l’Internet en accroît les possibilités, les outils de CRM
deviennent e-CRM et social CRM, allant dans le sens d’une intégration de plus en plus poussée grâce
d’une part au cloud computing, et d’autre part à la construction de mashups grâce aux API. Le cloud
computing est cette idée de centraliser les données et les logiciels sur des serveurs et de distribuer les
résultats de leurs calculs et opérations sur les terminaux des utilisateurs. La notion est associée à celle de
software as a service (Saas) dont la conséquence économique est de faire payer l’usage en fonction de ce
qui est consommé. Cette approche de gestion des SI implique généralement une externalisation. Les
mashups sont des applications hybrides qui puisent dans de vastes bases de données telles que Google
maps, Twitter ou Flickr, des éléments de contenu par le biais d’interfaces appelées API (interface de
programmation d’application), mixant les données de sources différentes. Un bel exemple est ce que fait
Salesforce.com avec Twitter, enrichissant par exemple les fiches clients avec l’information pertinente
puisée dans Twitter sur la base de critères thématiques et géographiques.
Si de prime abord ces outils permettent une meilleure gestion de la clientèle, en réduisant les coûts des
opérations et en incitant à étendre les bases de données à la fois dans leur taille (le nombre de clients) et
leur contenu (la diversité des éléments d’information : comportements, préférences, identification,
contacts), ils posent trois problèmes que le gestionnaire doit prendre en compte dans l’élaboration de sa
politique : un éloignement psychosociologique dû à la matérialisation de la relation, l’intensification de
l’échange d’information, une individualisation qui peut conduire au renversement des relations de
pouvoir.

1 Matérialisation de la relation
Le marketing relationnel, dont la finalité est de créer un climat de confiance et de susciter de
l’engagement, agit principalement au travers de dispositifs techniques dont la logique propre conduit à
porter de l’attention à l’immédiat et à déplacer le regard du phénomène relationnel vers ce qui le mesure.
Ainsi, plutôt que de mesurer l’état de la qualité de la relation, on privilégie des indicateurs tels que la
fréquence de contact.
On retrouve là un paradoxe des systèmes CRM : s’ils ont pour finalité d’améliorer la qualité de la
relation, leur mécanisation produit parfois l’effet opposé. Le secteur bancaire qui, dans les années 2000,
a massivement investi dans ces systèmes a depuis réduit son exigence de qualification des personnels : en
incorporant la décision dans le système l’intelligence, on réduit les coûts et les compétences du front
office. La même logique pour les opérateurs télécoms pour qui la lutte pour la réduction des coûts fait
oublier parfois l’exigence de la qualité en externalisant les centres d’appel. La gestion du contact s’est
substituée à celle de la qualité de la relation. La recherche d’économies a pris le dessus sur la
satisfaction du destinataire final.
Ces expériences illustrent le processus à l’œuvre : pour mener à grande échelle une politique orientée
client, il est nécessaire de s’appuyer sur les développements des technologies de l’information et
d’industrialiser les opérations. Du même coup, la nature de la relation change : plutôt que de se construire
comme institution de confiance, elle se bâtit dans un flux incessant d’interactions digitales. Il s’agit de
souligner l’ambiguïté et l’équivoque de la digitalisation de la relation. Ce qui est gagné par une meilleure
qualité de service (l’accès 7/7 et 24/24) peut être détruit par la perte de confiance qui résulte d’un
moindre engagement des forces de vente et de l’absence d’empathie.
Gérer la relation dans un univers numérique, c’est donc gérer la médiatisation, qui est aussi une
matérialisation, dans le sens que les attitudes qui s’adressaient à la marque et au discours se construisent
désormais aussi sur et par des objets matériels qui incarnent cette relation. Il s’agit naturellement des
canaux (Web, téléphone, automates, etc.) mais aussi des systèmes de décision tels que les scorings, les
règles d’affaires, les systèmes experts, la métrologie. Un de ses derniers avatars se manifeste par les
technologies de self-care, dont la SNCF fait l’un de ses vecteurs d’amélioration de la performance.
L’ironie est que le terme de self-care a été utilisé d’abord par le secteur de la santé et peut être traduit
comme le souci de soi – il s’agit en fait de la systématisation du self-service. Pour reprendre le mot de
Thierry Spencer, le client est seul.
La numérisation implique une médiatisation par des objets matériels, des dispositifs techniques qui
régulent les échanges matériels, affectifs, informationnels. Ils prennent des formes multiples : base de
données clients, carte de fidélité, newsletters, réseau social, espace et compte clients. Ce mouvement se
systématise depuis 2013 avec la multiplication des capteurs et le développement des objets connectés.
Penser la relation c’est donc penser aussi l’effet de ces interfaces qui peuvent de manière symétrique
altérer les intentions, les attitudes, les dispositions. La technique n’est pas neutre pour reprendre le thème
politique de la neutralité du Net.

2 Intensification de la relation
Par l’économie même des technologies de l’information, un avantage est donné aux techniques dont le
coût est le plus faible, que ce soit pour recruter de nouveaux clients ou pour les fidéliser.
Un exemple significatif est la substitution progressive des actions de marketing direct par les actions
d’e-mailing. Pourquoi en effet soutenir des campagnes massives de marketing direct quand la même
quantité d’informations peut être diffusée à un coût 100 fois moins élevé ? On peut naturellement supposer
que, passant d’un média à un autre, les rendements soient moins élevés – ce n’est d’ailleurs pas évident –
mais cette différence est faible au regard des différentiels de coût.
L’effet immédiat de cette substitution est une incitation formidable à l’accroissement de la pression
commerciale. Les campagnes peuvent se multiplier et le rythme d’interaction croître à une vitesse
prodigieuse. Quand l’agence était visitée une fois tous les deux mois, et les bornes ATM une fois par
semaine, le Web-banking enregistre une dizaine de visites mensuelles, qui génèrent en retour un nombre
croissant d’appels téléphoniques. La pression commerciale s’est accrue formidablement.
Cette intensification se produit aussi à travers les canaux, l’innovation créant des canaux multiples,
newsletters et fils d’abonnement (RSS, Twitter) : l’embryon de la communication relationnelle passe par
la capacité d’envoyer de manière régulière une information pertinente sur l’actualité de la marque. Une
simple lettre d’actualité, un véritable magazine, une chronique. Les newsletters électroniques jouent ce
rôle parfaitement, devenant le trait d’union avec le site de la marque. Autour de ce modèle embryonnaire,
une autre couche de canaux se déploie : les liens RSS, les fils Twitter. Le monde publicitaire a
parfaitement pris conscience de cette évolution avec l’idée du « earned media », les campagnes payées
(« payed medias ») ne se suffisent plus à elles-mêmes : elles ont pour but d’amener les consommateurs
vers leurs médias propres (« own media ») mais surtout d’enrôler les consommateurs dans le processus
de diffusion des messages.
Si l’environnement digital permet d’accroître la pression commerciale, aussi bien en termes
d’acquisition que de fidélisation, rien de fondamental n’est changé, sauf une modification de la pression
optimale. Le coût du contact étant plus faible, son niveau s’accroît, et est amplifié par la concurrence. Si
l’hypothèse est juste, l’élévation de la pression dépasse le seuil d’acceptation des clients et développe
des comportements de résistance. Ils se traduisent par de l’irritation, fruit de la réactance, mais peuvent
aller jusqu’à des stratégies déterminées d’élimination et de filtrage des sollicitations.
Cette bataille du glaive et du bouclier a aussi des conséquences qualitatives intéressantes. Par exemple,
les newsletters ont succédé aux e-mails, la réponse des entreprises à la baisse des taux d’ouverture s’est
traduite par la recherche d’un contenu plus riche et plus attractif. L’évolution se poursuit avec
l’apprivoisement de méthodes moins intrusives telles les fils d’information à la Twitter ou à la Facebook.
L’intensification de la pression commerciale, qu’elle s’exerce pour conquérir de nouveaux clients,
maintenir les clients acquis ou mieux encore pour développer leur valeur, impose un changement dans la
nature de la communication : moins de slogans, plus de contenus, moins de persuasion mais plus de
conversations. On comprend la résurgence aujourd’hui de la notion de brand content (Bô et Guevel
2010), cette idée que la marque vit dans ses artefacts, que la marque existe par les contenus qu’elle
publie. L’impact sur le contenu se traduit aussi par un effort plus important en termes de ciblage, qui est
l’enjeu à la fois pour l’e-mail, mais aussi et surtout pour les liens sponsorisés. Le ciblage
comportemental et les techniques de retargeting en sont des exemples flagrants.
Cette évolution qualitative se retrouve aussi dans la conception des sites Web. Conçus d’abord comme
des vitrines, éventuellement des catalogues, ils connaissent une évolution éditoriale considérable qui est
marquée par deux éléments : ils prennent la forme des journaux – le modèle du blog – et trouvent leur
point d’entrée dans les moteurs de recherche moins que dans une page d’accueil. Si le Web de la
première génération avait la forme d’une encyclopédie statique, celui de la nouvelle génération a celle
d’un journal continu, d’un fil d’information incessant, qui fournit un contenu sans cesse renouvelé.
L’intensification de la relation que la baisse des coûts a engendrée amène en retour une transformation de
la nature de la communication.

3 L’hyper-individualisation
Une seconde conséquence de la non-neutralité des médias de la relation se manifeste dans
l’individualisation des interfaces. L’individualisation de la gestion de la relation client est au cœur de la
doctrine de la gestion de la relation client. Avant même que l’Internet ne se déploie, cette politique a été
promue par les visionnaires du one to one (Peppers et Rogers, 1991) qui ont souligné l’importance d’un
traitement individualisé des clients.
Là encore c’est la logique du gain de productivité apporté par la technique qui triomphe. Les premières
tentatives ont été le fait de l’industrie du marketing direct, et son développement est encore aujourd’hui
largement encouragé par les progrès de l’impression numérique. Ce qui obéissait à la production de
masse se décline massivement. L’environnement digital permet un degré très élevé de singularisation :
celui de l’individu, dans une situation, à un moment, pour une action.
Cette individualisation marche à merveille dans un type d’interfaces peu étudiées et pourtant largement
répandues : les comptes et les espaces client. Ces interfaces donnent une information totalement
personnalisée et exclusive de l’activité du client, au client lui-même, apportant un certain degré de
réflexivité, et lui apportant un certain degré de contrôle sur son propre comportement. Certains
observateurs les projettent en 3D dans les mondes virtuels que fréquentent les joueurs, y font intervenir
agents et avatars. Ils sont le plus souvent réduits à un compte où l’on retrouve ses données personnelles,
sous la forme de relevés, et un nombre d’options limité.
Les espaces clients présentent des caractères assez remarquables. Ils sont des boutiques sur mesure,
des espaces privatifs, construits à l’intérieur même de l’espace des sites Web. Dans le domaine
marchand, on a rarement connu ce type d’expérience – les loges au théâtre ou au stade, ou les salons
privés de certains restaurants en sont les exceptions. Encore que, dans ces cas, on ne permet pas le choix
du mobilier. Imagine-t-on disposer chez son banquier d’un bureau où l’on peut inviter son conseiller et
que l’on arrange à sa manière ? Imagine-t-on que chaque boutique soit construite selon les desiderata de
ses clients ? Un salon personnel que l’on use à la mesure de ses besoins. L’intime en est l’essence. Un
espace que l’on contrôle, qui nous est réservé. On pourrait y amener ses fleurs et ses tableaux, y faire
entrer des invités.
Son accès, sa gestion, son appropriation posent des questions fondamentales de sécurité, d’utilisabilité,
d’utilité, et d’identité. Ils sont cette chose qui fait la matière de la relation. Les espaces clients sont à la
relation ce que la chambre est à l’amour. Ils définissent le cadre. La maîtrise du design est essentielle
pour construire des espaces clients confortables, riches, utiles.
Mais la personnalisation ne produit pas toujours les effets escomptés. De nombreux consommateurs
préfèrent souvent un espace anonyme et commun. L’appeler par son nom, lui donner des détails dont il
n’aurait pas pensé que nous les connaissions, peut le faire sursauter. Il suppose que l’on a au préalable
recueilli des données que le client pensait intimes. L’excès de personnalisation suscite de l’inquiétude ou
au minimum témoigne d’une grande impolitesse. La personnalisation peut devenir rapidement une
intrusion. Des problèmes de vie privée sont posés (Kaplan 2010). Même initiée par le consommateur,
l’individualisation suppose que le client accepte de confier ses données personnelles à la marque.
Pour répondre à cette remise en cause de la vie privée, plusieurs approches ont été suggérées. Le
renforcement de la confiance est nécessaire ; la marque doit donner des garanties qu’aucune fuite n’est
possible et elle doit renforcer ses politiques de confidentialité en publiant et rendant accessibles des
chartes claires. Elle doit affirmer une éthique de la permission (Godin 1999) et plus encore est amenée à
redonner le contrôle des données au client.
Cependant, on s’aperçoit qu’en dépit d’une inquiétude manifeste, la résistance des clients à l’intrusion
est modérée. C’est le paradoxe de la privacy dont la rationalité tient à ce que les bénéfices de la
personnalisation étant immédiats, mais le risque d’un mauvais usage ultérieur étant différé, la balance
conduit les consommateurs à prendre le risque d’abandonner leurs données personnelles au prix éventuel
d’un certain degré d’anxiété.
Le marketing de la permission ne suffit pas, d’autres solutions techniques sont possibles : des tiers de
confiance, des systèmes d’identification distribués, des sceaux, et d’autres ressources de l’ingénierie de
l’identité numérique. Ces méthodes peuvent conduire à repenser l’organisation même des bases de
données. Un certain nombre d’initiatives vont dans ce sens, les plus radicales sont celles de ce CRM
inversé qui se dessine avec les outils de VRM : des outils qui permettent au client de manifester et de
concrétiser ses intentions en allant dans les bases des différentes marques chercher les données
nécessaires pour faire une comparaison. C’est le sens de l’approche encouragée par certains tels que Doc
Searl du Berkam center. Les moteurs de comparaison jouent actuellement ce rôle, on peut imaginer qu’ils
passent entièrement aux mains des clients. Dans cette optique encore imaginaire, on peut concevoir que
du côté de la marque, la gestion de la relation prenne un visage très différent de ce qu’on connaît. Il
faudrait prendre le virage de données publiques : permettre aux shopbot des consommateurs d’accéder
aux données des entreprises pour engager les transactions (caractéristiques produits, comptes bancaires,
éléments techniques, etc.).
Le risque de la personnalisation ne réside donc pas seulement dans les atteintes à l’intimité et à la vie
privée, mais aussi dans un relatif abandon de pouvoir au bénéfice du consommateur. Cette perte de
contrôle va au fond à contresens de la politique de gestion de la relation client qui vise justement le
contraire : en créant des dépendances et en isolant le client, même de manière consentie, un des buts
fondamentaux du CRM est de limiter les possibilités de choix. Un enjeu essentiel sera sans doute de
trouver, à travers les techniques, une solution d’équilibre entre l’intérêt des consommateurs et celui des
firmes.
Au-delà de la question du pouvoir dans la relation qui se cristallise dans la maîtrise des données
personnelles, la personnalisation obtenue par les artefacts électroniques pose aussi la question d’une
diminution de la valeur affective de la relation. Étant moins incarnée par les agents humains, dont la
littérature sur les services souligne l’importance, la relation peut voir sa qualité affective se dégrader.
Pour compenser, il importe de mettre en œuvre des dispositifs qui réalisent un véritable état de présence
sociale (Hassanein et Head 2007) et réduisent le sentiment d’être seul devant un automate. La présence
sociale se définit comme la conscience qu’une autre personne intervient dans la communication.
Médiatiser la relation par des interfaces électroniques, qu’elles soient les systèmes de self-care, qu’elles
prennent la forme d’automates vocaux, d’espaces clients ou d’applications pour smartphone pose un
problème particulier de design : comment, lorsque le client requiert cette présence, la lui faire sentir ?
Si le design des interfaces électroniques doit prendre en compte l’utilité et la facilité d’utilisation,
comme les travaux sur le modèle d’acceptation technologique (TAM) nous l’apprennent (Davis, Bagozzi
et Warshaw 1989), ainsi que d’autres variables telles que la jouabilité, l’esthétique, la confiance, et
comme des travaux récents le montrent, la liberté d’utiliser, ou non, ces canaux (Wu et Lederer 2009),
sans doute la priorité doit-elle résider dans cette « humanisation ». C’est ainsi, par exemple, que
l’utilisation d’agent virtuel est conçue pour pouvoir passer la main à un agent humain quand l’interaction
devient problématique, notamment lorsque des éléments conflictuels apparaissent dans la conversation.

Section 2 « SOCIALISATION »

L’expression Web 2.0 lancée par le cabinet O’Reilly depuis un peu plus de cinq ans a fait florès. Un
nouvel Internet est né ! Lancé dans la vision utopique d’une concorde où le consommateur créatif et
participatif participe à la grande démocratie de la consommation. Deux données principales caractérisent
les médias sociaux : les consommateurs financent la production de leur consommation ; et chacun diffuse
en boule de neige à la mesure de son intérêt. La troisième s’en déduit : la recommandation.
Les contenus sont produits par les utilisateurs, ils les conçoivent et les réalisent, et ils alimentent les
médias. Il s’agit de User Generated Content fondé sur des processus de crowdsourcing : c’est la foule
qui fournit les contenus. Ne demandant aucun retour, elle se paye de notoriété qui se traduit par des
indicateurs de popularité que l’on voit fleurir, des listes de diffusion aux boutons de partage : la
récompense de celui qui fournit du contenu est la célébrité qu’il obtient. Chaque individu dans la foule
peut aussi d’un clic informer des dizaines de personnes. La foule est une source de contenu mais aussi de
sagesse (Surowiecki 2004). Elle alimente et classe. Nous sommes à l’ère des ranking et de la
recommandation. Un bel exemple est ainsi celui de Foursquare, ce service qui permet sur son mobile de
trouver les bonnes adresses dans un rayon de quelques centaines de mètres où l’on se trouve : les lieux
sont renseignés par les utilisateurs, leur qualification se forge dans la somme des opinions, et la
distribution de badges et de titres (« maire ») récompense les plus actifs d’entre eux. Ces trois propriétés
de production, de diffusion et de hiérarchisation éveillent chez les marketeurs un intérêt particulier.
L’UGC peut conduire à repenser la manière dont on gère les bases de données clients. Plutôt que de
placer des capteurs insidieux qui saisissent l’ensemble des comportements, d’engager des processus
lourds de recueil d’informations à la manière des bases de données comportementales des années 1990,
la tentation peut être grande de proposer d’autres façons de faire, à la manière de Facebook : en donnant
l’initiative au consommateur et en le gratifiant de manière convenable. Cependant, ce ne sont plus les
mêmes acteurs qui recueillent les données. Dans le CRM traditionnel, celui des bases de données clients,
le contrôle est aux mains de la marque qui maintient des listes propriétaires. Avec l’UGC, ce sont des
plateformes sociales qui prennent le contrôle et fournissent les données aux marques par le biais d’API.
La capacité « virale » est encore plus évidente, elle affecte fortement les politiques d’acquisition. La
force des réseaux sociaux est finalement une généralisation des vieilles techniques de parrainage dont on
connaît l’efficacité. Mais il faut être nuancé, le bouche-à-oreille a des limites.
On a cru que ces réseaux avaient une capacité exponentielle de diffusion. Elle est exponentielle, mais
négative, comme le montrent les travaux de Watts, pour la raison simple qu’une dynamique de boule de
neige demande à ce que le coefficient de diffusion de chacun soit supérieur à 1 : le produit du nombre de
contacts et de la probabilité de retransmission du message. Si cette dernière est de 0,5 %, il faudra au
moins 200 contacts pour espérer générer plus d’une transmission. Le point de vue de Watts et Peretti
(2007) est que la meilleure stratégie reste celle de dissémination. Inutile de penser qu’en ciblant quelques
nœuds, même très influents, on puisse atteindre toute la population. L’effet de bouche à oreille ne joue
qu’à la périphérie, au grand dam des promoteurs du buzz marketing, il étend l’audience de 20 % à 100 %
en plus de la cible initiale (touchée par un média direct), mais ne correspond pas à ce que l’on peut
espérer. Il faut donc continuer à disséminer largement les messages pour espérer un relais important.
La troisième idée est celle de hiérarchie. Les travaux des spécialistes des grands réseaux montrent en
effet que leur constitution obéit largement à un principe d’attachement préférentiel. Les nœuds les plus
connectés ont une probabilité plus élevée que les autres de recevoir de nouveaux liens. Cette propriété
structure les réseaux sociaux selon des lois particulières, celles de la famille des lois puissance, qui
décrivent une distribution fortement inégale. Un très petit nombre de nœuds sont fortement connectés (par
exemple les individus qui ont plusieurs centaines, voire milliers d’amis sur Facebook) alors qu’un grand
nombre sont peu connectés (quelques dizaines d’amis) (Newman, Watts et Barabasi 2006). Les premiers
éléments jouent le rôle de hub et ce que l’on découvre est que leur rôle dans la transmission
d’information est moins de l’accélérer que de la faire passer d’une partie du réseau à une autre.
Les faits tels qu’ils commencent à se dessiner donnent un visage différent. Les opérations participatives
font participer peu de monde, la co-création reste souvent très marginale – il s’agit plus de mettre le
consommateur au travail –, les effets boule de neige du marketing viral s’épuisent très rapidement et sont
souvent imprévisibles. La pratique est éloignée de l’utopie, quand bien même celle-ci se renouvelle –
aujourd’hui avec les pratiques collaboratives, et dans une certaine mesure par les marketplaces. Une
plateforme telle qu’Amazon n’est pas qu’une base de clientèle de deux cents millions de clients, c’est
aussi une communauté de 2 millions de vendeurs.

1 Participation et architecture des médias


Si les agences promeuvent cette idée que le marketing doit fonctionner à 360° autour du client, l’idée
tourne en rond. Le client doit être au centre. Et il faut mettre en œuvre tous les canaux de communication
autour de ce point central. Mais cela est un peu court.
C’est au moment où justement la majorité des clients est exposée à l’ensemble des médias qu’il faut
renoncer à cette perspective intrusive, qui ne tient compte ni de la diversité des publics, ni de cette
exigence première que le client demande une sorte de respect qui se concrétise simplement dans le droit
de choisir et dans une certaine liberté d’action, et un certain degré de secret.
Les clients diffèrent moins par leur valeur monétaire que par leur degré d’engagement et de
participation. Il faut donc s’adresser à eux en fonction du degré d’engagement qu’ils manifestent : donner
de la matière à ceux qui veulent parler, commenter, discuter, relayer, avec les médias sociaux. Laisser à
ceux qui veulent seulement être informés des messages réguliers dans leur boîte aux lettres, utiliser les
médias pour les indifférents qui acceptent qu’on les interpelle dans l’espace public. L’adéquation des
médias à l’audience est le principe fondamental.
Quand, par qui et par quel canal les clients acceptent-ils d’être interpellés est la question principale
que l’on doit se poser. Une seconde question est de savoir ce qu’ils acceptent de donner d’eux : nom,
photo, adresse, préférences, habitudes, voisinage. Dans ce contexte, l’échelle de participation est un
facteur essentiel (Arnstein, 1969).

Focus 4.1
Le cas de Rue89
Les chiffres publiés par VinceDeg sur Rue89 (« Riverains de Rue89, qui êtes-vous ? ») en 2008 :
600 000 visiteurs par mois sur Rue89 (d’après l’institut Nielsen).
45 000 utilisateurs enregistrés.
8 500 d’entre eux seulement se sont connectés sur leur compte en mai-juin 2008.
4 500 ont posté un commentaire au moins (sur la même période).
15 000 inscrits ont laissé un commentaire depuis la création du site, il y a un peu plus d’un an.
0,75 % des commentateurs (une trentaine) réalisent 80 % des commentaires.

Source : VinceDeg
Avec le Web 2.0, il n’y a pas de client isolé, ni même de segments distincts. Les audiences
interagissent. Elles se constituent dans une écologie fragile, les connaisseurs des systèmes dynamiques en
apprécient la nature, celle des interactions et des effets papillons. La communauté qu’on abreuve
quotidiennement d’informations dans une plateforme sociale interagit avec son cercle d’amis, qui sera
d’autant plus sensible à ces relais qu’il entend par ailleurs le bruissement de la marque. Dans cette
perspective, il n’y a plus de segments isolés, mais des groupes qui interagissent. L’action sur l’un a des
effets indirects sur l’autre, et le mix des médias doit avoir pour finalité de produire les interactions les
plus positives possibles.
Comprenons qu’avec cette idée il faut abandonner la conception traditionnelle de la segmentation pour
adopter un point de vue écologique. En segmentant, il ne s’agit pas d’isoler un groupe qui réagit de
manière homogène à un programme d’action donné, mais d’isoler des groupes qui ont un profil spécifique
d’influence. Le but pour chaque segment est d’obtenir un certain degré de recommandation qui influence
les autres segments.
Les médias eux-mêmes interagissent. L’opération de relation publique fournit aux sites Web la matière à
un contenu. Les articles et documents du site sont matière aux retweets et aux mises à jour des médias
sociaux, cette matière suscite des commentaires, des approbations et des actions. Les médias absorbent,
digèrent, transforment le contenu d’autres médias. Ils se hiérarchisent dans un rapport de production, de
transformation et d’autorité. Les blogs par exemple deviennent les éléments de référence qui fournissent
un contenu souvent condensé aux médias sociaux.

Figure 4.1 Structuration des réseaux sociaux autour du cœur de clientèle cœur
Le fait empirique est que la participation se distribue de manière inégale. Une infime minorité de
clients actifs produit l’essentiel des contenus. Ceux dont le niveau de participation est nul forment une
majorité passive. Cette pyramide ou échelle de participation réintroduit une idée de hiérarchie. En
conséquence, un certain ordre peut être décrit : puisque l’attention est sélective, et que la participation est
marginale, c’est une structure en cercles concentriques, qui distribue les moyens et les cibles, jouant de
toutes les interactions possibles selon le degré d’engagement. C’est ce principe qui motive par exemple
la stratégie fans first de Coca-Cola dans les médias sociaux : faire des fans les promoteurs de la marque
auprès du grand public. Les campagnes plus récentes reprennent ce principe en jouant et en systématisant
l’idée du partage.
Dans ce schéma de communication, un ordre général des canaux peut être dessiné. Le précurseur de
toute communication est très certainement l’événement. Ce peut être le lancement d’un produit, une fête,
une campagne, un rachat, une vente, des conférences, n’importe quoi qui peut être l’objet de
commentaires, de spéculations, de discussions.
Une matière à raconter une histoire. Une saga, un roman, un feuilleton, une épopée. Une geste, un conte,
une simple chronique. Un récit, un mythe, une fable. Une histoire. Mais il y a le support. Des images, des
textes, des films, des documents, des archives, cette mémoire dans laquelle on prend, on pique, que l’on
explore. Du contenu dans tous les cas. Le cœur de la communication devient le journal où les événements
sont racontés, des pièces à conviction doivent leur être associées. Vidéos, photos et autres document en
confortent l’édition. Un cœur qu’entoure la trame des réseaux sociaux qui rassemblent les fans, les
soutiens, les partisans, les amis, cette population qui rend le soin qu’on lui accorde en un pouvoir de
recommandation puissant.
Dans ce cadre, fidéliser c’est mobiliser les « fans » de la marque. Les médias ne sont pas pour autant
obsolètes, ils peuvent contribuer aussi à ce travail de mobilisation, même si le plus souvent leur rôle
restera, de manière traditionnelle, de renforcer la notoriété et l’image, de favoriser l’acquisition de
nouveaux clients. De nombreuses campagnes aujourd’hui ont pour finalité d’amener les consommateurs
vers les sites Web.
Dans cette logique de mobilisation, le but est naturellement d’encourager le prosélytisme, et faire des
clients fidèles les ambassadeurs et recruteurs de la marque. On notera que dans ce contexte, la distinction
entre politique d’acquisition et politique de fidélisation s’atténue dans la mesure où la fidélisation
devient un vecteur d’acquisition de nouveaux clients, de la même manière qu’on reconnaît depuis
longtemps le rôle critique de l’acquisition sur la fidélité des clients (Reinartz, Thomas et Kumar 2005).

2 Attention sélective et question du filtrage


Un autre phénomène social que celui de la participation doit retenir l’attention des marketeurs, c’est
celui de l’attention sélective. Cette idée ancienne notamment proposée par Katz suppose que l’on prête
plus d’attention aux informations compatibles avec nos croyances et que l’on rejette celles qui les
remettent en cause (Graf et Aday 2010). Dans la mesure où nous préférerons des sources d’information
familières, en accord avec nos opinions, les réseaux peuvent produire des effets de polarisation (Stroud
2010) ceux qui partagent le même point de vue tendent à se lier sélectivement, et à former des ensembles
imperméables aux points de vue différents.
Dans ce modèle de la théorie des médias, l’accent est mis sur la perception des informations auxquelles
on est soumis, mais à un second niveau d’accent il concerne aussi le choix des médias auxquels on
s’expose. Et cet argument prend une valeur tout à fait particulière dans l’univers des réseaux sociaux
numériques. C’est celle du filtrage.
Rappelons d’abord que si le Web est un réseau documentaire, qui relie par des hyperliens les textes,
images et autres documents, l’innovation des réseaux sociaux numériques réside dans la capacité à relier
les individus. C’est une couche supplémentaire qui s’ajoute à la précédente et réunit les producteurs des
documents. L’attention sélective s’y manifeste moins par l’acceptation des informations auxquelles on est
exposé, que par la sélection des sources d’informations. Sachant qu’une part croissante du temps passé
sur le Net l’est sur ces plateformes, on comprend aisément l’importance du problème.
Le paramètre essentiel est celui du nombre de contacts personnels dans les réseaux sociaux. Celui-ci
serait de l’ordre de 150, autrement dit chaque internaute s’expose à quelques petites centaines de sources
d’information qui incluent ses amis, et éventuellement des marques. Ce nombre est à la fois faible et
important. Faible car un espace réduit est donné aux marques, important car cette quantité génère un flux
d’information considérable qui lui impose de filtrer l’information.
Cette notion de filtrage renouvelle l’idée d’attention sélective. Si cette notion a été avancée dans les
années 1960 pour comprendre les mécanismes d’influence des médias, et s’est appuyée sur l’analyse de
mécanismes psychologiques dans l’environnement des médias digitaux, c’est par l’analyse des
mécanismes de filtrage que l’on peut en comprendre l’effet.
Dans l’espace des réseaux, ce sont les éléments les plus commentés, les mieux notés, les plus reconnus
qui apparaissent à l’attention des internautes : des algorithmes en effet sélectionnent sur cette base les
informations pertinentes et les placent là où l’attention est la plus forte (en haut des pages).
Le pagerank de Google est l’exemple le plus typique. En prenant en compte non seulement la
popularité d’un site (le nombre de visiteurs) mais aussi le nombre et le pagerank des liens entrants, il
systématise ce mécanisme. Et son évolution renforce le phénomène, l’effort continu du moteur de
recherche pour personnaliser le résultat des requêtes, en prenant en compte la localisation par exemple,
amplifie le phénomène. La conséquence est que l’optimisation du pagerank est devenue un métier à part
entière : SEO. L’acquisition de nouveaux clients passe désormais par la maîtrise du référencement. La
logique du filtrage ne se limite pas à Google, elle est devenue générale. Dans les réseaux sociaux,
prenons l’exemple de YouTube, le contenu proposé à l’ouverture de la page est filtré par le mécanisme de
la notation. Les éléments les mieux notés, les plus commentés apparaissent en premier.
L’ensemble des dispositifs de notation, de comparaison, de commentaire, constituent ainsi de nouvelles
institutions qui régulent les statuts, les autorités et la réputation et qui les amplifient. L’exemple de
TripAdvisor (figure 4.2) est l’un des plus remarquables, dans la mesure où une chambre d’hôtel sur deux
est commandée sur le Net. Les établissements qui bénéficient d’un nombre élevé de notes positives
apparaissent en premier et recueillent la plus forte probabilité d’être choisis.

Figure 4.2 Résultat d’une requête prix/localité sur TripAdvisor


Si l’accès aux clients nouveaux est largement affecté par ce phénomène de filtrage, la conséquence
naturelle est qu’il est nécessaire pour les entreprises, afin d’obtenir un bon référencement, de susciter
chez les consommateurs ces comportements de recommandation. Les stratégies de fidélisation ont pour
but non seulement la répétition des achats, mais aussi des comportements de recommandation. C’est ce
qui amène une marque comme Coca-Cola à développer une stratégie fans first dans son approche des
réseaux sociaux : en se concentrant sur la fraction étroite des consommateurs « fans » de la marque qui
sont suffisamment engagés, en lui fournissant des jeux, du contenu et de multiples gratifications, la marque
renforce leur pouvoir de recommandation et sa place dans l’espace digital, permettant de passer les
filtres des réseaux sociaux.
La nature de ce filtrage est la même que celle produite par les systèmes de recommandation qu’emploie
par exemple Amazon.com pour personnaliser ses propositions individualisées (Ricci 2010) : des
méthodes de filtrage collaboratif dont le principe est de proposer des suggestions sur la base des
comportements de l’ensemble de la population de clients. La différence est que le filtrage social porte
non plus sur les éléments d’un catalogue, mais sur les sites eux-mêmes. Toute la bataille se cristallise sur
l’emploi des boutons de partage qui se sont généralisés.
Ce filtrage peut être problématique. En effet, en réaction à ce phénomène, les entreprises sont tentées de
produire de faux commentaires et de chercher à biaiser les notes en leur faveur. Ce phénomène dont la
presse et les médias se sont fait l’écho encourage les consommateurs à accorder une crédibilité réduite à
ces éléments. Au-delà de la question de la présence, s’ajoute celle de la confiance et de la crédibilité de
la recommandation. Incidemment, voilà qui ravive l’intérêt des mesures de propension à la
recommandation, telle le NetPromoter Score, en dépit du débat qui fait rage depuis quelques années
(Morgan et Rego 2006) : les détracteurs de cet instrument affirment qu’il n’est pas meilleur que les
mesures de satisfaction. Dans l’univers digital, les choses sont certainement différentes.

Section 3 UBIQUISATION

La troisième vague d’Internet arrive avec la large diffusion des smartphones, dont la pénétration
approche les 60 % de la population à la fin 2010, accompagnée de celle des tablettes, e-books et jeux
vidéo, et dans un futur très proche celle des objets connectés dont les bracelets forment l’avant-garde.
Elle généralise l’accès à toutes les situations d’usage et tend ainsi vers une universalisation du réseau.
En tout point et à tout moment, il est possible d’être connecté au réseau, pour ne serait-ce que lire une
carte ou envoyer un signal de détresse. Cette universalisation qui passe par la différenciation des
terminaux conduit à un paradoxe très intéressant : plus nous sommes connectés, et plus l’information utile
est locale. L’intégration des réseaux, le caractère ubiquitaire que donne l’accès aux données du cloud,
quelle que soit l’interface employée : TV, smartphone, laptop, console de jeu, e-book, tablette, kiosque,
moins que de rapprocher des acteurs lointains, renforce les perspectives d’utilisation locales. Un Internet
pratique qu’on peut qualifier de trivial se met en place.

1 Le paradoxe du local
Partout mais en un seul endroit. L’universalisation de l’accès qui permet une quasi-ubiquité a une
conséquence intéressante : l’information la plus valorisée est celle relative à notre environnement
immédiat. Nous ne sommes jamais partout à la fois, et ce qui se passe quelques dizaines de mètres autour
de nous est plus important que ce qui se passe au loin.
Les technologies offrent désormais les moyens de répondre à ces intérêts. Ce sont les techniques de la
géolocalisation. Le GPS au premier plan qui, associé aux bases géographiques telles que celle de Google
Map, permet de qualifier la source des messages comme le fait si bien Twitter, et autorise la conception
de services qui s’adaptent au lieu où se trouvent les consommateurs. Des innovations telles que
Foursquare sont en train de fleurir. Ces plateformes recensent tous les lieux d’intérêts et l’intérêt que les
consommateurs leur témoignent. Elles donnent naissance à une multitude de nouveaux services. La
figure 4.3 illustre cette capacité d’associer les bases de données par des mashups, une carte et des
données de Foursquare.

Source : Weeplaces.com
Figure 4.3 Mashup Google Map et Foursquare – le ratio homme/femme à New York
Même si le nombre d’utilisateurs est réduit, les traces, les indications s’accumulent et couvrent la
plupart des lieux, accroissant l’utilité de l’information et entraînant la majorité de ceux qui ne contribuent
pas à la documentation de la carte. On comprend facilement qu’une adresse mieux étiquetée qu’une autre
risque d’emporter les choix et que pour les marques il va falloir trouver un moyen de s’y faire une place.
Pour donner une idée de la couverture nécessaire pour l’espace français (550 000 km2), à raison d’une
densité de 10 étiquettes à l’hectare, il faut 550 millions d’éléments. C’est ce que Twitter vient de
produire à l’été 2010. Les quelques millions d’utilisateurs de Foursquare, de Panoramio et d’autres
plateformes alimentent ainsi une base de données exhaustive et en renforcent l’utilité pour les
consommateurs les moins impliqués. Le crowdsourcing prend ici une importance déterminante : il
construit la valeur du service.
Pour le commerce et la gestion de la relation client s’organisent des espaces nouveaux où il va falloir
être présent soit simplement pour se signaler, soit pour délivrer une information contextuelle. Les cartes
numériques consultées par un GPS, un Webphone ou un PC ont toutes les chances d’être de nouveaux
supports pour l’affichage des marques à mesure que se diffuse leur usage. Les publicités extérieures sont
en quelque sorte intériorisées. Parallèlement, l’affichage extérieur qui peu à peu devient électronique
communique par les flash codes, et sans doute bientôt par d’autres techniques, avec nos assistants. La
carte et le territoire tendent à se confondre.
Au sein des zones commerciales, par l’interaction avec les points de contacts électroniques, un champ
immense s’ouvre pour la promotion digitale dont le ciblage désormais est totalement contextuel. Il a déjà
été largement installé au point de contact de la caisse, il s’installe dans les caddies (self-scanning) et
risque de se répandre dans les bornes électroniques dispersées dans les rayons sous la forme de balise ou
d’étiquettes électroniques.
À mesure que le territoire est cartographié et tracé, c’est à l’échelle locale, dans les points
d’interaction avec le monde naturel, que l’information trouve sa pleine valeur. L’espace de la bataille
sera un peu moins sur les vastes plateformes du Web, de plus en plus dans les interactions locales, les
premières soutenant les secondes. L’interaction avec l’espace physique et le lieu dépend des canaux :
RFID, NFC, Bluetooth, Flashcode facilitent l’interaction avec des objets localisés. La géolocalisation est
la clé du système : Wi-Fi, GPS, 3G et les cartes forment le centre du système, Google Maps
principalement. Le « sans contact » est aujourd’hui l’enjeu des systèmes de paiement.
Voilà qui va renouveler considérablement les perspectives ouvertes au début des années 2000 par le
géomarketing. À la question de la localisation optimale des points de vente, s’ajoute celle plus essentielle
de la gestion des interactions locales. La capacité des systèmes CRM se définira de plus en plus comme
leur aptitude à distribuer de manière contextuelle et localisée le message et l’offre utiles au client mais
aussi aux agents commerciaux.

2 Un marketing en temps réel


Ce qui vaut pour l’espace vaut aussi pour le temps. Si historiquement le marketing s’est développé en
agissant contre le temps, essayant d’y échapper en créant des empreintes qui durent – l’image de marque
en est le meilleur exemple – l’environnement numérique en abolit l’effort.
Toute la doctrine relationnelle s’est construite sur l’idée qu’en développant la confiance, le sentiment
d’engagement, il était possible d’échapper à la contrainte de l’immédiat. La force des marques est
d’échapper à la conjoncture, au hasard de la transaction. Mais ce que l’environnement digital propose est
bien différent. La montée en force de réseaux tels que Twitter, dans une moindre mesure celle de
Facebook, favorise l’information immédiate. Mais c’est sans doute avec les objets digitaux (montres et
bracelets) et les applications en temps et lieux réels, telles que Google Now, que cette tendance va
s’exprimer avec sa pleine force.
Cette évolution implique pour les marketeurs que la relation ne peut pas seulement être saisie dans
l’immanence d’une attitude – la confiance, le respect, l’amitié, l’attachement, etc. – mais aussi dans
l’immédiateté de l’action.
À la gestion de la relation s’ajoute une gestion des contacts. La relation ne se définit plus comme une
atmosphère, comme un état persistant, mais comme l’ensemble des interactions qui sont inférées par les
achats, avant et après, et qui participent à l’expérience de consommation. Le succès d’Amazon.com est
associé à la capacité de donner au client les informations pertinentes sur l’état de sa commande. D’heure
en heure, l’informer de ce qu’il advient d’un colis, assurer du moment de sa livraison mais aussi de ses
retards. Les entreprises de transport sont directement frappées par ce phénomène. La qualité de leur
service dépend non seulement de l’exactitude des horaires, mais aussi de la capacité à donner en temps
réel l’information sur les retards.
Mais ce temps réel conduit à une surcharge informationnelle (Klinger 2009) qui pourrait dépasser
toutes les capacités de traitement de l’information des consommateurs. On produit beaucoup plus que ce
qui peut-être absorbé et la probabilité de percevoir une information est de plus en plus faible, incitant les
marques à accroître la fréquence d’apparition au risque de susciter le rejet, les effets de filtrage, sans
compter le désarroi que provoque la surcharge informationnelle, dont les psychologues ont montré dans
d’autres environnements qu’elle était source de stress, et de mauvaise performance.
Nous l’avons déjà souligné plus haut, cette intensification de la communication conduit à une évolution
des modalités du discours qui tend à se sérialiser. Le modèle du storytelling en donne une indication,
mais c’est sans doute dans les formes de la novela et du feuilleton que l’on trouve l’orientation : la
répétition est une variation. Le rythme et la régularité ne sont pas suffisants, le motif est aussi nécessaire.
Communiquer fréquemment implique de communiquer avec des motifs suffisants : le contenu devient
essentiel. Pour maintenir le droit à communiquer avec le cœur de clientèle, il ne s’agit plus seulement
d’obtenir la permission, mais de maintenir la légitimité du discours en le justifiant par un apport continu
d’information et de documentation.
De ce point de vue, deux directions différentes mais complémentaires risquent d’engager les politiques
de gestion de la relation client et l’évolution des systèmes qui les implémentent. La première réside dans
ce paradoxe que donner du contenu ne doit pas signifier encombrer les canaux. La solution réside dans la
mise à disposition de bibliothèques, de médiathèques, accessibles, faciles à consulter, et enrichies
continûment. Le temps réel, pour être supportable, doit aussi être un temps arrêté et maîtrisable. La
gestion des documentations risque d’être un instrument marketing considérable. La seconde tient dans la
réalisation de cette idée d’empowerment (Fuchs, Prandelli et Schreier 2010). Il s’agit de donner le
contrôle au client pour régler non seulement le rythme des interactions, mais lui donner les moyens de
contrôler son expérience de consommation. La réinvention du self-service au travers de la notion de self-
care participe à cet effort. Dans le domaine des services, cette perspective offre un potentiel immense. Le
retour d’information instantané sur la consommation va devenir la règle et la clé d’une gestion juste de la
relation. Ces perspectives aujourd’hui, sur un plan technologique s’inscrivent dans la perspective du big
data.

EN CONCLUSION
L’environnement digital, s’il propose de nouvelles opportunités à la gestion de la relation
client en générant de nouveaux services, en permettant une communication plus contextualisée,
en offrant une disponibilité de tous les instants et en tout lieu, amène aussi de nouveaux risques
pour l’entreprise :
L’environnement digital incite à intensifier et à individualiser la communication au risque de
susciter des résistances et un sentiment d’intrusion de la vie privée.
Il peut réduire la qualité affective de la relation en encourageant l’usage d’interfaces
automatisées et perçues comme déshumanisées.
Il donne un nouveau pouvoir de choix au consommateur.
Il suscite de nouveaux critères de segmentation : celui du degré de participation et
d’engagement.
Il génère un filtrage de la communication, réduisant l’accès au client.
Il génère une surcharge informationnelle.
De manière synthétique, l’environnement digital affecte la gestion de la relation de deux
manières. Elle en systématise les principes : plus que jamais il est nécessaire et possible de
renforcer la relation en lui donnant une matière et un contenu, plus que jamais il est nécessaire
et possible d’individualiser cette relation, plus que jamais il est nécessaire et possible
d’accroître le rendement des politiques d’acquisition. Mais en même temps, ce nouvel
environnement en fragilise les conditions de réalisation. La relation se fragmente,
l’individualisation sépare, et l’acquisition est de plus en plus difficile. Pour faire face à ces
paradoxes, la doctrine de la gestion de la relation client nécessite par conséquent un certain
nombre d’inflexions et des réorientations dans sa mise en œuvre.
La base de données clients reste toujours la colonne vertébrale de la stratégie et le système
CRM est toujours aussi nécessaire, mais il doit être élargi en véritable système de Customer
Community Management. Des systèmes ouverts – à d’autres systèmes d’information, y
compris les systèmes d’information des clients – sont nécessaires. L’unité de l’individu a peut-
être perdu de sa pertinence, et c’est sans doute celle de microréseau qui doit être prise en
compte : celui du client et de son entourage.
La cohérence des programmes relationnels est un élément clé, mais plus importante encore est
la capacité de construire des structures relationnelles solides, durables, qui prennent la forme
d’espaces clients. Le design des interfaces joue dans ce domaine un rôle fondamental : utilité,
facilité d’utilisation, jouabilité, sensorialité, contrôlabilité, présence sociale en sont les traits
principaux. L’enjeu est la confiance dans les interfaces en plus de la confiance dans la marque.
Structurer les clientèles en une véritable société, bien au-delà de l’illusion participative.
Certains clients sont des aficionados, d’autres des visiteurs occasionnels mais reconnaissants,
d’autres militent, d’autres critiquent, certains recommandent, certains sont proches, d’autres
sont loin, certains veulent se rapprocher, d’autres juste garder un contact. Ils peuvent vouloir se
retrouver, échanger, et réclamer. Si l’idée de communauté de marque reconnaît qu’une fraction
des consommateurs peut renforcer son adhésion à la marque en partageant avec les autres
amateurs son amour de la marque, l’enjeu va désormais au-delà, il est d’organiser les
clientèles, de les structurer, de les hiérarchiser, d’animer les interactions entre les différentes
populations et les parties prenantes.
Dans ce flux abondant de l’information produite par les médias électroniques, la marque doit
assurer une présence continue par son contenu. Vidéos, slides, white papers, articles
scientifiques techniques, animations, blogs, images, musiques. La production de contenus
associés à la marque est nécessaire pour nourrir la relation.
Donner au client les moyens de contrôle de sa propre expérience de consommation est un enjeu
essentiel pour ne pas perdre le contrôle du consommateur.
L’environnement digital fait évoluer la relation client dans une direction finalement assez
lisible. Le contrôle des canaux one to one, même pleinement interactifs, n’est plus suffisant.
C’est l’environnement social lui-même qui doit être pris en charge : créer des espaces publics
où les clients se retrouvent, échangent, s’organisent, prennent la parole, en créer d’autres qui
servent de points de référence, catalogues, encyclopédies, vitrines officielles, et tolérer les
groupes qui se constituent en marge de l’édifice : associations, hackers et autres activistes.
Organiser les communautés est le nouveau souci du CRM. La question du respect (de la vie
privée, des opinions, du niveau de sollicitation souhaité) est plus que jamais fondamentale
pour maintenir le niveau de confiance à travers la multiplicité des canaux et le tissu social. La
continuité, la richesse, l’instantanéité du contenu et des transactions en forment une troisième
nécessité. Structurer la communauté, respecter l’intimité, enrichir la conversation et donner le
contrôle sont désormais les impératifs d’une politique de gestion de la clientèle actualisée.
Chapitre
5 Achat et Internet

Thomas STENGER,
Maître de conférences, IAE de Poitiers, laboratoire CEREGE
et chercheur associé à l’Institut des sciences de la communication du CNRS

Aurélia MICHAUD-TRÉVINAL
Maître de conférences, IUT Techniques de commercialisation,
Université de La Rochelle, laboratoire CEREGE

Objectifs

■ Découvrir et analyser les processus de recherche d’information des consommateurs et les nouveaux
parcours clients.
■ Connaître et analyser les comportements des consommateurs sur les sites marchands.
■ Analyser et concevoir les outils de recherche et d’aide à la décision d’achat en ligne.
■ Étudier le rôle des avis de consommateurs et recommandations en ligne.
■ Analyser et concevoir les stratégies de prescription en ligne sur les sites marchands.

Sommaire

Section 1 Recherche d’information et parcours clients : online et offline


Section 2 Le comportement des consommateurs sur les sites marchands
Section 3 Les outils d’aide à la décision d’achat
Section 4 Prescripteurs, prescriptions et recommandations en ligne
Internet est au cœur des pratiques de consommation des Français. Dès l’origine du e-commerce les
spécialistes se sont interrogés sur la façon dont les processus d’achat traditionnels étaient modifiés par
Internet. Le comportement du consommateur sur un site marchand est-il radicalement différent ? Les
connaissances accumulées jusqu’alors en marketing sont-elles caduques ? Peut-on transposer les modèles
traditionnels au comportement des consommateurs sur le Web ?
Aujourd’hui, nous savons qu’une meilleure connaissance des comportements d’achat en ligne est
indispensable en e-marketing mais aussi, et surtout, pour mieux comprendre l’achat et la consommation en
général. Elle s’insère dans l’étude globale de la consommation, de la gestion de la relation client et du
marketing car les frontières entre online et offline sont poreuses : 92 % des internautes préparent leurs
achats sur Internet et 77 % pratiquent le ROPO – research online purchase offline – (Fevad-
Mediametire/netratings, 2013). Les comportements à l’intérieur des points de vente sont eux aussi
modifiés : près de 4 mobinautes sur 10 surfent depuis leur mobile en magasin, pour comparer les prix,
consulter les avis, ou montrer un produit aux vendeurs (idem).
Ainsi, l’étude des consommateurs sur Internet dépasse-t-elle très largement le cadre de l’e-commerce.
C’est pour cette raison que ce chapitre se concentre sur le rôle d’Internet dans les achats, plutôt que de se
limiter à l’achat sur Internet.
Ce chapitre est structuré en quatre sections. Tout d’abord, les parcours des clients entre les différents
canaux et les spécificités de la recherche d’information sur Internet sont examinés. Ensuite, les
comportements des consommateurs sur les sites marchands sont abordés de façon globale. Puis, une
analyse détaillée des outils de recherche et d’aide à la décision d’achat sur les sites marchands est
proposée. Enfin, la quatrième et dernière section est consacrée aux recommandations et prescriptions en
ligne. Qu’il s’agisse de l’avis des internautes, de critiques officiels ou de marchands cherchant à jouer le
rôle de conseil-expert, leur analyse en termes d’influence sur les comportements d’achat et de rapports de
prescription assure une meilleure compréhension des spécificités des relations entre achat et Internet.

Section 1

RECHERCHE D’INFORMATION ET PARCOURS CLIENTS : ONLINE ET


OFFLINE

1 La recherche d’information du consommateur à l’heure d’Internet


La recherche et le traitement des informations permettent notamment aux consommateurs de réduire les
incertitudes, les doutes associés au processus de décision et d’évaluer les opportunités liées à l’achat de
biens et de services (cf. par exemple le chapitre 6 de Darpy et Volle, 2007). Il s’agit aussi pour les
consommateurs de découvrir les offres, toujours plus nombreuses, proposées par les marques.
Selon leur expérience, la maturité de leur projet d’achat et les buts éventuellement fixés préalablement,
les consommateurs perçoivent, accumulent et utilisent l’information de différentes façons. Les sources
d’information peuvent être commerciales ou personnelles (liées à l’expérience du consommateur).
L’information peut être collectée d’une façon passive (publicité, rumeur, etc.) ou active (démarche
volontaire à travers les journaux, blogs, sites Web marchands, etc.). Selon l’étude Ifop/Wincor (2014),
les proches (parents ou amis) sont le meilleur vecteur d’influence pour déclencher un achat (31 % des
répondants), tandis qu’Internet est une source d’information pré-achat décisive (46 % consultent les avis
en ligne). La recherche passive est bien sûr difficile à mesurer. La recherche active d’information
recouvre deux dimensions : la recherche d’information pré-achat (ou ponctuelle) et la recherche
d’information permanente, continue, menée indépendamment d’une volonté précise d’achat. Internet
favorise ces deux types de recherches qui sont largement encouragées par les possibilités de contrôle
offertes aux internautes. Ils peuvent accéder à volonté à plus d’informations, sur le site marchand lui-
même ou sur d’autres sites consultés simultanément (grâce aux multiples onglets ouverts). Cette facilité
tranche radicalement avec la situation d’achat en supermarché, ou lorsque le consommateur est face à un
vendeur en magasin.
En effet, Internet modifie les rapports aux espaces et au temps. La séparation des espaces
marchands/non marchands est beaucoup plus perméable et, lors de sa navigation sur Internet, il est très
facile d’aller et venir entre ces espaces en quelques clics. C’est à la fois une bonne et une mauvaise
nouvelle pour les e-commerçants. L’accès au « magasin » est extrêmement simplifié et rapide mais le
temps de visite peut être réduit à quelques secondes. Par ailleurs, la comparaison des offres en ligne est
rendue beaucoup plus facile.
La recherche d’information peut donc avoir lieu sur les sites marchands, les comparateurs, les forums,
les communautés virtuelles, les plateformes de blogs ou de chat… sur l’ensemble du Web. Et le
consommateur peut finaliser en magasin une expérience initiée au sein du site Web marchand d’une
enseigne (Belvaux 2004) ou bien acheter sur le site marchand après avoir initié son processus de
décision en magasin ou dans un centre commercial. Commerce traditionnel et commerce en ligne peuvent
donc constituer les supports successifs d’un même échange marchand. Ainsi, si les acteurs de l’e-
commerce ont des formes variées (pure players, click and mortar, etc., cf. chapitre 1), les achats sont
aussi polymorphes. Filser (2001) propose un modèle d’interactions online et offline, qui met en évidence
quatre relations fondamentales possibles entre phase de recherche d’information et phase de
commande/paiement, également appelées parcours client.
Source : Filser, 2001.
Figure 5.1 Recherche d’information et comportement d’achat sur Internet et dans le commerce
traditionnel
La relation (1) illustre la stratégie des distributeurs « all click » : le prospect recherche
l’information sur Internet et y réalise sa transaction. C’est ce processus qui est généralement qualifié
d’achat en ligne.
La relation (2) décrit le processus traditionnel d’achat en magasin, largement abordé par la
littérature en comportement du consommateur.
La relation (3) correspond au cas où l’internaute recueille de l’information sur Internet et réalise
ensuite la commande en magasin. C’est le premier mécanisme justifiant la stratégie de distribution
« click and mortar ». Internet constitue la première source d’informations préalable à l’achat.
La relation (4) illustre enfin la seconde option du « click and mortar ». Le prospect recherche
l’information en magasin et réalise ensuite la transaction sur Internet.
Ce dernier comportement est particulièrement courant lorsque le client a besoin de recourir à des
attributs sensoriels pour évaluer le produit (Degeratu et al., 2000). Selon l’étude Ifop/Wincor (2014), la
possibilité d’essayer un produit (56 %) et de procéder facilement à son échange (52 %) correspondent
aux deux atouts majeurs du magasin. Le consommateur peut ensuite trouver sur le Net une plus grande
variété de références (par exemple tailles et coloris dans le cas d’un vêtement) après avoir éliminé sa
principale source d’incertitude grâce à la manipulation physique du produit. D’ailleurs les attributs
informationnels (caractéristiques factuelles du produit) constitueraient le principal support de l’achat en
ligne alors que les attributs sensoriels (perception physique et visuelle du produit) seraient marginaux
(idem). Ainsi, la majorité des internautes considèrent que les prix sont plus bas sur Internet. Cette
perception de prix plus bas est un des moteurs de la recherche d’information et de l’achat en ligne.
Même si les progrès importants effectués en matière d’accès à Internet (haut débit) et de développement
de sites Web (design, ergonomie, animation multimédia) permettent aujourd’hui de revaloriser les
attributs sensoriels et l’expérience de navigation en ligne, ne pas essayer ou voir le produit pose toujours
problème. Ainsi, selon l’étude Ifop/Wincor (2014), pour les Français, les comparateurs de prix (46 %) et
la diversité des produits (42 %) sont les deux principaux atouts d’Internet qu’ils désirent retrouver en
magasin. De plus, l’indisponibilité d’un produit provoque davantage qu’auparavant un report sur le Web
(32 %) et son offre pléthorique, qu’un achat dans un autre magasin (29 % des clients le chercheront dans
un autre magasin, contre 39 % en 2012, lors de la précédente étude).
Les travaux récents de Heitz-Spahn et Filser (2014) ont ainsi décrit que la relation 2 ne représente plus
que 17 % des relations observées, tandis que les trajectoires all click représentent seulement 10 %. Les
trajectoires hybrides, les relations 3 et 4 (click & mortar et mortar & click) sont donc les trajectoires les
plus typiques… et pourtant les moins étudiées par la recherche académique, probablement à cause de sa
complexité méthodologique.
En 2000, Ward et Morganosky réfutaient déjà l’idée de cannibalisation des magasins traditionnels par
l’e-commerce expliquant qu’au contraire, le marketing en ligne peut générer une augmentation des ventes
offline. Les chiffres les plus récents leur donnent raison. Chaque année, les études réalisées en France
pour la Fevad réaffirment en effet l’augmentation de la vente multi-canal et de l’achat cross-media
(relations 3 et 4 de la figure 5.1). Les chiffres publiés en juin 2013 révèlent que 77 % des internautes ont
préparé leur achat sur Internet avant de le finaliser en magasin % %. De façon générale, ce sont plus de
9 internautes sur 10 qui ont consulté Internet avant de réaliser leurs achats, qu’ils soient online ou offline
– soit +1 point par rapport à 2012 et +13 points par rapport à 2009 (Baromètre Fevad 2013).
Les conséquences de l’accès à cette masse d’informations en ligne sont difficiles à évaluer. Les
résultats de recherche sont parfois contradictoires. Alors que certains travaux indiquent qu’Internet
accentuerait la sensibilité au prix (Diehl et al., 2003, Gupta et al., 2004), d’autres observent que la
modification des données (accès, qualité, quantité) et la possibilité de comparer les produits et les prix
conduisent à une baisse de la sensibilité au prix chez les internautes si la possibilité de comparaison est
accompagnée de l’utilisation de données qualitatives sur les produits (Lynch et Ariely 2000). Dans ce
dernier cas, les individus sont plus satisfaits de leur expérience d’achat sur Internet et mémorisent mieux
le site marchand. Les e-commerçants ont donc intérêt à « jouer le jeu » de la comparaison et de l’aide à la
décision d’achat en ligne en proposant des outils de recherche adaptés.
Quand on compare les perceptions des acheteurs en ligne par rapport à ceux qui préfèrent l’achat
offline, les premiers perçoivent un moindre risque que dans l’achat offline ; ils ressentent également
moins les efforts liés à la recherche d’information et l’évaluation des produits (Gupta et al., 2004).
Internet invite les consommateurs à rechercher plus d’informations sur les produits et les marques
notamment parce que les coûts de recherche d’information sont réduits. Internet conduirait également les
consommateurs à davantage préparer leurs achats et comparer les offres. Le baromètre
Mediametrie/NetRatings (2013) indique que 77 % des internautes se déclarent influencés par les
commentaires ou les notes des consommateurs avant d’acheter un produit. Plus que les forums ou blogs,
ce sont les sites marchands qui sont plus influents pour consulter les fiches produits, pour lire les avis des
internautes, les portails / moteurs de recherche et les comparateurs de prix.

2 Parcours et expérience cross-canal


L’essor du haut débit, de l’Internet mobile et du Web 2.0, permet aux entreprises d’offrir à leurs clients
des espaces de fréquentation physiques et en ligne, sur une grande variété de supports (tablettes, mobiles,
ordinateurs…). Ainsi, on assiste à une imbrication des canaux de distribution (Badot et Navarre, 2002 ;
Belvaux, 2006 ; Collin-Lachaud et Vanheems, 2011) qui se traduisent par des parcours clients multiples.
« Grâce à une plus grande connaissance des avantages comparés d’Internet et des points de vente, les
consommateurs cheminent d’un canal à l’autre, même si pour 62 % des Français, le magasin reste le
premier lieu d’achat » (source : étude Ifop pour Wincor Nixdorf, 2014). Ainsi, le consommateur imbrique
l’ensemble des expériences vécues offline et online en une « meta shopping experience » (Antéblian et
al. 2013). Celle-ci oblige les distributeurs à comprendre les attentes des consommateurs à l’égard de
chaque canal et à intégrer l’ensemble dans une offre globale. L’expérience vécue n’est plus alors
strictement linéaire car le consommateur va piloter une expérience omnicanal qui fait sens et qui
correspond aux attentes qu’il a de chacun des canaux mobilisés (Badot et Lemoine, 2013) ; c’est le
paradigme ubiquitaire de la shopping experience. Au-delà de l’expérience cross-canal se profile donc
une expérience d’achat ubiquitaire qui consiste à pouvoir acquérir les biens ou services ATAWAD (Any
Time, Any Where, Any Device, c’est-à-dire n’importe où, n’importe quand et par n’importe quelle
interface physique ou électronique – idem).
En considérant non plus l’achat, mais plus globalement « l’expérience de shopping cross canal », Badot
et Lemoine (2013) proposent de distinguer :
L’expérience « brick & press » (magasins + smartphones) : les acheteurs utilisent leur smartphone
au sein des points de vente pour rechercher des informations sur le produit qu’ils ont devant les yeux
et comparer les prix sur des sites spécialisés.
L’expérience « click & collect » (e-commerce + micro-logistique urbaine) : les consommateurs
achètent un produit via Internet et le récupèrent dans un relais logistique qu’ils ont choisi (Durand et
Senkel, 2011).
L’expérience « Web to store » (e-commerce + magasin-relais) : le client achète sur Internet que ce
soit via les sites Internet ou via des applications permettant d’aspirer des produits sur des sites, de
les signaler ou géolocaliser, puis récupère sa commande dans un magasin de la même enseigne que
le site Web.
L’expérience « store to Web » (magasin ou showroom + e-commerce) : les consommateurs
regardent et s’informent sur les produits dans le magasin puis les achètent sur Internet.
Quels que soient les parcours et les expériences (Web to store, store to Web etc.), les consommateurs
jonglent désormais avec une grande variété d’outils et de dispositifs, connectés ou non. La compréhension
de ces pratiques de consommation cross-canal est encore balbutiantes et elles apparaissent
particulièrement intéressantes pour les chercheurs comme pour les praticiens du e-marketing et e-
commerce.

3 L’interactivité au cœur de l’achat en ligne


De façon plus générale, avec la diffusion de supports numériques et le volume d’informations
disponibles, les consommateurs ont désormais plus de choix quant à la façon d’interagir avec les
entreprises et entre eux. Pour la plupart des experts, ce qui caractérise l’achat en ligne et qui détermine la
recherche d’information dans ce contexte, c’est l’existence d’outils interactifs d’aide à la décision des
consommateurs. Haübl et Trifts expliquent dès le premier numéro spécial de Marketing Science : « la
disponibilité d’outils […] d’aide interactive à la décision pour les consommateurs peut conduire à la
transformation de la façon dont les consommateurs recherchent l’information sur les produits et prennent
des décisions d’achat » (2000, p. 4). Steckel et al. (2005) notent surtout que l’interactivité est au cœur de
nouveaux comportements d’achat mais à condition qu’elle apporte réellement une aide au consommateur.
Le volume d’information, mais aussi la personnalisation et l’implication du client dans ces processus
interactifs constituent les enjeux clés.
L’interactivité a fait l’objet de nombreux travaux. Dandouau (2001) s’intéresse justement à
« l’adaptation de l’information produite par l’interactivité » ; il s’agit d’une adaptation « au cheminement
individuel de l’individu vers l’atteinte de son but » qui dépend du contrôle de l’information par
l’utilisateur. Dandouau s’appuie sur une conception particulière de l’interactivité où celle-ci répond à une
demande très précise (le problème et les objectifs sont préalablement définis).
La revue de la littérature réalisée par Stenger (2006) dresse un état de l’art – dont nous reprenons ici
les conclusions – qui met d’abord en évidence la grande diversité des définitions de l’interactivité en
marketing. Leurs auteurs ne semblent finalement s’accorder que sur trois points : la difficulté à définir
l’interactivité, systématiquement présentée comme un concept complexe, la grande diversité des
définitions, et l’opportunité que représente l’interactivité pour le marketing. Cette opportunité renvoie à
des projets qui s’inscrivent dans deux grands axes, que nous pourrions qualifier d’aide aux marketers et
d’aide aux consommateurs, puisqu’ils placent respectivement l’interactivité entre les mains des uns et des
autres.
En synthèse, Stenger (2006, 2007) distingue cinq formes fondamentales d’interactivité (cf.
tableau 5.1) : technicienne, informationnelle, descriptive, constructive et prescriptive, s’inscrivant dans
une problématique soit communicationnelle (en grande majorité) soit décisionnelle (dans un projet d’aide
à la décision d’achat). L’interactivité constructive et l’interactivité prescriptive sont les formes jugées les
plus riches. Elles sont réellement interactives car elles ne se limitent pas à décrire la fonction d’utilité de
l’acheteur et à répondre à ses préférences. Elles permettent idéalement de construire son ensemble de
références et sa structure de préférences (interactivité constructive) et même de prescrire, d’intervenir sur
tout ou partie du processus décisionnel (interactivité prescriptive).

Tableau 5.1 Les formes fondamentales d’interactivité

Enfin, on retiendra que l’interactivité peut avoir lieu en ligne ou en face-à-face. Elle ne peut être
réduite à un échange d’information ou à une dimension de contrôle sur cet échange. Elle n’est pas non
plus une propriété technique d’un outil ou d’un format. Dans le cas de l’achat en ligne, l’interactivité
correspond à un processus de co-construction entre l’acheteur et un système interactif d’aide à la décision
qui peut avoir pour objet toute facette de la décision d’achat – par exemple l’ensemble de références, la
structure des préférences, la structuration du problème décisionnel, la sélection d’alternatives, de critères
décisionnels, etc. (Stenger, 2006).
Section 2

LE COMPORTEMENT DES CONSOMMATEURS SUR LES SITES


MARCHANDS

Les recherches ont évolué, des premières études qui se focalisaient soit sur la navigation soit sur
l’achat en ligne, à de nouvelles approches des consommateurs en e-marketing prenant plus largement en
compte leurs expériences vécues. Les perceptions des internautes face aux sites marchands sont
également analysées, essentiellement en termes de qualité, de confiance et de satisfaction.

1 Des modèles de navigation sur le Web à l’expérience de shopping en


ligne
1.1 Des modèles de navigation et d’achat en ligne…
Les modèles proposés pour appréhender les comportements des consommateurs sur Internet insistent
sur la dichotomie traditionnelle entre les comportements utilitaires, orientés vers un résultat, un but précis
et les comportements expérientiels, caractérisés par la recherche de plaisir, l’expérience de navigation et
des motivations hédoniques. La recherche d’information pré-achat est donnée comme exemple de
comportement orienté résultat. Mais il ne faudrait pas réduire la problématique de l’achat en ligne à un
comportement nécessairement finalisé. Il est aussi essentiel de satisfaire aux comportements expérientiels
qui nourrissent le bouche-à-oreille. Les premières expériences sont d’abord non-orientées,
expérientielles, puis, au fil du temps, les usages deviennent plus utilitaires, instrumentaux. Un degré de
maîtrise technique plus élevé est alors requis et la compétence de l’internaute devient une dimension clé
(Hoffman et Novak 1996).
Hoffman et Novak (1996, 2009), Novak, Hoffman et Yung (2000) et Novak, Hoffman et Duhacheck
(2003) ont proposé le modèle du flow souvent traduit par le terme immersion pour appréhender le
comportement de navigation. Il a fait l’objet de nombreux travaux en e-marketing. Si Hoffman et Novak
constatent encore en 2009 que le concept reste très ambigu et difficile à mesurer et modéliser, le principe
n’en demeure pas moins intéressant.
Ils définissent « l’expérience de flow dans un environnement médiatisé par ordinateur multimédia
comme un état se produisant lors de la navigation sur un réseau qui est : caractérisée par une séquence
ininterrompue de réponses, facilitée par l’interactivité homme – machine, intrinsèquement agréable,
accompagnée par une perte de conscience de soi, et auto-renforcée (1996, p. 57). Les consommateurs
sont si investis dans l’acte de navigation, que « plus rien ne semble compter » ; « leurs pensées et
perceptions qui ne sont pas concernées par la navigation sont évacuées, et le consommateur se concentre
entièrement à l’interaction » (2000, p. 24). La conscience de soi disparaît, la perception du temps est
altérée et la sensation résultant du flow sur le Web est extrêmement gratifiante (idem). Le modèle du flow
est à ce titre plus un modèle de navigation sur Internet qu’un modèle de comportement d’achat en ligne,
bien que l’achat soit une des conséquences éventuelles. Ajoutons que l’état de flow peut aussi bien
provenir d’activités expérientielles que finalisées (Novak et al., 2003) telles que la recherche
d’information concernant des produits (Mathwick et Rigdon, 2004).
Les spécialistes du marketing s’interrogent également sur la capacité des modèles traditionnels de
comportement du consommateur à appréhender le comportement du consommateur sur Internet. À partir
d’une revue de la littérature, Helme-Guizon (2001) a proposé un modèle fondé sur l’interactivité qui
intègre les différentes démarches de recherche et de traitement de l’information exposés dans les modèles
traditionnels. La typologie des processus d’achat en ligne proposée par Isaac et Volle (2008, 2014)
associe quant à elle les problématiques du choix du point de vente et du choix du produit, ce qui offre une
vision plus riche des comportements d’achat en ligne. Elle reprend la dichotomie utilitaire versus
expérientiel (ou utilité versus plaisir) qui renvoie aux motivations sous-jacentes des comportements
d’achat et de navigation. Quatre types de processus de choix sont ainsi distingués : la visite expérientielle
et la visite expéditive, si la clé d’entrée est le site marchand lui-même ; la visite exploratoire et la visite
évaluative, si c’est avant tout la recherche d’un produit qui motive l’internaute. La visite expérientielle
renvoie au shopping en ligne et à des motivations hédonistes ; la visite est dite expéditive lorsque
l’acheteur sait ce qu’il veut (car il a déjà préparé son achat, parce que c’est un ré-achat, etc.). Avec la
visite exploratoire, l’internaute a une catégorie de produits précise en tête mais surfe sur différents sites
qu’il connaît mal. Avec la visite évaluative, il s’engage dans un processus d’achat élaboré car il connaît
bien la catégorie de produits et les sites à consulter.

1.2 … à un modèle d’expérience de shopping en ligne


L’expérience d’achat dans le commerce de détail est un thème de recherche largement étudié en
marketing depuis l’article fondateur de Holbrook (1982). D’abord centrée sur l’étude des antécédents et
des conséquences de l’interaction avec le point de vente, la littérature sur l’expérience d’achat a évolué
vers une meilleure connaissance du phénomène et des préconisations sur les stratégies à mener par les
managers (Roedherer, 2012a ; 2012b – voir également le numéro spécial de la revue Recherche et
Applications en Marketing, 2013).
Une revue de la littérature effectuée sur l’expérience de shopping en ligne met en évidence une grande
diversité dans la conceptualisation de l’expérience, qu’il s’agisse de l’expérience de consommation,
d’achats ou d’expérience en ligne du consommateur (Michaud-Trévinal et Stenger, 2014). Le cadre
conceptuel de l’expérience de shopping en ligne qui en est issu retient quatre grandes dimensions :
Tout d’abord, l’expérience en ligne (ESL) est constituée d’une dimension physique. Cette dimension
concerne les aspects de l’expérience en ligne liés à la durée de l’expérience d’achat et aux aspects
temporels, à la dimension sensorielle de l’expérience vécue sur le site commercial, mais elle
concerne également le rapport au lieu, à l’environnement réel où le consommateur se trouve.
Deuxièmement, les valeurs et les significations symboliques font aussi partie de l’ESL. Elles
composent une dimension idéologique de l’ESL qui a trait à la capacité de l’environnement du
shopping en ligne à promouvoir des valeurs et construire un monde imaginaire.
Troisièmement, l’ESL comprend une dimension pragmatique, composée d’une part des actes et des
gestes liés à l’utilisation d’outils en ligne et de toutes les pratiques d’achat qui structurent les
routines de shopping et d’autre part, de l’appropriation de l’environnement en ligne grâce à des
routines.
Enfin, la dimension sociale, qui est si importante dans l’expérience de shopping traditionnel, est
considérée comme la quatrième dimension de l’ESL. Elle concerne les aspects de socialisation en
ligne entrepris par le consommateur sur les médias socionumériques (sur Facebook en particulier)
durant l’expérience de shopping en ligne. Les auteurs suggèrent ici qu’il faut dépasser les visions
parcellaires des modèles focalisés sur un seul type de dispositif (le site marchand, le forum, le blog,
le réseau socionumérique etc.) pour appréhender la complexité de l’expérience de shopping en
ligne.

2 Les consommateurs face aux sites marchands


2.1 La qualité perçue d’un site marchand
La qualité perçue d’un site marchand, parfois qualifiée de qualité de service électronique, renvoie aussi
bien à des dimensions utilitaires (le site Web facilite-t-il la navigation, le processus de décision d’achat
en ligne, la prise de commande, la livraison ?) qu’hédoniques (la visite est-elle agréable ? le site est-il
beau, divertissant ?). Les facteurs de la qualité de service des sites marchands ne se limitent pas à
l’interface Web et à l’expérience en ligne, mais incluent l’expérience d’achat dans sa globalité. Il faut
aussi inclure les pratiques de l’entreprise en matière de respect de la vie privée (privacy). En synthèse,
la littérature retient : la facilité d’utilisation, le design et l’esthétique, la qualité et la quantité
d’informations proposées en ligne, la fiabilité et le respect des engagements par le site, la sécurité et le
respect de la vie privée, la richesse et la variété de l’offre proposée, l’interactivité (Bresolles 2006).
Des échelles de mesure de la qualité de service électronique ont été proposées, essentiellement aux
États-Unis. L’échelle développée en France par Bressolles (2006) prend en compte des éléments
proposés dans d’autres contextes. Elle repose sur cinq dimensions : la facilité d’utilisation, la fiabilité du
vendeur, le design du site, la sécurité/confidentialité et la qualité de l’information.
La qualité perçue du site marchand est essentielle car elle est positivement reliée à l’attitude envers le
site, la satisfaction et la fidélité et a priori l’intention d’achat bien qu’il y ait moins de travaux l’attestant.
D’ailleurs, les facteurs de satisfaction vis-à-vis d’un site marchand sont très proches des dimensions
identifiées pour déterminer la qualité de service du site. On peut les reprendre et y ajouter la perception
du prix pour avoir une vision globale des dimensions clés de la satisfaction vis-à-vis d’un site marchand.
Un cercle vertueux est ainsi considéré puisque la satisfaction sur un site marchand impacte directement la
confiance et consécutivement la fidélité (Flavian et al., 2005). Si cela apparaît finalement très rationnel,
et si la fidélisation est bien l’enjeu central, notons qu’en pratique, il est très difficile de tester ce type de
modèle au-delà de la déclaration d’intention. Par ailleurs, la distinction entre fidélité et inertie reste
toujours problématique. Les « favoris » ou marque-pages des navigateurs sur Internet, mais aussi les
systèmes d’écriture intuitive, les caches ou les proxies constituent autant d’outils favorisant cette
« inertie-fidélité ». Cela rend l’expérience de la première visite et les premières secondes de celle-ci
d’autant plus importantes.
La Fédération de l’e-commerce et de la vente à distance (Fevad) annonce chaque année que les indices
de satisfaction pour l’e-commerce sont très supérieurs à ceux mesurés dans le commerce traditionnel. En
2013 par exemple, 97 % des internautes se déclarent satisfaits de leurs achats au cours des six derniers
mois, le taux étant supérieur à 95 % depuis des années. Enfin, en comparaison avec l’achat en magasin, la
fidélité à la marque lors de l’achat en ligne serait plus forte pour les marques leaders et plus faible pour
les marques à faible part de marché (Danaher et al., 2003). Pour les clients, le niveau de satisfaction pour
un service est identique, qu’il soit choisi en ligne ou offline ; par contre, la fidélité est plus forte si le
fournisseur de service est choisi en ligne (Shankar et al., 2003).

2.2 La confiance en ligne


Au-delà des aspects traditionnels du commerce (produit, service), ce sont les « bénéfices relationnels »
apportés par le commerçant (Volle, 2014) qui procurent l’expérience client et peuvent ainsi constituer un
critère important de choix des sites marchands.
Le commerce en ligne n’est pas virtuel. Commande, paiement, livraison… toutes ces phases sont bien
réelles ainsi que les conséquences associées, pour les vendeurs comme pour les acheteurs. Il est donc
primordial d’établir les conditions de confiance vis-à-vis de l’achat en ligne.
Pourtant, la confiance en ligne est parfois jugée comme un thème dont l’importance est surestimée. Un
« paradoxe de la confiance en ligne » est souvent évoqué pour décrire le fait que les internautes achètent
massivement en ligne, malgré leur niveau de confiance. Les dernières études réalisées par l’observatoire
de la confiance (TNS Sofres/La Poste, 2014) sont toutefois encourageantes : 79 % des Français déclarent
avoir confiance dans le fait d’acheter des produits ou services en ligne à des enseignes, des marques, et
68 % ont confiance dans le paiement en ligne. Mais à peine un quart (26 %) a confiance dans la
protection de leurs données personnelles sur Internet. C’est aujourd’hui la principale préoccupation des
internautes qui cherchent alors à se protéger, notamment en fournissant des informations volontairement
erronées lorsqu’ils remplissent des formulaires en ligne.
Les questions de privacy, qui renvoient à la vie privée et aux données personnelles, et d’identités
numériques apparaissent en effet comme centrales (cf. chapitre 1). Plus précisément, la gestion des traces
numériques et les articulations online et offline de l’identité des individus (de ses multiples facettes et
supports identitaires) sont au cœur des problématiques de recherche actuelles dans de nombreux
domaines (marketing, management des systèmes d’information, sociologie, informatique, droit, etc.)[1].
Enfin, à la question : « qu’est-ce qui fait que vous avez confiance dans les sites marchands ou services
en ligne que vous utilisez ? », les internautes répondent, par ordre d’importance : le paiement sécurisé, la
notoriété du site et les (bonnes) expériences avec le site, puis, dans une moindre mesure, l’origine
française du site, la présence de garanties et labels de confiance, ainsi que les recommandations d’autres
internautes (idem).
D’un point de vue conceptuel, la confiance vis-à-vis d’un site marchand comprend les perceptions des
consommateurs quant à la façon dont le site est susceptible de répondre à ses attentes, la crédibilité de
l’information disponible sur le site, et le niveau de confiance imposé par le site (Bart et al., 2005). Pour
construire la confiance vis-à-vis d’un site marchand, quatre types de facteurs apparaissent déterminants,
résument Chouk et Perrien (2004) : les facteurs liés au site (offre, design, etc. – on retrouve l’essentiel
des dimensions de la satisfaction évoquées plus haut), liés au marchand (sa réputation, son existence
« physique »), les facteurs liés aux tiers (qu’ils s’agissent de témoignages de clients, de sites partenaires
réputés, de labels) et les facteurs liés au client lui-même (son rapport au risque, sa familiarité avec le site
et l’achat en ligne, etc.). Concernant les labels (par exemple l@belsite, TRUSTe, Fia-Net, BBB online ou
WebTrust), encore faut-il que l’organisme certificateur soit connu des internautes, ce qui est rarement le
cas. Mais, de façon générale, la présence d’un label et de témoignages clients est source de confiance
vis-à-vis du site marchand. Il faut aussi rappeler le rôle central de la marque dans l’attribution de la
confiance en ligne vis-à-vis des produits (Bart et al., 2005). Des recherches exploratoires récentes ont
d’ailleurs montré que la notoriété de la marque serait un facteur particulièrement important pour les
jeunes de 18-20 ans (Michaud-Trévinal et Stenger, 2014b).
Pour mesurer la confiance à l’égard d’un site marchand, ce sont avant tout l’intégrité et la crédibilité du
site qu’il faut apprécier (Chouk et Perrien, 2005). Des recherches américaines associent à l’intégrité la
compétence et la bienveillance (perçues). Il n’existe pas en tout cas d’échelle de mesure universelle ; la
confiance varie fortement selon les individus et les produits, ces variations constituant un champ de
recherche (Urban et al., 2009). De plus, si la plupart des travaux en e-marketing sont focalisés sur la
confiance en ligne, la construction et les conditions de la confiance dans un environnement multicanal
constituent un axe d’étude central pour l’e-commerce. La confiance est un processus (d’ailleurs mal
connu) qui se construit notamment au cours des interactions avec le vendeur ; elle peut se gagner
progressivement selon la perception que les internautes ont de la bienveillance du vendeur, de sa
compétence, de son intégrité et de sa prévisibilité (Papadopoulou et al., 2003). Enfin, la confiance étant
fragile par essence, des recherches récentes recommandent d’analyser conjointement la confiance et son
corolaire : la défiance, à la fois dans les contextes online et offline (Darke et al., 2014).

Section 3 LES OUTILS D’AIDE À LA DÉCISION D’ACHAT

Les études consacrées à l’achat sur Internet soulignent toutes les fortes potentialités d’interactivité et
les possibilités d’accès et de contrôle de l’information par le consommateur grâce à des outils d’aide à la
décision d’achat en ligne. Les vertus de ces outils, souvent qualifiés d’interactifs, renvoient
essentiellement à des logiques décisionnelles de tri, de classement, de comparaison et de
recommandation. Les lecteurs intéressés par les fondements et méthodes de l’aide à la décision sont
invités à consulter les travaux de Roy (1985), Roy et Bouyssou (1993), Bouyssou (2006).

1 Les outils de tri


Il s’agit d’affecter les actions à des catégories déterminées, c’est-à-dire de trier une sélection d’offres
ou d’informations selon un ou plusieurs critères. La plupart des outils de recherche s’inscrivent dans cette
logique. Techniquement, le tri s’effectue à l’aide de liens hypertextes, d’onglets, de menus déroulants et
de moteurs de recherche. Il existe deux modes de recherche fondamentaux : avec un moteur de recherche
simple (libre), par mot-clé et avec un moteur de recherche avancée (multicritère). Les critères de tri
renvoient le plus souvent aux catégories de produits ou aux marques.
Les critères de tri, d’apparence simple, peuvent pourtant poser problème aux internautes. Le champ
lexical associé aux cultures de consommation est parfois très spécifique et peut se révéler complexe pour
les visiteurs d’un site spécialisé. Par exemple, Madeinsport.fr proposait, il y a encore peu de temps, les
valeurs « sportswear », « vintage », « hip-hop » dans son rayon « tendances ». La découverte de critères
et de valeurs inconnus auparavant peut aussi élargir le champ de connaissance pour les visiteurs du site.
La compétence requise chez le consommateur pour bénéficier de l’aide (potentielle) de cet outil reste
toutefois élevée.
Le « tri par marque » correspond à un cas de figure très fréquent sur les sites marchands. Il faut
toutefois avoir conscience qu’il ne constitue une aide potentielle que pour le visiteur familier de ces
marques – i. e. disposant d’une certaine expertise dans la catégorie de produits. Par exemple, Golfplus.fr
spécialisé dans le golf, propose de trier ses produits par marque (Callaway, Cleveland, Cobra, Mizuno,
Ping, Taymormade, Titleist, etc.). Sans une expertise minimale, il est impossible de bénéficier de l’aide
apportée par cet outil. Dans cet exemple, cela peut être cohérent si le site ne cible que des experts ou des
joueurs compétents en tant qu’acheteurs, mais sera plus délicat si le site est également destiné aux
novices. Notons que Golfplus.fr propose également la possibilité de tri par degré d’ouverture du club
(loft), par flexibilité du manche… Cela renforce la possibilité de cibler une clientèle experte (ou tout au
moins compétente) ainsi que son positionnement de spécialiste. En synthèse, les outils d’aide à la
décision d’achat en ligne constituent des éléments clés du marketing stratégique (segmentation, ciblage,
positionnement).
Les moteurs de recherche multicritères proposent plusieurs champs qui peuvent être libres ou composés
de menus déroulants ; ils recensent critères et valeurs disponibles afin de guider l’internaute dans sa
démarche. La conception de tels outils implique pour les responsables e-marketing une représentation très
fine de leurs clients potentiels, en termes de compétences et de comportement d’achat. Cela implique
aussi pour l’utilisateur d’avoir un processus décisionnel déjà bien structuré et de savoir précisément ce
qu’il recherche (cf. cas des cavistes en ligne dans le Focus 5.1).
La tolérance vis-à-vis des erreurs orthographiques est très variable selon les moteurs. C’est là encore
un choix qui ne se résume pas à un problème technique mais constitue bien un enjeu marketing. Si le site
souhaite rassembler une clientèle la plus large possible, un moteur souple et tolérant est recommandé. Un
moteur plus strict renverra davantage à l’image de spécialiste et à un positionnement haut de gamme.
La recherche multicritère nécessite une participation plus forte de l’internaute, que ce soit en termes
d’expertise dans la catégorie de produit, d’effort cognitif ou de compétence technique (vis-à-vis
d’Internet). Ceci peut gêner, voire décourager les internautes. Parfois, l’expertise requise est si élevée
qu’elle peut constituer une véritable barrière. Il doit y avoir une cohérence entre le niveau d’expertise
requis et le positionnement du site (cf. cas de l’immobilier dans le Focus 5.1).

Focus 5.1
Tri et recherche multicritère
La page d’accueil d’eBay.fr propose plusieurs outils de tri pour accéder aux produits mis en vente
avec un moteur de recherche libre et un menu déroulant par catégories, une arborescence composée
de liens hypertextes (toujours par catégorie de produits) et quelques photos de produits
correspondant aux « listes d’intérêts très recherchés » sur eBay. Le visiteur est invité à créer son
propre « fil shopping personnalisé » afin de bénéficier d’une personnalisation de la page d’accueil.
Leboncoin.fr a opté pour la simplicité et l’approche par la localisation géographique avec une
simple carte de France (et des liens vers les régions françaises). La page d’accueil d’eBay reprenait
également ce principe il y a quelques années avant d’être abandonné.
Le cas des cavistes en ligne est très représentatif des problématiques marketing associées à la
recherche multicritère. Certains sites proposent de trier les vins par couleur, par pays et/ou par
région, ce qui est simple et adapté au grand public, mais trop vague pour les connaisseurs.
ChateauOnline, par exemple, après avoir essayé différentes formules, ne propose plus qu’un moteur
de recherche libre. À l’inverse, le site Wineandco propose un moteur de recherche détaillée très
étoffé (jusqu’à 9 critères) qui distingue la région et l’appellation (la plupart des consommateurs font
l’amalgame) et offre la possibilité d’acheter en primeurs (le principe étant seulement connu des
spécialistes).
Le marché de l’immobilier a été reconfiguré par Internet. Les sites Web tels que Seloger.com,
Explorimmo.com ou Pap.fr offrent l’accès en ligne à des bases de données d’annonces à l’aide de
moteurs de recherche très détaillés. Le marché est tellement vaste que les moteurs de recherche
multicritères correspondent à de véritables questionnaires, très précis, qui reposent notamment sur
les critères suivants : localisation, budget, surface, type de bien (maison, appartement, villa,
bureau…), nombre de pièces, de chambres, critères supplémentaires (nouveautés…), critères
avancés (terrain, ascenseur, type de chauffage, de cuisine, piscine…), etc. Ils se révèlent plus ou
moins complexes à l’usage selon les compétences de l’acheteur et la maturité de son processus
décisionnel. Par ailleurs, un outil d’aide à la décision multicritère implique une pondération de ces
critères (impliquant ainsi une compétence et une plus forte charge cognitive) ce que les outils
proposés sur le Web font finalement rarement.
2 Les outils de rangement ou classement
Les internautes ont souvent recours à des outils offrant la possibilité de classer les offres, par exemple
du moins cher au plus cher, par meilleure vente ou par ordre alphabétique. L’outil intervient généralement
lorsque l’internaute consulte une sélection de produits, il s’agit donc d’une phase intermédiaire du
processus décisionnel : après la définition du problème et avant le choix. Un pallier est franchi en terme
d’aide à la décision par rapport aux outils précédents qui se « contentent » de répondre à la demande de
l’utilisateur sous l’angle de la recherche d’information. Ici, l’aide à la décision (AD) est plus avancée, le
système intervient davantage : il ordonne, classe les produits ou les informations.

REMARQ UE
Certains sites Web affichent la possibilité de « trier » alors qu’il s’agit de rangement. Le « tri par prix » par exemple proposé par de
nombreux sites pour classer les produits par prix croissant ou décroissant… n’est pas un tri, mais bien un classement (ou rangement). Le
terme « filtrer » est parfois employé par les sites marchands, toujours avec une logique de classement.
Allez sur les sites Web marchands de votre choix parmi les exemples cités dans ce chapitre : Amazon, Fnac, Monsieurgolf, Golfplus,
PriceMinister, Madeinsport, WineandCo, ChateauOnline, Zalando.fr… et identifiez les outils de tri et de rangement. Vous pouvez constater
plusieurs abus de langage du point de vue des problématiques de l’aide à la décision…

Si la plupart des critères de rangement reposent sur des dimensions objectives et incontestables (taille,
prix, couleur, âge, genre, etc.), le rangement peut être effectué sur la base d’une évaluation par le vendeur
lui-même (c’est le cas par exemple de Devismutuelle), par des internautes (sur Zalando.fr, Darty.fr,
Fnac.com, Laredoute.fr) ou par des tiers prescripteurs en position d’expert, de critique. L’aide à la
décision est donc double puisqu’au rangement est associée une appréciation de l’offre. La section 4
détaille cette démarche qui s’inscrit dans le cadre d’un rapport de prescription en ligne. Notons toutefois
que certains responsables de sites marchands déclarent vouloir éviter la comparaison et le classement
des produits afin d’éviter tout conflit avec les fournisseurs qui se retrouveraient mal classés.

3 Les outils de comparaison


Afin d’éviter la fuite des visiteurs vers d’autres sites concurrents – rien n’est plus facile en effet que
d’ouvrir un nouvel onglet ou une nouvelle fenêtre pour « voir ailleurs » –, certains marchands s’engagent
dans la conception d’un outil de comparaison interne. Ces outils sophistiqués permettent de comparer des
offres sur les mêmes caractéristiques, dans une logique descriptive : le système donne à voir les attributs
des produits ou services. C’est le cas par exemple de Devismutuelle.com. ou Darty.fr. La Fnac propose
même directement des sélections de produits (appareils photos, téléviseurs, etc.) sous forme de tableaux
de comparaison (ou matrices comparatives).

EXEMPLE
Ainsi, Darty propose pour la plupart de ses rayons de « cocher et comparer les caractéristiques des produits » pour 2 à 4 modèles. Il est
même possible d’imprimer cette comparaison, encourageant ainsi la réflexion mais aussi l’achat offline. La page de résultats présente un
tableau comparatif (ou matrice comparative).
L’aide à la décision apportée intervient à plusieurs niveaux. D’une part, l’outil effectue une
comparaison des caractéristiques communes en indiquant des valeurs précises sur chacune d’entre elles
(par exemple la taille de l’image pour un vidéoprojecteur). Cela permet non seulement de comparer les
offres, mais aussi d’apprécier les valeurs elles-mêmes (par exemple une taille d’image de 28 à 82 cm
est-elle une bonne performance pour un vidéoprojecteur ?). La comparaison avec d’autres
vidéoprojecteurs facilite la formation d’une opinion et potentiellement d’une meilleure expertise dans la
catégorie de produit). D’autre part, la mise en évidence des matrices comparatives permet à l’internaute
de découvrir de nouveaux attributs et des critères décisionnels qui lui étaient peut-être inconnus
auparavant.
Les sites Web offrent rarement de tels outils de comparaison. Plusieurs explications peuvent être
avancées. Tout d’abord, les e-commerçants éprouvent des réticences de fond à engager leurs visiteurs
dans des démarches comparatives. Ariely et Lynch notaient déjà en 2000 le manque d’interactivité et
d’aide aux consommateurs sur Internet, analysant cela comme une stratégie défensive des e-marchands,
qui redoutent de voir les internautes concentrer leurs préoccupations sur le prix. Ensuite, les coûts et les
ressources associées à la conception de systèmes de comparaison sont élevés. Ils impliquent une base de
données produits actualisée et qualifiée, puisque chaque offre doit être appréciée sur l’ensemble de ses
attributs. Les systèmes de comparaison constituent un exemple typique de mobilisation des systèmes
d’information marketing qui ne se cantonne pas à un usage interne (i. e. pour les marketers) mais qui sont
également dédiés à l’aide à la décision des consommateurs grâce au site Web marchand. Enfin, la
comparaison peut également être perçue comme une source de conflit avec les fournisseurs.
Des sites Web se sont spécialisés dans la comparaison des produits et services. Ils peuvent être
qualifiés de « comparateurs » généralistes ou spécialisés dans une catégorie de produits. Un examen de
ces sites révèle que la comparaison est quasi exclusivement monocritère et centrée sur le prix (Stenger
2009). En fait, il s’agit davantage d’outils de rangement que de comparaison. De véritables comparateurs
devraient être capables de proposer des comparaisons multicritères et pas seulement centrées sur le prix.
Certains sites sont conçus dans cette logique (cf. LesFurets.com pour l’assurance ou Devismutuelle.com).
Les sites comparateurs sont confrontés à d’autres problèmes, par exemple la frontière juridique est
parfois ténue entre comparaison objective et publicité comparative. Enfin, l’objectivité de la
comparaison ou du classement établis n’est pas évidente. La direction générale de la consommation, de la
concurrence et de la répression des fraudes (DGCCRF) a examiné les comparateurs de prix sur Internet à
plusieurs reprises (2007, 2012). Les résultats sont sans ambiguïté : les comparateurs manquent
singulièrement de transparence et leur modèle économique va même souvent à l’encontre d’une
comparaison objective.

4 Les outils de recommandation


La personnalisation de l’aide à la décision d’achat en ligne au cœur des préoccupations des chercheurs
en marketing depuis les débuts de l’e-commerce (Winer et al. 1996, Alba et al. 1997). Elle se manifeste
particulièrement dans les problématiques de recommandation. L’enjeu est de taille car il s’agit, à partir
d’un site Web uniforme, de tirer profit d’outils logiciels afin de personnaliser la relation client. En
pratique, ces outils, parfois qualifiés de systèmes ou d’agents de recommandation constituent une famille
d’outils d’aide à la décision d’achat en ligne qui se fondent sur plusieurs dispositifs :
les attributs des produits et leur catégorisation, par le vendeur ;
l’évaluation des produits par le vendeur, par les clients ou par des tiers ;
des systèmes mixtes.
Techniquement, les outils reposent sur des algorithmes et des indices de similarité (entre des produits
et/ou des préférences). L’aide apportée consiste à guider les internautes afin de trouver des produits qui
correspondent à leurs goûts : en cohérence avec les préférences exprimées chemin faisant et/ou en
comparaison avec celles exprimées par les multiples acheteurs précédents qui ont été enregistrées et
codées dans la base de données. L’annexe présente les différentes solutions techniques et les logiques
associées. Nous en exposons ici brièvement les principes.

EXEMPLE
L’indice de similarité entre la saison 1 de Dexter (série américaine qui raconte la vie ordinaire d’un serial killer et sa construction
identitaire) et la saison 2 ou 3 de cette même série est naturellement très élevé. L’indice de similarité entre les séries Dexter et Plus belle
la vie (série française familiale) est plus faible. Celui entre Dexter et ses consœurs américaines diffusées par Showtime, Californication
ou Weeds, est plus élevé. Le recours à ce type de système permet de dire aux internautes que : « les gens qui aiment Dexter aiment aussi
Californication et Weeds ».

Les moteurs des systèmes de recommandation sont composés d’outils de filtrage d’information
individuels et collaboratifs. Les données utilisées pour nourrir le système sont constituées par une
agrégation des comportements d’achat ou de la navigation de précédents visiteurs. Il s’agit d’automatiser
la recommandation et la personnalisation. Oufaida et Nouali (2008) dressent un état de l’art dans le
contexte du Web 2.0 et distinguent le filtrage à base de contenu, le filtrage collaboratif et les modèles
hybrides.
La démarche peut impliquer la collecte des préférences déclarées par les clients, par exemple par
questionnaire (ce qui est généralement la conception retenue en informatique) ou être transparente (à
partir de la navigation et/ou des achats sur le site marchand). Murray et Haübl (2009) plaident en faveur
de ces outils qui permettent de personnaliser les recommandations sans interroger directement les
utilisateurs à l’instar du système de recommandation d’Amazon qui est sans doute le plus connu et l’un
des plus sophistiqués (cf. annexe pour une analyse détaillée).

EXEMPLE
Les clients de la Fnac par exemple, connaissent bien les recommandations du type : « les internautes ayant acheté… ont également
acheté… ». Amazon procède également sur la base des mots clés utilisés dans son moteur de recherche : en affichant les « mots clés
inspirés de produits similaires » et encourage ainsi l’exploration en ligne. Amazon propose aussi « les clients ayant acheté… ont également
cherché… ». Les « autres articles » ou les « artistes liés », pour poursuivre l’exemple de la Fnac, s’appuient sur des recommandations
élaborées par le vendeur lui-même, à partir d’un codage de sa base de données produits par catégories, par auteur (dans le cas de livres,
de la musique ou des films par exemple) – cf. annexe pour plus de détails.

Il est essentiel de bien distinguer les recommandations du type : « nous vous suggérons également » et
« les internautes apprécient également » car la source de la recommandation est distincte. Dans le
premier cas, le site marchand s’engage, en tant que conseiller, en tant que prescripteur. Dans le second, ce
sont les internautes qui sont instrumentalisés par le site en tant que prescripteurs.

Focus 5.2
Agent de recommandation et matrice comparative : résultats
d’expérimentation
La recherche menée par Häubl et Trifts (2000) sur les « aides interactives à la décision des
consommateurs » est pionnière. Elle est présentée ici car elle pose les bases des intérêts et enjeux
de tels outils en e-marketing et des recherches menées depuis lors sur ce thème.
Häubl et Trifts proposent une classification des agents d’achat interactif basée sur la distinction
suivante : l’outil est conçu pour déterminer « quoi acheter » ou bien il est conçu pour savoir « à qui
acheter » ou « où acheter ». Il s’agit de la dichotomie traditionnelle employée en marketing entre
choix du point de vente et comportement dans le point de vente.
Ils comparent deux outils qui correspondent respectivement à deux étapes décisionnelles
successives : un agent de recommandation et une matrice de comparaison.
L’agent de recommandation permet au consommateur de mieux apprécier l’ensemble des alternatives
possibles dans un environnement d’achat en ligne à partir d’informations formulées par le
consommateur sur ses préférences et ses critères de choix (sa fonction d’utilité). C’est donc un outil
qui intervient dans la phase initiale de découverte de l’offre disponible. L’agent utilisé produit une
« liste personnalisée d’alternatives recommandées », basée sur trois types de paramètres fournis par
le consommateur : la pondération des attributs, le niveau minimum requis par attribut, le nombre
maximum de produits à paraître dans la liste. Une fois les attributs définis et pondérés, l’agent
propose une liste avec un classement et des scores selon les préférences déclarées par le
consommateur1.
La matrice comparative a pour objectif d’aider le consommateur à faire des comparaisons poussées
parmi les alternatives sélectionnées. Elle est conceptualisée comme « un outil interactif qui assiste
les consommateurs pour faire des comparaisons approfondies parmi les alternatives qui paraissent
les plus prometteuses d’après la première recherche » (idem). Elle apparaît donc dans une deuxième
phase. L’outil permet à l’acheteur d’organiser l’information sur les attributs de plusieurs produits
dans une matrice « alternatives x attributs » et de sélectionner toutes ces alternatives classées par
attribut » (ibid.). Les sites de Darty, la Fnac ou Devismutuelle offrent un exemple de comparaison
par attribut.
Les résultats des expérimentations menées par Haübl et Trifts2 indiquent que les deux outils testés
réduisent les efforts du « consommateur décideur » en termes de recherche d’information mais
augmentent la qualité des ensembles de considération3 ainsi que la qualité des décisions. L’impact
est donc doublement positif. Il y a à la fois allégement de la charge cognitive et amélioration de la
qualité décisionnelle. Haübl et Trifts précisent que, dans leur expérimentation, les outils utilisés sont
de très haute qualité et que, sur Internet, les systèmes souffrent d’imperfections et de biais (biais qui
peuvent éventuellement être volontaires).
Les aides interactives à la décision permettent idéalement aux consommateurs de prendre de meilleures
décisions tout en fournissant moins d’efforts. Il y a quelques années, Ariely (2000) signalait que cette
meilleure qualité décisionnelle s’accompagnait parfois d’une surcharge cognitive. Aujourd’hui, de
nombreux travaux montrent que les agents de recommandation peuvent à la fois réduire les efforts
(cognitifs en particulier) et améliorer la qualité de ces décisions d’achat. Haübl et Murray (2006) notent
toutefois que cette aide peut être ambiguë car elle destinée à l’acheteur… ou au vendeur. Ils parlent dans
certains cas d’« agent double » lorsque les outils ont le potentiel d’aider mais aussi d’influencer les
acheteurs dans leur prise de décision d’achat.
L’impact des agents de recommandation sur les décisions d’achat est bien réel. La probabilité d’achat
des produits recommandés serait deux fois plus élevée que pour les autres produits et leur influence serait
supérieure aux recommandations réalisées par des experts humains (Senecal et Nantel, 2004). Par
ailleurs, l’impact des recommandations ne se limite pas à l’achat en cours et peut être durable, les
acheteurs mobilisant les recommandations lors d’achats ultérieurs (Häubl et Murray, 2003).
En 2009, Murray et Haübl déplorent toujours le fait que les agents de recommandation n’aient pas été
davantage adoptés par les acteurs de l’e-commerce. Ils estiment qu’il faut les rendre plus faciles à
utiliser. Cela passe par une amélioration des interfaces et des modes d’interaction et implique ainsi la
coopération d’autres spécialistes, en management des systèmes d’information, informatique,
psychologie… L’objectif étant de rendre les systèmes plus humains.
Certains sites ont investi dans la conception d’agents virtuels, parfois qualifiés d’agents intelligents. En
pratique, ces outils ressemblent pour l’instant davantage à des interfaces ludiques de « foire aux
questions » (FAQ) qu’à de véritables outils de recommandation. Ils répondent aux questions posées par
les internautes dans une démarche de recherche d’informations. Ils jouent un rôle positif en termes de
confiance vis-à-vis du site marchand, d’intentions d’achat et d’intentions de recommander le site
(Lemoine et Notebaert, 2011). Des recherches ont montré que les gens apprécient d’interagir avec des
systèmes informatiques qui simulent l’interaction humaine comme les agents logiciels qui incorporent la
gestuelle des individus, une apparence humaine, le langage naturel (Häubl et Murray, 2003). Le rôle des
avatars en tant qu’agents virtuels de vente semble à ce titre valorisé par les consommateurs ; ils
renforcent la satisfaction vis-à-vis du commerçant, l’attitude vis-à-vis du produit et l’intention d’achat
(Holzwarth et al., 2006) – cf. Garnier, Poncin, 2013 pour une synthèse consacrée aux avatars en e-
marketing. Leur rôle ne doit cependant pas être surestimé car les attentes des internautes sont renforcées
par la présence de ces outils… ce qui peut générer de la déception.

EXEMPLE
Le lecteur peut converser avec Emma (MMA et La Redoute), Clara (Fnac), Anna (Ikea), Léa (Voyages SNCF, Paypal), et pourquoi pas
participer aux élections de Miss Client qui décernent chaque année le prix du meilleur agent virtuel.
Section 4

PRESCRIPTEURS, PRESCRIPTIONS ET RECOMMANDATIONS EN LIGNE

Les prescriptions en ligne, les recommandations des internautes sur Internet et le bouche-à-oreille
électronique (word-of-mouse) ont fait l’objet de travaux récents. Leur influence sur les comportements
d’achat et leur éventuel management intéressent à la fois les chercheurs et les praticiens du marketing.
On distingue respectivement les prescriptions de critiques « officiels » et les commentaires des
internautes. Deux perspectives complémentaires permettent d’appréhender ce phénomène. La première
analyse les relations et les savoirs échangés entre vendeurs, acheteurs et prescripteurs, dans le
prolongement d’une théorie de la prescription (Hatchuel 1995, 2010). La seconde s’inscrit dans la lignée
des recherches sur l’influence des médias et le bouche à oreille (Katz et Lazarsfeld 1955).

1 Les rapports de prescription en ligne


L’e-commerce et la vente en ligne offrent un contexte privilégié pour la mise en scène de prescripteurs
sur les sites Web et l’instrumentalisation de prescriptions de types variés. Avant de les examiner en
détail, les concepts de marché à prescripteur et de rapport de prescription sont exposés.

1.1 Le prescripteur : un tiers support de l’échange marchand


Dans bien des cas, online ou offline, les situations d’achat sont des situations complexes pour
l’acheteur car il doit être capable de se représenter ce qu’il va acheter, l’usage qu’il va en faire et
également l’appréciation qu’il portera ensuite sur cet usage (Hatchuel 1995, 2010). Ce triple défi
implique savoirs et compétences chez l’acheteur. Il repose aussi sur la confiance, dans l’offre proposée,
vis-à-vis du site marchand et également en soi. En cas de risques perçus, d’incertitude, de défiance face
au vendeur et à l’offre marketing en général ou plus simplement parce qu’il découvre une nouvelle
catégorie de produits (par exemple les télévisions 3D), l’acheteur peut s’engager dans un processus
d’acquisition de savoir, auprès d’un tiers : il recourt à un prescripteur. Le terme de prescripteur est
souvent utilisé en marketing dans sa définition faible (souple) : il évoque quiconque exerce une influence
sur l’acheteur. L’exemple de l’enfant qui cherche à influencer ses parents est souvent cité (ce qui est
paradoxal car ce sont bien évidemment les parents qui prescrivent – heureusement – la quasi-totalité de la
consommation de leurs enfants). Il s’agit ici d’utiliser le concept de prescripteur selon une définition forte
(stricte). Le prescripteur est un tiers (autre qu’un intermédiaire marchand) dont l’apport est une condition
de fonctionnement de l’échange. L’apport est constitué de savoirs, de savoirs manquant à l’acheteur pour
mener son processus de décision d’achat (Hatchuel 1995, 2010).
Internet offre une grande variété de possibilités pour mettre en scène des prescripteurs. Ils se situent
aussi bien sur les forums spécialisés, les communautés en ligne, les blogs, les sites marchands eux-
mêmes… et peuvent ainsi aider, guider, influencer, rassurer les acheteurs. Une analyse du risque perçu
dans l’achat en ligne sous cet angle permet par exemple d’identifier les types de prescripteurs et de
prescriptions à privilégier. La stratégie de prescription dépendra du type de site (généraliste ou
spécialiste), de l’expérience d’achat en ligne et de l’expertise dans la catégorie de produits, expliquent
Gallen et Cases (2007). En pratique, sur un site marchand, le prescripteur peut apparaître sous la forme
d’un expert professionnel ou d’une institution (par exemple salon du livre, association des professionnels
de la puériculture, festival de la bande dessinée d’Angoulême, etc.), d’un guide de choix, de l’avis d’un
client. Le statut et les contenus (des savoirs) sont mis en ligne par le vendeur sur le site Web pour guider
les internautes dans leurs achats (les supports de prescription offline sont évidemment très nombreux
aussi). Le prescripteur intervient auprès de l’acheteur pour lui recommander un comportement, des
questions, des critères à prendre en considération, des produits, des marques, etc. Leur intervention
instaure alors un marché différent avec un offreur, un demandeur et un prescripteur. Le prescripteur peut
rendre substituables des biens qui n’étaient pas perçus comme tels, ou restreindre, par ses
recommandations, l’espace des choix envisagés, redéfinissant ainsi le marché (cf. Hatchuel 2010,
pp. 169-170).
Le site marchand peut aussi contester les prescripteurs habituels sur son marché et souhaiter maintenir
une relation directe avec l’acheteur ou proposer un autre prescripteur. L’offreur peut même être tenté
d’aller plus loin et chercher à s’instituer comme prescripteur auprès de ses clients. C’est le cas d’Oxybul
Éveil et Jeux avec ses guides et espaces conseils. Le vendeur cherche à provoquer l’achat sans
intervention d’un tiers en suscitant un sentiment d’auto-prescription de la part de l’acheteur. Le cas de la
vente en ligne est particulièrement riche sur ce point. Ainsi certains e-commerçants affichent les
recommandations de prescripteurs « officiels » (l’avis de la presse spécialisée par exemple comme c’est
souvent le cas pour l’industrie culturelle – films, livres, musique) tandis que d’autres se mettent
véritablement en scène comme vendeur conseil, cherchant ainsi à établir une relation de prescription
directe avec l’acheteur et à devenir le prescripteur légitime. Cette revendication du statut de prescripteur
est d’ailleurs au cœur de la stratégie commerciale de certains marchands en ligne (Stenger 2006, 2008).
Au sein des rapports de prescription, l’examen des savoirs (manquants) et des incertitudes rencontrées
chez l’acheteur permet de mettre en évidence plusieurs formes de prescription : la prescription de fait, la
prescription technique et la prescription de jugement (cf. Focus 5.3).

Focus 5.3
Trois formes de prescription fondamentales
Trois formes fondamentales de prescription, de complexité croissante et correspondant à trois
grands types de savoirs (manquants), doivent être distinguées : la prescription de fait, la prescription
technique et la prescription de jugement où l’intervention du prescripteur sur l’échange et sur le
processus décisionnel de l’acheteur va crescendo.
La « prescription de fait » apporte une connaissance plus grande sur l’état d’une chose ou de la
prestation acquise. Par exemple, ce bijou est une bague en or 750/1 000 (18k) de 0,99 gramme avec
0,0015 carat de diamants. La qualification de cet état est un savoir déjà détenu par l’acheteur mais
qu’il ne peut constater lui-même. Dernier aspect central : ce savoir ne peut être contesté (dans
l’exemple ci-dessus, il est en effet difficile de contester le poids en or ou le nombre de carats). Il
s’agit de dire « la vérité » sur des poids, des mesures, les propriétés d’aliments, de médicaments,
etc.
Lors d’une « prescription technique », l’expert ne se prononce pas seulement sur un état mais sur des
manières de faire, des techniques ; il va intervenir dans le processus d’achat en apportant des
notions initialement inconnues de l’acheteur. Par exemple : désigner des marques alternatives ou des
vendeurs inconnus, indiquer de nouveaux usages, le prévenir face à des dangers, des nuisances ou
des malfaçons. Le prescripteur comble ici une incertitude plus complexe qui va jusqu’à l’ignorance
des pratiques possibles. C’est typiquement le rôle de l’ingénieur, de l’architecte, du médecin. Il
fournit une carte plus riche du territoire à explorer ou un ensemble d’itinéraires pour aller vers un
point fixé par l’acheteur. Dans ce cas, l’acte d’achat se mue en un processus de délégation et de
contrôle.
Dans les deux formes précédentes, l’intervention du prescripteur porte sur la chose à acquérir ou sur
ses logiques d’utilisation. L’acheteur reste encore maître de son appréciation sur ce que serait la
jouissance ou l’utilité qu’il veut en retirer.
Avec la « prescription de jugement », la chose à acquérir mais aussi son mode d’appréciation sont
définis et évalués par le prescripteur. Les étoiles du guide Michelin et la plupart des revues de
consommateurs définissent des critères de jugement qui étaient inconnus ou non formulables pour
l’acheteur. La délégation du processus décisionnel vers le prescripteur est ici très élevée. Il y a une
double logique d’évaluation de l’offre et de définition des critères d’évaluation. Le cas du recours à
une prescription de jugement lors d’un achat en ligne est particulièrement riche puisque l’acheteur
dispose d’une plus grande liberté de recourir à des prescripteurs externes (en ouvrant simplement un
nouvel onglet sur son navigateur). L’acheteur n’a pas à redouter la « pression psychologique » que le
vendeur ne manque pas d’exercer en face-à-face. Les prescriptions de jugement sont ainsi
particulièrement propices à la vente en ligne.
Source : d’après Hatchuel (1995, 2010) et Stenger (2006, 2008).

1.2 Évaluer et concevoir les rapports de prescription dans la vente en ligne


Dans le contexte de la vente en ligne, quels sont les acteurs de la prescription ? Qui en est à l’origine ?
Quels sont ses effets sur le processus d’achat en ligne ? Quelles sont les conditions requises (en termes
de savoirs, de compétences, de relations) pour que le rapport de prescription opère ? L’analyse des
prescriptions des professionnels du vin et leur rôle central dans la stratégie de vente des cavistes en ligne
(Stenger 2006, 2008) a permis de proposer un cadre général pour appréhender les rapports de
prescription dans le commerce en ligne. Il repose sur sept dimensions : la forme, l’intensité, la source, la
compétence requise, la portée (de locale à globale), le niveau d’intervention décisionnel et l’opération
(réduction ou ouverture). Ce cadre permet à la fois d’analyser et de concevoir les stratégies de
prescription sur les sites marchands

Tableau 5.2 Les sept dimensions pour appréhender la prescription dans la relation d’achat en ligne

Source : Stenger (2006)

La forme reprend les idéaux types exposés dans le repère 8.3 : prescription de fait, technique et de
jugement. L’intensité des prescriptions est variable. Elle est appréciée selon le degré de structuration
potentielle du processus de décision d’achat. Plus la décision est déléguée vers le prescripteur, plus le
degré d’intensité est élevé. Sur Allocine.com par exemple, une critique telle que « voici le meilleur film
de l’année » ou une note de 19/20 sont d’une forte intensité tandis qu’« un film agréable » ou une note de
13/20 sont toujours prescriptifs mais d’une plus faible intensité.
Le recours à la prescription dans la relation d’achat en ligne renvoie à l’idée d’intervention du site Web
vis-à-vis du processus de décision de l’acheteur. En pratique, les sources de cette intervention sont
multiples. Il peut s’agir :
de prescripteur(s) tiers : ce sont le plus souvent des prescripteurs officiels, des experts, des guides
(tels que Parker pour le vin, le guide Hachette ou le guide Michelin) ;
du vendeur lui-même, c’est-à-dire du site Web qui rédige des avis critiques, affiche des notes, et
revendique ainsi le rôle de prescripteur légitime (par exemple Devismutuelle.com, 1855.com, la
Fnac également avec les conseils des « vendeurs experts ») ;
de clients, instrumentalisés comme prescripteurs, par le vendeur (par exemple « les préférés de nos
clients », « les meilleures ventes », « les clients qui ont acheté… ont également acheté… ») ou
s’exprimant délibérément pour exprimer leur avis sur le site (par exemple Amazon.fr, Fnac.com,
RueDuCommerce.fr).
Les sites marchands « jonglent » ainsi avec les prescripteurs. Ils se mettent en scène en tant qu’experts
dans la catégorie de produits ou bien, au contraire, s’effacent derrière des prescripteurs officiels. La
combinaison des deux est également possible, laissant au visiteur le choix du prescripteur en qui il aura
le plus confiance (cf. exemple dans le Focus 5.4). Cette combinaison est d’ailleurs souhaitable, pour le
vendeur, si le prescripteur tiers ne va pas dans le sens qu’il souhaite. L’identification du prescripteur
effectif est essentielle. Cette attribution de la prescription à un acteur, prescripteur par définition, même
s’il joue ce rôle symboliquement, enrichit fortement l’étude des relations d’achat en ligne et des pratiques
des e-commerçants. Cette question occupe en effet une place centrale dans la conception de la gestion de
la relation client car il s’agit d’un élément très distinctif de la stratégie de vente en ligne.
Pour chaque type de prescription, la compétence requise chez l’acheteur pour acquérir les savoirs est
variable. Cette dimension de compétence chez l’acheteur est cruciale pour toutes les catégories de
produits techniques ou culturels où le prescripteur doit non seulement prescrire des savoirs, mais veiller
à la « pédagogie » de la prescription. Certaines prescriptions, telles que les notes (par exemple 4 étoiles,
5 cœurs ou 95/100), ne requièrent qu’une très faible (voire aucune) compétence dans la catégorie de
produits, ce qui explique leur popularité. Nul n’est besoin d’être un spécialiste (en informatique, en
matériel sportif ou en chaînes hi-fi) pour comparer des produits selon le nombre d’étoiles décernées par
le prescripteur. D’autres impliquent une compétence plus importante.

EXEMPLE
Une critique d’expert pour expert : « Sans être en rupture avec le précédent, mais résolument moins french touch, IRM est un album très
Beck. La patte du producteur californien sied à merveille à la voix douce et mélodieuse de Charlotte Gainsbourg qui nous offre, en anglais
et aussi en français – ce qui est plus rare –, des textes vertigineux ou émouvants dont une perle de Jean-Pierre Ferland ».

La portée de la prescription est également variable. Elle peut être locale et n’être valable que pour un
produit ou, au contraire, plus vaste (par exemple 2001 est une bonne année pour les vins liquoreux). Le
savoir acquis est alors plus largement utilisable et transférable à d’autres projets d’achat. La prescription
peut même être globale et concerner l’ensemble de l’offre. C’est le cas pour la prescription d’un critère
décisionnel qui permet un véritable apprentissage chez le consommateur. Il pourra réutiliser les savoirs
prescrits. La prescription a donc non seulement une portée (potentielle) ponctuelle mais elle peut aussi
conduire à accroître la compétence de l’acheteur (dans la catégorie de produit) de façon plus durable et
être source d’apprentissage.
Lorsque le recours à la prescription structure le processus de décision d’achat, la prescription peut se
situer à différents niveaux du processus décisionnel. On peut, par exemple, distinguer les interventions
sur la définition du problème décisionnel, sur la sélection d’alternatives ou sur le choix d’une solution
particulière. Le plus souvent, les sites marchands privilégient les prescriptions qui interviennent dans les
dernières phases (sur la sélection des solutions envisageables ou sur le choix du produit). Elles sont ainsi
souvent situées sur la fiche produit afin de finaliser la commande en ligne.
Enfin, les différents types de prescription peuvent conduire à réduire l’ensemble des possibles (par
exemple proposition d’une sélection parmi l’ensemble de l’offre) ou à élargir le champ des possibles
(proposition d’une sélection alternative ou d’autres critères décisionnels). L’opération de la prescription
peut ainsi être considérée à travers le degré d’ouverture ou de réduction des possibles (i. e. des solutions
envisageables). En règle générale, les prescriptions s’inscrivent dans cette deuxième perspective car il
s’agit de réduire l’éventail de choix et de conduire l’internaute jusqu’au choix d’un produit/service.

Focus 5.4
La prescription mise en scène sur les sites marchands :
applications
Le site Web de Darty propose des espaces « bien choisir », « bien utiliser », « bien installer ».
Procédez à l’analyse de ces prescriptions à travers les sept dimensions du modèle de la prescription
en ligne.
Le site Web de Décathlon propose des vidéos « comment choisir », « comment entretenir ». S’agit-il
de prescriptions ? Comment les analysez-vous ?
Le site Web de Leroy Merlin offre des « cours de bricolage », des « guides » et un espace très riche
intitulé « nos conseils ». Procédez à l’analyse de ces zones du site Web à travers le modèle de la
prescription en ligne.
Les sites de la Fnac et d’Amazon ont adopté des stratégies de prescription différentes. Identifiez-les
et analysez-les à travers les sept dimensions du modèle. Repérez d’autres sites Web ayant suivi la
même stratégie de prescription.
Analysez les démarches de recrutements de « clients prescripteurs » et leur management sur les sites
de PriceMinister et de Oxybul Éveil et Jeux.
Une fois cette grille d’analyse maîtrisée, vous pouvez procéder à l’analyse (et à la conception) des
sites marchands de votre choix.

1.3 Les processus de décision d’achat sous prescription


L’influence et l’usage des prescripteurs et prescriptions sur les processus de décision d’achat en ligne
ont fait l’objet de travaux récents.
Lors d’expérimentations d’achat de vin sur Internet, Stenger (2004, 2008) constate que la majorité des
achats sont effectués en ayant recours à la prescription mise en ligne sur les sites marchands
(commentaires critiques, évaluations des produits, notes, etc.). Contrairement à ce que l’on pourrait
imaginer, il n’y a pas de relation directe entre le recours à la prescription et la compétence de l’acheteur.
On observe cependant un lien entre la nature de la prescription et la compétence de l’acheteur avec un
recours prioritaire aux commentaires critiques chez les acheteurs les plus experts et aux notes (sur 20, sur
100, les cœurs et les étoiles) chez les acheteurs les plus novices. L’image d’un site Web qui, grâce à la
multitude d’informations disponibles en ligne, viendrait épauler l’acheteur non initié ne correspond pas à
la réalité observée lors des expérimentations. Cela peut s’expliquer par un effet de seuil : un minimum de
savoirs et de compétences sont requis pour bénéficier de prescriptions « littéraires » alors que des notes
sont très facilement mobilisables par n’importe quel acheteur même s’il n’en maîtrise pas les ressorts.
Cela permet d’expliquer la diffusion et l’adoption très rapide de ces notes sur un très grand nombre de
sites marchands (idem).
Les différentes formes de prescription contribuent à réduire le risque perçu dans l’achat en ligne. Les
connaisseurs sont capables de mobiliser les trois formes de prescription mais ce n’est pas le cas des
novices qui ne recourent pas aux prescriptions techniques (Gallen et Cases 2007).
En s’intéressant aux rapports entre les savoirs de l’acheteur (ses compétences) et les savoirs des
prescripteurs apportés par le site marchand et mobilisés lors de l’achat en ligne, six types de processus
de décision d’achat en ligne ont pu être identifiés (Stenger, 2008). Cette analyse révèle que les savoirs,
les avis des prescripteurs sont souvent mobilisés non pas en complément mais en substitution des savoirs
de l’acheteur. Ce dernier délègue ainsi son processus de décision d’achat et en particulier le choix final
du produit. Parmi les six idéaux types, deux seulement reposent à la fois sur les savoirs du prescripteur et
ceux de l’acheteur. Les autres mobilisent soit les savoirs de l’acheteur, soit ceux de prescripteurs (sans
jamais les associer). Enfin, et malgré toutes les informations et prescriptions proposées en ligne, malgré
les outils d’aide à la décision, le dernier type d’achat identifié renvoie essentiellement… au hasard. Il est
alors associé à des règles décisionnelles simples telles que satisfaire aux contraintes budgétaires d’un
projet d’achat vaguement déterminé (idem). En bref, avec une stratégie de prescription élaborée, les sites
marchands peuvent fortement participer aux processus de décision d’achat en ligne. Il ne s’agit pas
seulement d’influencer mais de guider, d’aider les internautes à réaliser leurs achats en ligne.

2 Avis des clients, bouche-à-oreille électronique et marketing viral


L’analyse des avis des internautes et du bouche-à-oreille électronique est au cœur de projets marketing
ambitieux. Certains envisagent même un « marketing viral » voire un « marketing du bouche-à-oreille ».

2.1 Les avis de clients sur le Web


La production de contenu par les internautes consommateurs sur Internet est à la mode depuis que
Dougherty et O’Reilly ont popularisé le « concept » de Web 2.0. Historiquement, les consommateurs ont
toujours commenté leurs achats et leur consommation sur le Web – entre autres – dans des espaces
personnels ou des espaces marchands. Amazon a ainsi construit son succès et son originalité avec un
espace dédié aux avis, parfois très critiques, des clients concernant les produits distribués par le site. Si
certains y ont vu une démarche périlleuse, nombreux sont aujourd’hui ceux qui ont suivi l’exemple de la
société de Seattle.
Le phénomène est massif. En France, deux internautes sur trois ont contribué à des avis, des notes,
recommandé ou partagé en ligne des produits ou services qu’ils ont achetés (Fevad/Mediametrie, 2013).
Plusieurs enquêtes rappellent toutefois que la plupart des avis sont postés par une minorité d’internautes.
Les consommateurs sont encouragés à participer en ligne pour plusieurs raisons. Le désir d’interaction
sociale, la recherche de gratifications (de nombreux sites valorisent la démarche avec des jeux
promotionnels, des bons d’achat, etc.), la volonté d’aider les consommateurs et la possibilité d’améliorer
leur propre image constituent les principaux motifs (Hennig-Thurau et al., 2004).
De nombreux consommateurs recherchent et acceptent ces recommandations en ligne, expliquent Smith
et al. (2005). Ils les utilisent comme des heuristiques décisionnelles qui permettent de réduire les efforts
cognitifs en ligne (i. e. des raccourcis cognitifs servant de règles décisionnelles). Les consommateurs
recherchent l’opinion des autres en ligne pour réduire les risques perçus, par mimétisme, pour se rassurer
face à des prix plus faibles, pour obtenir de l’information facilement, « pour le fun » et parce qu’ils
souhaitent une information avant achat. Ces avis d’internautes sont considérés comme plus importants que
la publicité et les consommateurs les ayant utilisés ont l’intention de continuer (Goldsmith et Horowitz,
2006).
2.2 L’influence des avis des clients et du bouche-à-oreille électronique
Plus des 3⁄4 des internautes (77 %) se déclarent influencés par les commentaires ou les notes des
consommateurs avant d’acheter un produit (Fevad-Mediametrie/Netratings, 2013). Contrairement aux
idées reçues, ils sont plus sensibles aux avis laissés sur les sites marchands que sur les médias
socionumériques.
Les comportements des consommateurs face aux commentaires publiés en ligne commencent en effet à
être mieux connus. L’étude menée par Chevalier et Mayzlin (2006) sur les sites américains de Barnes &
Noble et Amazon indique qu’une évaluation positive d’un livre entraîne une augmentation de ses ventes
sur le site. Les clients seraient d’ailleurs plus sensibles au contenu des avis rédigés par les internautes
qu’aux notes statistiques (moyennes) qui évaluent les livres. Les commentaires négatifs semblent avoir un
impact plus important que les commentaires positifs. Mais cela dépend notamment de la nature des
produits. Pour les produits hédoniques tels que la musique ou les films (par opposition aux produits
utilitaires), les internautes trouvent les avis négatifs moins utiles (Sen et Lerman 2007).
La fréquence de consommation apparaît comme une variable clé. Dans le cas du cinéma, l’effet du
bouche-à-oreille est plus fort sur les spectateurs occasionnels que sur les spectateurs réguliers, en
particulier si les avis sont négatifs (Chakravarty et al., 2010). Cet effet négatif est d’ailleurs durable
même si les critiques de professionnels sont positifs. Les spectateurs réguliers sont eux davantage
influencés par les critiques professionnels.
Il est essentiel de bien distinguer la source des commentaires en ligne et leur support. Des recherches
étudient d’ailleurs le lien entre les avis des professionnels (experts) et ceux des internautes ou les avis
sur les sites marchands et ceux sur des supports plus ouverts tels que les forums ou les sites
communautaires. Dans le premier cas, il faut définir une véritable politique de management de ces
recommandations en ligne. Dans le second cas, les marges de manœuvre sont plus réduites.
Les recherches qui ont étudié précisément l’impact des critiques professionnels et des avis des
internautes ont tenté d’établir des relations de causalité, ce qui est complexe. Les travaux de Godes et
Mayzlin (2004) et Dellarocas (2003) et al. (2006, 2007) sont les plus cités sur le sujet. Godes et Mayzlin
(2004) mettent en évidence l’intérêt de mesurer le bouche-à-oreille en ligne (word of mouse, WOM) à
partir de l’étude de forums de discussion (sur des séries TV), mais ils soulignent aussi les difficultés de
cette démarche. Ils insistent sur le fait qu’un simple comptage (sur un seul forum) ne suffit pas et qu’il faut
surtout mesurer la dispersion des conversions à travers l’ensemble des communautés virtuelles. Ils
mettent aussi en garde, à juste titre, contre toute interprétation hâtive concernant le sens de causalité entre
le WOM et l’audience télévisée ou les ventes futures – ce qui est une des faiblesses de certaines
recherches sur le WOM. Les origines du contenu du WOM (rôle de la presse, de la publicité, des experts)
et le rôle du bouche-à-oreille offline font partie des axes de recherche prioritaires. Il serait en effet
maladroit de dissocier le WOM et le bouche-à-oreille traditionnel.
La consommation de produits culturelle est la plus étudiée. Dans le cas de la musique, Dhar et al.
(2009) observent que les ventes futures d’un album sont positivement corrélées avec le nombre de
commentaires postés sur les sites d’Amazon et de sites spécialisés. Comme les commentaires sont très
majoritairement positifs, l’absence de commentaires et plus encore les avis négatifs ont un impact
potentiellement très important (ces résultats confortent ceux de Sen et Lerman, 2007). Leur étude confirme
aussi que les facteurs traditionnels de l’industrie de la culture (le fait que les albums soient produits par
des majors, les bénéfices apportés par des critiques officiels de magazines spécialisés tels que Rolling
Stone) sont toujours de bons indicateurs prédictifs. En France, le cas de cinéma a été particulièrement
étudié (cf. Focus 5.5).

Focus 5.5
Recommandations en ligne : le cas du cinéma en France avec
Allocine.com
En France, le cas du site Web Allocine.com et son influence sur les entrées dans les salles de cinéma
a été étudié à plusieurs reprises (Belvaux et Marteaux 2007, Larceneux 2007). Ils s’inscrivent très
clairement dans la lignée des travaux cités ci-dessus, en particulier ceux de Dellarocas depuis 2003.
Belvaux et Marteaux (2007) comparent les effets des démarches marketing dans les médias, des
critiques professionnels et des recommandations des internautes sur les résultats commerciaux des
films. Ces trois variables ont une influence sur les entrées en salles, de façon séquentielle. Les
résultats de la première semaine de sortie en salle sont déterminants pour la suite. En bref, la
promotion n’a pas d’effet sur les avis des internautes, alors qu’elle influence négativement les
critiques professionnels pour les films à petit budget et positivement ceux à gros budget. Les avis
des critiques et des internautes se rejoignent pour les films à gros budget.
Larceneux (2007) étudie l’influence de l’avis des critiques et de l’opinion des internautes en tant que
recommandations potentielles sur le buzz (traduit par bourdonnement) et les entrées dans les salles
(plus exactement la prédiction du box-office). Le buzz est défini par deux dimensions : le volume –
nombre plus ou moins important d’individus qui évaluent et parlent du produit – et la valence –
dimension qualitative, qui représente l’évaluation moyenne et qui peut être positive ou négative.
Il distingue deux types de buzz : le premier est plutôt commercial, fondé sur des stratégies
marketing ; le second est non commercial a priori, fondé sur la volonté propre de certains individus
de transmettre leur opinion sur leur expérience vécue avec le produit, le service, tout en rappelant à
juste titre qu’il n’existe pas de vase clos entre les deux. Dans la seconde catégorie, il différencie
deux types de buzz indépendants sur Internet : celui émanant des professionnels experts, des
critiques, et celui émanant des internautes, souvent les premiers acheteurs, qui se sentent experts
dans la catégorie de produits.
Si les avis des professionnels et des internautes ne sont pas analysés en tant que tels (nature,
contenu, forme, origine, organisation, etc.), leur évaluation est réduite à une variable dichotomique
(positive/négative) pour faciliter le traitement statistique, cela permet de bien mesurer leur impact.
À partir d’une analyse causale, l’étude montre que les recommandations affichées sur le site
Allocine.com sont significativement corrélées au box-office après la première semaine ; ces
recommandations peuvent non seulement prédire, mais aussi influencer le box-office.

2.3 Marketing viral et marketing du bouche-à-oreille ?


Certains spécialistes postulent qu’un management de ce bouche-à-oreille en ligne est possible. Les
projets de « marketing viral » sur Internet (Godin, 2001), ou de « marketing du bouche-à-oreille » (word-
of-mouth marketing ou WOMM) (Kozinets et al., 2010) au sein des communautés en ligne et des
plateformes de blogs sont aujourd’hui très populaires. Ils font l’objet d’attentes très importantes en e-
marketing. Au-delà de l’action volontaire et bénévole de clients « fans » voire même de communautés en
ligne particulièrement attachées à une marque ou une offre, il est particulièrement délicat de chercher à
encadrer, à manager ces pratiques sur le Web.
Kozinets et al. (2010) distinguent au moins trois stades de bouche-à-oreille en ligne selon
l’intervention et le pilotage marketing. Ils notent à juste titre que plus le marketing est prégnant dans la
diffusion du bouche-à-oreille, plus grands sont les risques de résistance de la part des consommateurs et
les risques de bouche à oreille négatif. La valeur (positive ou négative) du bouche à oreille est finalement
très difficile à prévoir et il peut être très dangereux d’intervenir en ligne tant la diffusion peut être rapide
et massive.
Le volume et la temporalité de la diffusion du bouche-à-oreille ont également fait l’objet de travaux
récents (Berger, Schartz, 2011). Certains ont montré qu’il était impossible de prévoir la diffusion au sein
de groupes de discussion sur Internet (Steyer et al., 2006, 2007), remettant en question les modèles de
prévision classiques et le recours aux leaders d’opinion (sur Internet en l’occurrence). Rappelons sur ce
dernier point que deux écoles s’opposent. La première, héritière de Lazarsfeld et al. (1944), Katz et
Lazarsfeld (1955), soutient le rôle central des leaders d’opinion dans les mécanismes de diffusion de
l’information et le choix des consommateurs, que ce soit sur Internet (Vernette, Flores, 2004) ou de façon
plus générale (Bertrandias, Vernette, 2012). La seconde, incarnée par les travaux de Watts et Dodds
(2007) conteste le rôle des leaders d’opinion dans les réseaux de diffusion ; ces derniers recommandent
d’ailleurs aux marketers de recourir à la publicité dans les médias de masse et de renoncer au two-step
flow model.
Selon cette seconde perspective, les groupes de discussion sur Internet se développent et se structurent
de façon aléatoire ; les managers doivent donc s’attendre, expliquent Steyer et al. (2007), à des surprises
(diffusion très rapide de l’information ou arrêt brutal). Si ces travaux confirment les potentialités virales
d’Internet avec une diffusion de l’information parfois très rapide, ils réfutent fermement la possibilité de
contrôler et de prévoir cette diffusion. C’est donc le principe même d’un marketing viral et d’un
marketing du bouche-à-oreille qui est contesté. Le potentiel viral d’Internet n’en est pas moins alléchant
et on peut parier que les très nombreuses études sur le sujet amélioreront certainement la compréhension
et la maîtrise du phénomène. Les dernières recherches insistent sur les dimensions psychologiques du
phénomène et le rôle des émotions (Berger, Milkman, 2012 ; Berger, Iyengar, 2013 ; Lovett et al., 2013).
Enfin, il faut bien garder à l’esprit les questions éthiques associées à cette démarche, en particulier
lorsque des personnes, généralement identifiées comme leaders d’opinion, sont rémunérées ou que des
actions clandestines dans les groupes de discussion, forums, blogs ou communautés virtuelles sont
menées (cf. Dellarocas, 2006).
EN CONCLUSION
Les travaux consacrés aux rapports entre achat et Internet conduisent à considérer
conjointement les différentes phases du processus d’achat en ligne et hors ligne (offline) dans
la perspective unifiée d’un marketing multimédia et cross-canal. De plus, le développement
des terminaux mobiles sophistiqués (smartphones, tablettes, consoles, etc.), de nouvelles
applications et technologies (géolocalisation, flashcode, etc. – cf. chapitre 9) et d’usages
marchands associés (recherche d’information, comparaison de produits, etc.), qu’ils soient à
domicile, en magasin, dans le train ou au bureau, renforcent ce maillage complexe des facettes
offline et online des comportements de consommation et des pratiques marketing.
La littérature spécialisée en e-marketing invite les commerçants à façonner leur site Web et la
gestion de la relation client en s’engageant dans un cercle vertueux de qualité de service, de
satisfaction et de confiance en ligne afin de favoriser la fidélité des consommateurs.
Parce que 92 % des internautes recherchent des informations en ligne avant de réaliser leurs
achats, qu’ils soient finalisés online ou offline (Fevad, 2013), Internet doit être tout
particulièrement appréhendé sous l’angle de la recherche d’information, de l’interactivité et de
l’aide à la décision d’achat des consommateurs. Il est alors essentiel de concevoir
l’adéquation entre les outils de recherche et d’aide à la décision, les compétences client et les
types de processus de décision d’achat.
Les différentes formes de recommandation et de prescription en ligne apparaissent également
comme des éléments clés de la politique d’e-marketing. Leur mise en scène et leur management
sont au cœur des processus de décision d’achat et peuvent se révéler déterminants dans le
bouche-à-oreille sur Internet (word of mouse).
Annexe

LES SYSTÈMES DE RECOMMANDATION DES SITES MARCHANDS :


ILLUSTRATION AVEC AMAZON

Yves ROY
Pour un site marchand, le système de recommandation (recommender system) est devenu l’un des
principaux leviers stratégiques, à égalité probablement avec la gestion de la chaîne logistique (supply
chain management). C’est la raison pour laquelle Netflix avait lancé en 2007 un concours doté
d’un million de dollars US et destiné à accroître la précision de son propre système d’au moins 10 % ; ce
prix a été gagné en septembre 2009 (http://www.netflixprize.com). Il est courant d’attribuer le succès
d’Amazon, qui nous servira d’exemple, à ses recommandations (Mangalindan, 2012) dont la technique a
été soigneusement brevetée dès 2001 (Linden, Jacobi, & Benson, 2001). Une anecdote plus récente,
l’affaire « Target et adolescente », a montré la puissance de tels outils.
Target est une grande chaîne de distribution aux USA. Deux ans avant de faire les unes pour un problème de fuite de données1, elle
s’était illustrée pour avoir suggéré des achats pour femme enceinte à une très jeune fille et provoqué l’ire de son père, avant que ce
dernier ne présente des excuses, par force (Duhigg, 2012).

1 Objectifs
Les systèmes de recommandation sur les sites marchands reposent sur une logique qui renvoie aux
méthodes de segmentation de marché. Rappelons que cette dernière marie trois sources d’information :
les caractéristiques des clients (CSP, socio-styles etc.), les caractéristiques de l’offre (marque, prix,
taille, performance…) et la relation entre cette offre et les clients (avantages recherchés, bénéfices
perçus, actes d’achat). Dans le vocabulaire des recommender systems, on a :
des utilisateurs (users) dont on peut connaître le profil selon deux volets : déclaratif, donc incomplet
et sujet à caution, et comportemental pour ceux ayant déjà un historique d’échanges avec le site ;
des articles, ou « trucs » (items), avec leur descriptif et, parfois, une analyse plus ou moins
automatique de contenu (content) ;
trois matrices de relations utilisateurs – articles, d’importance différente : les articles vus, après
recherche explicite ou navigation, les articles achetés et les articles évalués (ratings).
Tentons d’appliquer une logique traditionnelle de segmentation marketing à un internaute dont le profil
partiel était reconnu en 2010 par le site Amazon.fr. En appliquant des logiques interprétatives de type
socio-styles comme celles popularisées autrefois par B. Cathelat (1985), le raisonnement pourrait être le
suivant : c’est un homme (goûts musicaux), sans doute dans la cinquantaine (idem), probablement
enseignant (ouvrage de management), adepte de romans policiers (évident) et des contre-cultures… Donc,
si cet individu consulte un jour des ouvrages de médecine, il pourrait être tentant de lui recommander les
dernières parutions en matière de médecines alternatives, sophrologie… sans beaucoup chance de succès,
dans le cas présent. En pratique, ce type de raisonnement souffre de deux défauts qui le rendent peu
pertinent dans un contexte d’e-commerce massif :
Il suppose d’abord l’intervention d’un être humain pour qualifier les produits vendus et les
raccrocher à des « styles ». Avec un catalogue de la taille de celui d’un site comme Amazon, c’est
impraticable : le Mechanical Turk de la même société n’y suffirait pas.
Ensuite, chaque petite hypothèse émise ici n’est pas totalement dénuée de fondement mais contient un
niveau d’incertitude suffisant pour que le produit dérive très sensiblement de la réalité des faits.
Mechanical Turk : service permettant de faire travailler, moyennant une rémunération unitaire minime, un nombre indéterminé d’êtres
humains sur une question quelconque[2].

Les systèmes de recommandation efficaces sont directement issus des travaux sur le data mining et du
machine learning. Dans ce genre de système, tout repose sur deux piliers : des faits (consultation,
achats, évaluations) en nombre souvent considérable d’une part, un ou des algorithmes adaptés de l’autre.
La puissance informatique en croissance exponentielle, au sens strict, rend tout ceci commun, conduisant
certains à parler de fin des théories. Le concept à l’origine de ces systèmes de recommandation est le
filtrage collaboratif, apparu il y a plus de 20 ans (Goldberg, Nichols, Oki, & Terry, 1992) pour des
besoins de recherche d’information dans un système de messagerie (information retrieval). L’adaptation
de ces techniques au commerce a été quelques années plus tard renommée Systèmes de Recommandation
(Resnick & Varian, 1997).
La fin des théories est un courant de pensée qui considére que la puissance de calcul peut à elle seule suffire à prédire ce qui doit l’être,
sans qu’il soit nécessaire d’en comprendre le mécanisme sous-jacent. Stephen Wolfram, auteur de Mathematica, a lancé le concept en
2002 (Wolfram, 2002), repris par Chris Anderson quelques années plus tard (Anderson, 2008). En dépit des réticences du monde
académique, cette confiance accordée au calcul est à la base d’applications Web comme le moteur Wolfram Alpha
(http://www.wolframalpha.com) et, surtout, Google Translate (http://translate.google.fr). La vogue récente du big data (Tufféry, 2013) en
est une illustration.

L’objectif de tels systèmes peut-être résumé ainsi (Ricci, Rockach, & Shapira, 2011) : accroître le
nombre d’items vendus, vendre des items plus variés, accroître la satisfaction de l’utilisateur, accroître
sa fidélité, mieux comprendre ce qu’il veut. Pour atteindre de tels objectifs, le système devrait, selon le
guide d’évaluation le plus souvent cité (Herlocker, Konstan, Terveen, & Riedl, 2004) :
annotation dans le contexte (annotation in context) : fournir une liste ordonnée, filtrée des mauvais
messages et éventuellement annotée ;
trouver quelques bons items (find good items) : trouver des items dont la pertinence est maximale,
sans afficher généralement cet indicateur ;
trouver tous les bons items (find all good items) : exhaustivité des résultats ;
recommander des séquences (recommend sequence) : un item recommandé en implique un autre…
recommander des assemblages (recommend a bundle) : suggérer des items complémentaires ;
laisser naviguer (just browsing) : l’utilisateur n’est pas forcément engagé dans un véritable acte
d’achat et il faut quand même lui permettre de trouver des items susceptibles de lui plaire ;
rendre le système crédible (find credible recommender) : les utilisateurs testent la qualité du
système en vérifiant si des associations qui leur semblent évidentes sont reproduites, parfois même
en modifiant leur propre profil.
Un aspect particulier de cette crédibilité a été étudié depuis, celui de la persistence, qui consiste à
faire en sorte que la recommandation soit reproductible à contexte identique (Beel, Langer, Genzmehr, &
Nürnberger, 2013). Le système de recommandation d’Amazon met en œuvre la plupart de ces fonctions à
l’exception de celle concernant l’exhaustivité des résultats, rarement rencontrée en e-commerce pour des
raisons évidentes. La notion de bundle a même donné lieu à des épisodes cocasses, le site conseillant à
un internaute intéressé par un sac pour ordinateur d’acheter aussi la machine[3]. La variabilité des résultats
au fil des années, celle de leur présentation et la raréfaction de telles bizarreries illustrent le fait que,
depuis la publication initiale de ses principes de fonctionnement (Linden, Smith, & York, 2003), ce
système évolue continûment, sans que les détails n’en soient publics.

2 Exemple anonyme
Voyons la réaction de ce système de recommandation pour une consultation anonyme, après effacement
soigneux de l’historique du navigateur, dont les cookies (cf. Chapitre 9), ou une bascule en mode
« navigation privée », ce qui revient à peu près au même. Dans une logique user-to-user, nous sommes en
situation de « démarrage à froid » ou cold start (Herlocker et al., 2004) : aucune information préalable
sur notre profil ou notre historique de consultation ne peut aider le système de recommandation, qui
l’indique et renvoie une liste de best-sellers.
La forme comme le contenu peuvent varier légèrement selon le poste et le navigateur, car le site
pratique activement la technique de test A/B[4]. Le terme de « Meilleures ventes », constant, doit donc être
pris avec prudence. Après une première interrogation, par exemple sur le terme « SCRUM », la liste des
ouvrages renvoyés en référence semble pertinente mais le bloc de recommandations en bas de page ne
change pas. Les deux mécanismes, recherche et recommandation, fonctionnent manifestement de façon
indépendante, en 2010 comme en 2014. Ceci revient à constater que l’algorithme ne prend pas en compte
le texte des requêtes mais uniquement les articles vus explicitement, après un clic sur le lien, en
cohérence avec la logique item-to-item de l’article fondateur (Linden et al., 2003).
Un clic sur l’un des éléments de la liste suffit à renvoyer au site une information comportementale claire
contenant la référence de l’ouvrage, ce qui active l’algorithme paresseux du moteur de recommandation
qui donne cette fois une liste contextualisée (cf. chapitre 5 pour ce terme). Le thème choisi pour cette
consultation étant volontairement précis, les recommandations sont très efficaces. Il n’en irait pas de
même avec des romans, le comportement des acheteurs devenant alors très erratique et minimisant les
indices de similarité, quel que soit le choix retenu pour ces derniers.
Algorithme paresseux (lazy algorithm). Dans cette technique, les calculs ne sont faits qu’au moment précis où ils s’avèrent
nécessaires, et seulement sur une petite partie des données initiales. Dans un système de recommandations, calculer un indice de
similarité pour chaque couple de clients demanderait un temps de calcul et un espace de stockage démesurés. Avec la technique user-
to-user par exemple, il est plus raisonnable de déterminer « au vol » une petite liste de clients suffisamment voisins de l’internaute
connecté pour que leurs choix servent à la recommandation.
Indices de similarité. Si on ne s’intéresse qu’à l’acte d’achat, ou à celui de visionnage d’une notice d’article, les données collectées par
le site concernent un ensemble P d’articles, de cardinal p, et un ensemble C de clients, de cardinal c souvent très supérieur à p. Le
tableau de données aura donc la forme , matrice de taille c × p composée de 0 et de 1. En raisonnant sur deux articles, A et

B, on note le nombre de clients ayant acheté A et celui des clients ayant acheté à la fois A et B. Plusieurs
indices de similarité ou de dissimilarité peuvent être calculés à l’aide de ces éléments (Sneath & Sokal, 1973) :

Indice de Russel & Rao : . Si les deux articles n’ont jamais été achetés ensemble, il vaut 0. Pour atteindre 1, il faut que tous

les clients aient acheté à la fois A et B. Sa valeur dépend donc de la popularité des produits, et n’est donc que rarement utilisé.
Indice de Jaccard : . Même si les articles A et B sont peu vendus, le simple fait que tout achat de A implique l’achat de B et
vice-versa suffit à atteindre le maximum de 1.
L’indice du cosinus est une variante du premier qui a de meilleures qualités lorsque la popularité des articles A et B est différente. Il se

calcule comme : .

Notons que, pour ce type de calculs, les rôles des articles et des clients sont parfaitement interchangeables. Amazon travaille
officiellement en item-to-item, comme indiqué ci-dessus. On peut aussi calculer chacun de ces indices de similarité entre clients, en
logique user-to-user, la sommation s’effectuant sur les articles. Seul l’usage en sera différent.
Probabilités conditionnelles. C’est une vision compatible avec la précédente, moins géométrique et plus probabiliste. Les termes
employés ici viennent du market basket analysis (Han, Kamber, & Pei, 2011) ou analyse des tickets de caisse, une technique de data
mining créée pour la grande distribution. Avec les mêmes notations que précédemment, la probabilité estimée d’achat de A par un

prospect est la proportion des clients existants ayant acheté A, soit : , celle d’acheter A et B : . Cette dernière

valeur n’est autre que l’indice de Russel et Rao et est dénommée par les marketeurs niveau de support de la règle « A et B sont
achetés ensemble ». La règle « qui achète B achètera A » est mesurée par un niveau de confiance qui n’est autre que la probabilité
conditionnelle de A sachant B, soit : . Cette probabilité va de 0 (aucun achat commun) à 1 (tous les acheteurs de B
ont acheté A). Toutefois, si presque tous les clients ont acheté A, le niveau de confiance est proche de 1 sans que la règle « B → A » soit
d’un grand intérêt. On préfère donc calculer un effet de lift qui compare les probabilités conditionnelles ou non : .

Un lift de 1 signifie que la connaissance de « a acheté B » n’améliore pas la prédiction. Plus le lift est élevé, plus la connaissance de
l’acquisition préalable de B sera efficace.

Par ailleurs, l’ordre proposé n’est pas celui, tentant, lié au nombre de ratings positifs. Pourtant, les
auteurs de l’algorithme initial (Linden et al., 2003) évoquent fréquemment cette possibilité de prise en
compte des ratings dans leur article, en l’associant au mode simplifié de calcul dit Slope one.
Pente un (slope one), de Lemire et Maclachlan (2005). Les internautes sont ici qualifiés non pas par des achats mais par des notes
attribuées aux produits, de 1 (pas bon) à 5 (parfait) par exemple. Le calcul d’indices de similarité ou dissimilarité entre clients est plus
complexe que dans le cas achat / non-achat mais la distance euclidienne (racine carrée de la somme des écarts de notes) peut convenir
en première analyse. L’algorithme des proches voisins (kNN) est ensuite appliqué pour limiter le nombre de points de comparaison. Entre
le prospect et chacun de ses voisins, on peut estimer une régression linéaire de type sur les produits notés en
commun, ce qui donne une estimation de la note pour chaque produit non encore évalué par le prospect. En moyennant sur tous les
voisins, on obtient une prévision raisonnable de l’opinion du prospect. En pratique, il est fréquent que ce calcul soit simplifié en
, donc avec une pente (coefficient a) de un. Si mon voisin a noté 2 le produit A et 3 le produit B et si j’ai
noté 2 le produit B, alors il est probable que ma note pour le produit A soit 1.

Les chercheurs d’Amazon n’en sont pas restés à une technologie vieille de 10 ans. Le moteur utilise
quelques éléments complémentaires, dont probablement une forme d’association entre la requête initiale
et les articles visionnés, ainsi qu’une vision séquentielle, toujours en conformité avec (Herlocker et al.,
2004).

3 Prise en compte du profil


Ces informations de contexte permettant une recommandation efficace sont usuellement conservées
d’une session sur l’autre dans un ou des cookies stockés par le navigateur utilisé (cf. chapitre 5). En
revanche, on n’y trouve pas trace des achats récemment effectués par l’internaute. En effet, ceux-ci
s’effectuent en mode sécurisé du navigateur (https au lieu de http) et aucun navigateur n’est censé accepter
de renvoyer à un site non sécurisé un cookie créé par un site sécurisé, ce qui constituerait une faille trop
facilement exploitable. Lors de l’envoi d’un courriel annonçant les nouveautés, ce qu’Amazon pratique
régulièrement, ou lors de l’authentification de l’utilisateur sur le site, l’historique des achats devient alors
accessible au moteur de recommandation, qui peut alors changer de mode.
À l’instar de nombreux autres sites, Amazon semble en effet fonctionner selon un algorithme hybride
qui exploite un autre brevet de la firme, traitant de l’historique d’achat des utilisateurs (Jacobi, Benson,
& Linden, 2006).
La logique item-to-item n’est pas pour autant bouleversée. En application de la préconisation de
crédibilité de (Herlocker et al., 2004), Amazon ajoute à chaque article recommandé un lien « Pourquoi
nous vous conseillons cet article. Ce qui permettait de remarquer, en 2010 tout au moins, quelques
inepties comme la proposition d’acquérir une version livre de poche d’un ouvrage déjà acquis en édition
brochée.
Fidèle au cadre d’évaluation déjà cité, Amazon propose à l’utilisateur d’affiner son profil en incluant,
évaluant ou excluant des éléments, dans l’espoir d’obtenir ultérieurement des recommandations plus
pertinentes.

4 Compléments algorithmiques
Une description détaillée de l’ensemble des techniques utilisées par les systèmes de recommandation
serait hors de propos ici et le lecteur intéressé est invité à se reporter à des ouvrages de base tels
(Jannach, Zanker, Felfernig, & Friedrich, 2010) ou (Ricci et al., 2011). L’analyse des publications de
l’ACM et, en particulier, celles des conférences RecSys (http://recsys.acm.org) seront un bon
complément.
Le Wikipedia francophone (http://fr.wikipedia.org/wiki/Système_de_recommandation, mai 2014)
donne une définition traduite d’une version antérieure de la page en anglais, « les systèmes de
recommandation sont une forme spécifique de filtrage de l’information (SI) visant à présenter les
éléments d’information (films, musique, livres, news, images, pages Web, etc) qui sont susceptibles
d’intéresser l’utilisateur ». Les algorithmes et leurs critères de performance seront donc dérivés de ce
que l’on trouve pour les moteurs de recherche, par exemple. Et un critère peut ainsi être de maximiser
l’aire sous la courbe ROC comparant les items renvoyés pertinents et les items non pertinents
((Herlocker et al., 2004) ; les auteurs en proposent plusieurs autres.
Courbe ROC, Receiver Operating Characteristic. Créé par les inventeurs du radar, ce graphique trace la courbe de détection d’un
phénomène en fonction du seuil choisi par l’opérateur. En X, on place le taux de faux positifs, soit (1 – sélectivité), dans notre cas les
articles non pertinents pour l’utilisateur. En Y, on a la sensibilité, soit le taux de vrais positifs ou, ici, d’articles pertinents. Si l’aire sous la
courbe vaut 0.5, c’est que l’on a en fait une droite selon la première diagonale, donc un mode de sélection aussi « efficace » qu’un simple
pile ou face. Plus on tend vers 1, plus le système est discriminant.

Il faut ensuite déterminer quels éléments du contexte de l’utilisateur en cours de traitement sont
exploitables, caractériser la base de référence ou base renseignée au sens du data mining, et trouver la
combinaison d’algorithmes, ou algorithme hybride, qui sera performante. En premier, la recherche et la
navigation dans Amazon comme sur la plupart des sites marchands sont dites à facettes, c’est-à-dire que
l’utilisateur fixe par avance le type d’article (livre, CD…) et d’autres caractéristiques objectives comme
la langue, une fourchette de prix… Toutes ces caractéristiques sont parties intégrantes du catalogue et sont
renseignées pour chaque article, ce qui réduit considérablement la taille de l’espace de référence.
Amazon ne recommande pas de CD si vous regardez un livre. Difficile en revanche de savoir si leur
système tient compte ou non, dans sa version actuelle, de possibles influences croisées.
En sus de ses caractéristiques matérielles, chaque article peut être affublé de descripteurs ou étiquettes
(tags) que l’on peut mettre en correspondance soit avec les mots de la requête soit avec les tags des
articles consultés, ou déjà achetés. Amazon utilise au moins en partie cette technique. On parle alors de
filtrage sur contenu (content-based filtering). On calcule le vecteur de préférences de l’individu, à
raison d’une valeur par tag mentionné explicitement, dans le profil ou la requête en cours, ou
implicitement via les articles consultés. La base de référence est une matrice articles × tags. Elle peut
être obtenue soit analyse automatique de contenu de l’article, lorsqu’applicable, par exemple selon les
techniques de text mining (Weiss, Indurkhya, Zhang, & Damerau, 2005). Une alternative peut être une
indexation systématique par des professionnels, à la manière du Music Genome Project de Pandora[5], ou,
mais au risque d’une précision aléatoire, selon les commentaires des autres internautes, selon une forme
de folksonomie.
À défaut, on est dans le filtrage collaboratif (collaborative filtering) : les matrices fondamentales sont
des croisements des utilisateurs et des articles, que ceux-ci soient vus, achetés ou évalués. La situation est
très semblable aux matrices termes × documents du text mining et les techniques employées seront
presque identiques, les utilisateurs jouant le rôle de documents et les articles de termes. L’analyse
linguistique des proximités entre mots se traduit par la technique item-to-item chère à Amazon. À
l’opposé, les partitions de documents trouvent leur équivalent dans les profils génériques (clusters)
d’utilisateurs. La sélection d’articles proches de celui consulté fera alors appel à un calcul de similarités
ou distances déjà évoqué et à un algorithme comme les proches voisins, utilisé largement dans les
premiers temps des systèmes de recommandation.
Proches voisins, k-NN ou k-nearest-neighbours (Wong & Lane, 1983). Cet algorithme est l’un des premiers à avoir été utilisé pour les
problèmes de filtrage collaboratif. En logique item-to-item, comme chez Amazon, la distance d’un article à l’autre est calculée selon l’un
des indices déjà décrits en encart. Ces mesures se prêtant mal aux représentations graphiques, la figure ci-après reproduit le principe des
k-NN dans un espace euclidien à deux dimensions.

Influence de k sur le résultat des KNN


L’article sera donc considéré pertinent pour un utilisateur si la majorité des articles considérés comme les plus proches du premier par les
autres internautes le sont aussi pour lui. L’efficacité de cet algorithme est fortement conditionnée par la taille du profil de l’utilisateur visé
et par l’existence d’un historique global pour cet article, aussi est-il moins utilisé.

La vraie difficulté, quelle que soit l’approche retenue, est dans la taille des matrices à traiter, dont le
nombre d’éléments peut très largement dépasser le milliard. Par chance, il s’agit de matrices creuses
(sparse matrix), dénommées ainsi car l’écrasante majorité de leurs éléments sont nuls, pour lesquelles de
techniques efficientes en termes de calculs ont été développées depuis les années 1970. On peut ainsi
projeter les articles dans un espace de dimensions réduites par la décomposition en valeurs singulières
(Singular Value Decomposition), mais rien ne permet d’affirmer qu’Amazon emploie cette technique.
En conclusion, on remarquera que l’efficacité de telles techniques est une fonction croissante du
nombre de visiteurs / acheteurs, ainsi que, mais à un degré moindre, de celle du catalogue d’articles. Les
petits sites marchands ne pourront donc que difficilement produire des recommandations pertinentes.
Compte tenu de l’impact très négatif d’une mauvaise recommandation sur la vision que se fait le visiteur
de la crédibilité du système, l’intérêt d’un tel complément du site marchand devra être pesé
soigneusement. Les responsables de sites moyens se tourneront volontiers vers des bibliothèques
logicielles implémentant ces techniques, qui sont souvent disponibles selon une licence open source,
comme la bibliothèque de recommandations pour le Content Management System Drupal
(http://drupal.org/project/recommender). Mais les très grands acteurs du Web préféreront toujours
développer eux-mêmes cet aspect éminemment stratégique de leur activité, leurs équipes participant
régulièrement à la recherche académique.

[1] Voir également les publications du séminaire « Identités Numériques » de l’Institut des Sciences de la Communication du CNRS depuis
2011.
[2] Cf. http://www.mturk.com/mturk/welcome

[3] http://chandoo.org/wp/2008/01/12/amazons-recommendation-system-is-it-crazy/.

[4] Source : Wikipédia.

[5] http://www.lemondeinformatique.fr/actualites/lire-des-malwares-derobent-des-millions-de-donnees-des-caisses-de-target-56253.html

http://www.pandora.com/about/mgp.
Partie
Communication
3

Chapitre 6 La publicité en ligne


Chapitre 7 Search engine marketing et référencement
Chapitre
6 La publicité en ligne

Stéphane BOURLIATAUX-LAJOINIE
Maître de conférences, IAE
de Tours, laboratoire Vallorem,

Objectifs

■ Comprendre les mécanismes de la publicité sur Internet.


■ Étudier les différentes formes de publicités.
■ Mesurer l’efficacité de la publicité « display ».

Sommaire

Section 1 Les origines de la publicité sur Internet


Section 2 Les formats publicitaires en ligne
Section 3 La mise en œuvre
En 2015 seront fêtés les 20 ans de la publicité sur Internet. Quel constat peut-on tirer de ces années
passées ? Trois points doivent retenir notre attention.
Tout d’abord, Internet est aujourd’hui un mass media à part entière. Avec 43,2 millions de français
connectés, Internet touche aujourd’hui tous les foyers français. Tous les acteurs des mass medias sont
présents sur ce support. Les Web séries se développent, et certaines émissions culturelles comme
« Taratata » on définitivement abandonné la télévision pour celui la Web TV.
Mais plus encore il faut voir l’évolution des usages d’Internet. Les smartphones et l’Internet mobile
avaient fait leur entrée en 2010, et ce sont aujourd’hui plus de 26 millions d’internautes qui surfent en 3G
(et quelques-uns en 4G). 8 millions de tablettes renforcent cette mobilité des connexions. Les Français
restent connectés et la publicité doit s’adapter à cette itinérance des usagers. La géolocalisation précise
des appareils devient un défi important. L’internaute mobile consulte le réseau pour connaître un prix,
choisir un restaurant, décider d’une visite touristique. Le localiser pour lui communiquer la bonne
proposition commerciale est primordial.
Enfin, nous assistons aujourd’hui à la convergence d’un Internet qui développe ses propres formats
publicitaires avec un Internet qui n’est qu’un vecteur de publicités et d’émissions télévisuelles et
radiophoniques. Dans le premier cas, les formats publicitaires tendent à se généraliser, de la bannière à
l’interstitiel ; les recommandations de l’Internet Advertising Bureau, sont aujourd’hui devenues des
quasi-normes. Mais dans le second cas, la généralisation des rediffusions de programmes (Replay ou
rediffusion à la demande[1]) bouleverse la donne. Cette possibilité a complètement restructuré la grille
télévisuelle des usagers notamment les adolescents et jeunes adultes. Il n’est pas rare de voir des usagers
glaner sur les différents sites de rediffusion pour réellement recomposer une chaine qui correspond à
leurs attentes. Comment intégrer alors une cohérence dans la couverture publicitaire d’une campagne ?
Ce chapitre s’articule autour de trois grandes parties. Nous nous interrogeons tout d’abord sur les
origines de la publicité sur Internet, notamment la relation qu’elle entretient avec les formats télévisuels
et presse. L’apport technologique du rich media est également mis en avant. Puis la seconde partie nous
permet d’aborder les formats de cette publicité. Ces derniers peuvent être purement Web ou hybrides
entre le monde virtuel et le monde physique. Enfin, la troisième partie traite des outils de mise en œuvre
de la publicité, trois points sont analysés : le media planning, la mesure d’efficacité et les méthodes de
tarification.

Section 1 LES ORIGINES DE LA PUBLICITÉ SUR INTERNET


« Have you ever clicked your mouse right here[2]? » Cette toute première bannière va marquer le début
d’une nouvelle ère pour les publicitaires. L’apparition d’un média interactif ouvre de nouvelles
opportunités pour les annonceurs. Mais plusieurs interrogations vont rapidement apparaître. Elles
concernent tout autant la nature du média que son aptitude à toucher individuellement les consommateurs.
Hussherr et Rosenvallon (2001, 2007) ont popularisé la terminologie d’« Internet 6e média ». Leur
approche pragmatique montre l’importance et l’opportunité d’Internet comme canal de communication. En
2001 la technologie des réseaux était suffisante pour que ces auteurs posent les premières orientations
publicitaires du Web.
La notion de publicité personnalisée va très rapidement émerger, remplie d’espoir
d’ultrapersonnalisation de la relation annonceur/prospect. Mais peut-on réellement parler de one to one ?
Les chercheurs sont divisés sur ce point ; Jackson (2007), Tianyi et Tuzhilin (2009), Perugini (2010). Si
la technologie permet d’analyser quasiment en temps réel les comportements de navigation et de proposer
un message adapté à chaque segment, le volume de données existantes ainsi que la faible rentabilité de ce
type de méthode aboutissent bien souvent à du one to few et non du one to one. L’apport principal se situe
dans la relation entre l’utilisateur et la publicité. Pour la première fois, un média réellement interactif
permet d’inviter le consommateur à interagir avec un message, il peut cliquer, déplacer des objets,
effectuer un choix dans une liste, etc. Certes Internet n’est pas encore tout à fait un média de masse mais
la population des internautes augmente rapidement et les publicitaires se sont intéressés très tôt à ce
nouveau support.

Focus 6.1
One to one et one to few
Le marketing one to one a pour objectif d’adapter le prix, le produit, le packaging ou la distribution
à chaque prospect. La démarche one to one est liée à l’utilisation d’une gestion de la relation client
(GRC) et du data mining, l’analyse de ces données permet d’adapter les 4P aux attentes du
prospect. Par extension, le terme s’emploie pour un média qui permet une personnalisation de
l’annonce ou du service. L’interactivité du réseau Internet, sa souplesse de programmation et le
faible coût de la personnalisation d’une offre ont rapidement permis d’imaginer un très fort taux de
personnalisation. En publicité, il est très difficile d’arriver à un tel niveau de spécialisation du
message. L’absence d’identification volontaire (nom de connexion et mot de passe), les ordinateurs
familiaux fonctionnant sous un même compte, l’anonymat des cybercafés, sont autant de limites à la
connaissance de « qui » est l’utilisateur. Le volume de données collectées et à analyser est tel qu’il
est, à ce jour, plus rentable de travailler sur des segments de consommateurs qui semblent avoir les
mêmes comportements, on parle alors de one to few.
Mais ces notions évoluent très rapidement. Les récents travaux sur le « big data » (Fulgoni, Gian,
2013) permettent aujourd’hui d’envisager une extraction de données bien plus fine, et pour un coût
économiquement acceptable. Peu à peu le marketing se rapproche de l’utopie du one to one.
L’acceptation et l’utilisation du média Internet par les publicitaires vont donner une impulsion à la
création publicitaire. Les faibles coûts de création ainsi que l’évolution des langages de programmation
vont permettre l’apparition régulière de formats.

1 La publicité sur Internet, quelles formes ?


La publicité sur Internet peut se scinder en deux grandes catégories, la première regroupe ce que l’on
nomme communément le « display » ou affichage. Cette forme est bien connue des utilisateurs qui
rencontrent nombre de bannières ou de pop-up lors de leur navigation.
La seconde catégorie qualifiée ici de « hors display » regroupe les méthodes publicitaires qui utilisent
Internet comme support sans pour autant afficher leur contenu de manière explicite. L’utilisation des codes
QR, le Call Back sont autant de forme de publicité sur Internet qui sont « hors display ».

1.1 La publicité sur le Web est-elle une publicité intrusive ?


Historiquement, la communication proposée sur le Web est directement issue de la communication
télévisuelle. L’analogie entre le moniteur de l’ordinateur et la télévision a largement contribué à cette
démarche. Il fut donc tout « naturel » de trouver sur Internet l’utilisation de formats publicitaires
directement issus de la télévision. À titre d’exemple, le principe du spot publicitaire qui interrompt une
émission a donné naissance par analogie au pop-up qui apparaît sur la page d’un site. Ces formats sont
perçus comme bien plus intrusifs sur Internet. Une publicité en plein écran qui apparaît comme normale
sur la télévision sera rédhibitoire sur Internet. Le cas du site www.allocine.fr est ici un exemple
intéressant. Lorsque l’internaute accède au site Internet de cet éditeur, la bande-annonce des films du
moment s’affiche en plein écran (méthode éminemment télévisuelle) stoppant ainsi la navigation. Mais
l’éditeur doit tenir compte de la spécificité d’Internet il a donc ajouté une option « accéder directement au
site » qui apparaît en haut à droite du site. Une telle option serait inenvisageable en télévision.
Internet rompt les deux règles fondamentales de la publicité :
La publicité n’est pas désirée par l’utilisateur
La publicité est basée sur un rapport gagnant / gagnant entre le consommateur et l’annonceur.
L’illustration de cette double règle est parfaite dans la publicité sur les chaînes télévisuelles.
Il est assez peu fréquent de voir un consommateur attendre avec avidité la coupure publicitaire pour
découvrir de nouveaux messages. La publiphobie, même légère est un comportement naturel pour le
téléspectateur. Ce dernier accepte implicitement les coupures publicitaires car, en contrepartie, il est
conscient que la publicité finance l’achat de droits de diffusion pour des programmes qui lui plaisent, les
deux parties sont ainsi gagnantes d’un point de vue satisfaction. Cette réaction montre bien que dans
l’esprit des téléspectateurs, le rôle de la publicité n’est plus uniquement informatif ou même commercial.
La fonction de la publicité est implicitement de cofinancer la programmation des chaînes. Cette
perception du rôle économique des publicités est valable pour l’ensemble des mass medias. Dans le cas
de la publicité en ligne, le consommateur perçoit moins bien le lien entre la publicité sur le site et le
financement de ce dernier. Internet véhicule l’image d’un média de gratuité et la notion même de
financement du rédactionnel est encore embryonnaire pour le consommateur. La faible utilisation de la
personnalisation dans les pop-up renforce le sentiment d’agressivité et d’inutilité de la publicité, McCoy
et al (2007), Harrison (2010). Ce n’est pas parce que le consommateur est soumis à plus de publicité que
le contenu des sites est de meilleure qualité ou plus adapté à ses goûts. De plus, l’augmentation de la
publicité peut ralentir la vitesse de connexion, perturbant encore plus la navigation sans compenser le
prix payé via l’abonnement. Au lieu d’apporter un gain économique ou informationnel, la publicité est ici
perçue comme une gêne à la navigation, d’où les réactions publiphobes sur Internet. Enfin, avec Internet
le consommateur dispose pour la première fois d’un moyen technique simple pour supprimer les
messages publicitaires « au vol », aujourd’hui tous les navigateurs proposent naturellement une option
« anti pop-up » dans leurs paramétrages.

DÉFINITION
Une publicité intrusive est une publicité qui vient interrompre la navigation de l’internaute. Elle peut revêtir plusieurs formes :
l’ouverture d’une fenêtre en surimpression de la page visitée ou l’apparition d’un message nécessitant une réaction.

1.2 La relation entre la publicité et le support Internet


Deux éléments caractérisent cette relation, tout d’abord la spécificité de la publicité dans son
environnement puis sa spécificité liée à l’interactivité.
Le premier élément de cette relation entre la publicité Web et son support est son intégration dans
l’environnement rédactionnel du site. La publicité sur Internet est très particulière, elle est à la fois basée
sur une logique télévisuelle tout en ayant un format issu de la presse. La logique télévisuelle s’exprime
via les stimuli utilisés : audio/vidéo. La contrainte d’un format presse est liée à la surface des encarts
publicitaires, ils ne recouvrent qu’une partie de l’écran et sont ainsi environnés d’un texte sur lequel le
consommateur a concentré son attention. Le texte étant la principale raison de sa venue sur le site, la
publicité vient perturber le processus de décodage de l’information en introduisant un élément parasitaire
à traiter.
Cette logique est proche des contraintes de la presse papier sans en être parfaitement identique.
Lorsqu’un encart de publicité vient interrompre la lecture d’un article dans un journal, il est délimité par
une surface précise sur la page. C’est d’ailleurs un des critères de tarification (un quart de page, un
douzième de page, etc.)[3]. Il existe dans ce cas une importante différence dans le traitement cognitif de
l’information. La délimitation graphique de la publicité est très nette dans la mise en page du journal,
ainsi le lecteur appréhende immédiatement les zones d’information et les zones de publicité. Le traitement
de l’information « rédactionnelle » et de l’information « publicitaire » est mieux appréhendé par le
lecteur. Dans le cas d’Internet, la zone publicitaire (le pop-up) est en surimpression du texte, ce qui nuit à
l’analyse du message (Jeong, King 2010).
Le second élément est lié à l’interactivité du support : pour la première fois le consommateur possède
un vrai pouvoir coercitif à grande échelle face aux annonceurs. Cette dimension est nouvelle pour les
agences et les annonceurs. Elle a comme conséquence directe l’automodération des propos des
annonceurs. Internet est le seul média sur lequel le consommateur possède un vrai pouvoir face à la
publicité. Ce pouvoir se manifeste sous deux formes, la première est technique et la seconde
comportementale :
outil technique, le filtre anti pop-up ou « le bloqueur de fenêtres publicitaires intempestives » est
intégré dans l’ensemble des navigateurs[4]. Il permet au consommateur de paramétrer à sa
convenance le degré d’intrusivité d’un site en autorisant ou non l’affichage de nouvelles fenêtres
dans le navigateur. Un consommateur peut assez simplement diminuer la pression publicitaire sur
Internet. Il ne faut cependant pas négliger le sentiment d’impuissance ou de résignation de bon
nombre de consommateurs face à la publicité en ligne, plusieurs d’entre eux ne connaissant pas
l’existence ou l’utilisation du filtre dans leur navigateur. Plusieurs associations de publiphobes sont
présentes sur Internet et proposent aux consommateurs des explications simples et pédagogiques
pour apprendre à naviguer sans publicité tout en contournant les stratégies marketing. Le site
http://www.respire-asbl.be/Comment-surfer-sans-pub-Manuel propose une revue des techniques
utilisables par un consommateur sans connaissance particulière en informatique ;
outil comportemental, le buzz est la manifestation la plus active de l’avis des consommateurs sur
Internet. Ce dernier peut faire connaître son mécontentement ou relayer les opinions populaires
auprès de ses amis. Les blogs, les forums sont autant de tribunes dans lesquelles l’internaute dépose
ses retours d’expériences liés à sa consommation et des billets d’humeur sur les pratiques marketing
des entreprises.

1.3 Internet, un média publicitaire ?


La question est complexe. Certes Internet est utilisé comme un média publicitaire mais la variété des
formes publicitaires développées sur ce canal est sans précédent. Nous présenterons dans un premier
temps les formats publicitaires en ligne que l’on peut qualifier de traditionnels. En cela ils sont soutenus
et normalisés par les agences de communication et l’IAB (Internet Advertising Bureau). En complément
de cette fonction classique d’affichage publicitaire (dénommé à juste titre le « display ») coexiste
d’autres formats qui se complètent. Le référencement naturel (ou encore organique, ou Search Engine
Optimisation) est aujourd’hui un élément incontournable pour espérer avoir une visibilité parmi les
quelque 2,7 millions de sites Web français[5]. Mais ce référencement est depuis longtemps complété par le
référencement payant via les mots clés (adwords), qui lui-même s’inscrit dans une stratégie de notoriété
sur le réseau (Search Engine Marketing). Cette stratégie passe par la création et l’animation d’une page
dans les réseaux sociaux (76 % des internautes sont présents au moins sur un réseau social), par la
gestion de la communication sur Twitter, par les vidéos déposées sur les plateformes de partage, par les
applications mises à disposition, tous ces éléments qui convergent vers une notoriété / publicité dans
laquelle la frontière est mince entre l’information, l’info-consommation et la publicité. Ajoutons à cela
l’engouement pour la co-création de valeur, action par laquelle le consommateur est amené à interagir
avec la communauté des usagers pour s’exprimer sur son utilisation du produit acquis. Nous voici ici,
entre le communautarisme, le marketing expérientiel et la collaboration entre client. Comment positionner
une stratégie de communication lorsque cette dernière revêt autant de formes différentes et
complémentaires et lorsqu’autant d’individus, dont les préoccupations sont très diverses, s’expriment
sans modérateur ? « Buzz » et « bad buzz » s’entrechoquent en parallèle des campagnes officielles qui ont
de plus en plus de mal à capter l’attention. Il faut être créatif, innovant, impliquer le consommateur dans
la propagation de la communication et valoriser son rôle de relais médiatique.

Section 2 LES FORMATS PUBLICITAIRES EN LIGNE

Ces formats sont au nombre de deux : il s’agit du display et du hors display.


Le display regroupe l’ensemble des affichages que l’on peut faire sur un écran d’ordinateur, une tablette
ou un smartphone. Cela va de la plus simple bannière aux créations interactives les plus élaborées.
Le hors display regroupe quant à lui les créations qui s’appuient sur l’interaction entre les sites et sur
la convergence des médias. Cette dernière permet de coupler une campagne Internet avec un autre support
de communication tel que la télévision ou la presse papier.
Leur présentation et analyse structureront les trois parties de cette section.

1 Le display
Premier élément de notre présentation, le display, plus ancien format de communication sur le Web, est
ici présenté au travers de ses formats les plus répandus. L’IAB-France (Internet Advertising Bureau) édite
sur son site Web (www.Iabfrance.com) des propositions de normalisation des formats publicitaires. Ces
recommandations sont aujourd’hui suivies par la majorité des agences de communication.

1.1 Les formats


■ Les bannières et les mégabannières 728 × 90 (Leaderboard en anglais)
Ce sont les plus anciennes formes de publicité sur Internet. Elles sont apparues dès 1994. Elles peuvent
être des images fixes (au format .gif ou JPEG) ou animées (au format .gif animé ou en flash). Malgré son
ancienneté, ce format est toujours très utilisé et les dernières recherches tendraient à prouver une
influence des antécédents culturels et personnels sur leur efficacité (Möller 2010).
■ Le pop-up 300 × 250
C’est une image fixe ou animée qui apparaît en superposition de la page Web. Très intrusif, le pop-up
est une forme de publicité qui existe depuis la fin des années 1990.

■ Le skyscraper 120 × 600


Ce format modifie profondément l’ergonomie de la page site en compactant le texte dans la partie libre.
Il est surtout utilisé pour des créations graphiques qui sont ainsi mises en valeur dans une zone aérée.
Malgré ses défauts, sa forme verticale introduit une rupture dans l’affichage classique des publicités Web.
De fait, il est assez bien apprécié par les internautes.

■ Le pavé 300 × 250 (Medium rectangle en anglais)


C’est une surface carrée qui s’affiche toujours au même endroit dans la page du site. Il contient la même
publicité pendant une durée donnée. Le pavé est l’adaptation directe de « l’encart » utilisé en presse.
■ Le flash transparent taille variable
Cette technologie permet de superposer, sur tout ou partie de l’écran, un message publicitaire. La
surimpression se fait en toute transparence et ne modifie pas l’ergonomie du site support. Le créatif peut
ainsi utiliser toute la surface de l’écran sans avoir à gérer une modification de l’ergonomie. Une fois le
message diffusé dans son intégralité, le « calque » contenant la publicité disparaît, restituant le site
habituel. Le principal inconvénient de ce type de format est qu’il interdit l’utilisation du site durant son
affichage. Afin de minimiser l’inconfort, il peut être utilisé avec une méthode de capping (seuil maximal
d’affichage).

■ Le billboard 970 × 250


Ce format permet d’incruster une vidéo en streaming sur une page. Il n’existe pas de format imposé
pour la durée de la vidéo, mais l’IAB recommande de ne pas dépasser les 10s. Ce type de publicité se
heurte aux contraintes d’équipement des machines (haut-parleurs branchés, son activé) tout autant qu’au
débit des lignes ADSL (effets de saccade, temps de chargement). Son aspect ressemble à une vidéo
YouTube insérée dans une page Web.
■ L’expend banner 300 × 250 => 300 × 600
Ce type de format est particulièrement intrusif. La partie supérieure de la bannière se « déroule » durant
2 à 4 secondes, interdisant toute utilisation du texte masqué et toute option de fermeture. Puis la bannière
reprend une dimension classique, permettant la navigation sur la page. Les expend banner sont utilisées
conjointement au système du capping qui permet de contrôler, au moins en partie, la fréquence
d’apparition du message.
■ L’out of the box
Ce format peut prendre la forme d’un rectangle de type pop-up mais aussi d’un logo ou d’un objet.
L’objet va suivre le mouvement de la souris sans que cette dernière puisse le rattraper pour le fermer.
Cette forme de publicité peut assez facilement déclencher un effet de mécontentement. Ses messages sont
utilisés avec un temps d’affichage court (3 à 5 secondes maxi) afin de minimiser les réactions négatives.
■ L’in-text
Ce format surligne un mot dans le texte. Lors du passage de la souris sur ce mot (généralement souligné
en bleu), une bulle contextuelle s’ouvre. Elle contient un message publicitaire ou un visuel publicitaire
ainsi qu’un lien vers le site de l’annonceur. Le principal reproche fait aujourd’hui à ce type de format est
que la publicité est contextualisée avec le mot surligné mais rarement avec le thème de l’article dans
lequel le mot est inclus.
■ La bannière vidéo 300 × 250 (video in banner en anglais)
Ce format permet d’incruster une vidéo publicitaire dans une zone dédiée à une bannière classique.
■ Le Slide-in taille variable
Ce format propose l’apparition en surimpression, et généralement calé sur la partie gauche de l’écran,
d’un pop-up qui suit le déroulement vertical de la page. Ce format est assez intrusif et il est nécessaire de
bien signifier la zone de fermeture, en effet, son affichage peu empêcher la lecture du texte.

Focus 6.2
Le streaming
Le streaming est une technologie de lecture d’un fichier vidéo ou audio en temps réel. L’ordinateur
de l’utilisateur n’enregistre que quelques secondes du fichier (généralement 5 secondes) afin de
créer une zone tampon. Puis le fichier est diffusé durant les 5 secondes alors que les 5 secondes
suivantes se chargent dans la mémoire de la machine. Ceci permet de palier les variations de débit
du réseau Internet, d’éviter des temps d’attente trop longs sur les fichiers volumineux et enfin de
limiter au maximum les risques de piratage du fichier. En théorie, seules les 5 à 10 secondes
diffusées et les 5/10 secondes de mémoire tampon (cache) sont inscrites sur le disque dur de la
machine. Il existe plusieurs formats de fichiers en streaming. Il est important de modérer le succès
du streaming en notant sa dépendance aux débits des réseaux. Regarder une vidéo en streaming sur
un format billboard en disposant d’une ligne ADSL de 512 Ko s’avère impossible (effet de saccade
de l’image). Les récentes évolutions des débits des lignes permettent d’envisager à moyen terme une
augmentation significative de ce type de message. Les opérateurs offrent aujourd’hui des débits
théoriques allant jusqu’à 1 giga bit et la 4G est une évolution qui ouvre de nouvelles perspectives
pour le streaming sur les terminaux mobiles.
Il ne faut cependant pas oublier que la couverture 4G tout comme la couverture 1Gb reste, début
2014, relativement faible sur le territoire français.

1.2 Le capping
Comme nous l’avons vu, plusieurs formats de display sont intrusifs. Afin de contrecarrer l’effet négatif
qu’ils peuvent engendrer, les agences apportent une attention particulière à la diffusion de ces publicités.
Pour minimiser tout rejet tout en utilisant ces formats, elles mettent en place un seuil d’exposition
individualisé et sur une période donnée. Ce système de seuil se nomme le capping. Cette technique
s’appuie sur l’utilisation des cookies rattachés à un profil d’internaute.
Le fonctionnement est assez simple. Pour gérer le nombre d’expositions par utilisateur, le serveur de
publicité expédie sur la machine de l’internaute un cookie[6], une sorte de mouchard, qui s’inscrit sur le
disque dur et attribue un numéro de client au consommateur. Durant l’intervalle choisi (24 heures,
48 heures ou plus), le cookie se signalera à chaque connexion sur le site. Si le capping de la publicité Y
est de 3/24 heures, cela signifie que pour un même internaute (en réalité un même cookie) qui se connecte
au site plusieurs fois durant une période de 24 heures, il ne sera exposé à la publicité Y que trois fois au
maximum. Une fois ce seuil atteint, le serveur attribuera automatiquement un autre message à cet
internaute. Dans le même temps, un autre internaute qui n’a pas encore atteint son seuil de 3 occasions de
voir (ODV) se verra réafficher le même message, atteignant peu à peu son « cap ».
Cette technique permet donc de gérer individuellement le nombre d’ODV d’un message optimisant ainsi
son impact (Taylor et al., 2006). Cependant, elle se heurte à une limite importante. Il suffit à l’internaute
de purger ses cookies afin d’annuler tout décompte de ses ODV et de redevenir un « nouvel » utilisateur
pour le serveur de bannières, le bénéfice de la personnalisation des ODV est ainsi perdu.

2 La publicité « hors display »


Second élément de notre présentation, la publicité hors display regroupe un ensemble de méthodes de
communication basées sur les technologies interactives du réseau. Les possibilités techniques d’Internet
ont ouvert une large palette de stratégies de communication, inspirées de pratiques du monde « réel[7] »,
adaptées et amplifiées par Internet. Notre analyse se focalisera sur des formes de communication qui vont
crescendo dans la complexité de la mise en place. Il est à noter que cette complexité ne va pas forcément
de paire avec l’efficacité, certains outils simples s’avérant très efficaces.

2.1 Les liens croisés et l’affiliation


Le lien croisé est un simple échange de références de sites, sans contrepartie financière. En revanche,
l’affiliation est comparable à du recrutement de prospect via un site partenaire. Dans ce dernier cas il y
aura versement d’une rétribution.
Les liens croisés ou référencements croisés sont un bon moyen de communication à moindre coût. Deux
sites Web qui proposent des produits complémentaires vont échanger leur URL, indiquant ainsi l’adresse
du site à laquelle le consommateur peut se fournir. À titre d’exemple, un site Web qui ne propose que la
vente de foie gras en conserve indiquera sur chaque présentation de ses produits un lien vers un vigneron
qu’il aura sélectionné. La réciprocité sera effectuée sur le site du vigneron. Il s’agit ici d’un simple
échange de bons procédés, il n’y a pas de commission reversée, ni de contrat de location d’un espace
publicitaire. C’est la traduction sur Internet de l’attitude d’un commerçant de quartier qui donne un
conseil verbal à un client afin de l’aider à trouver un produit complémentaire.
L’efficacité est importante car le consommateur utilise ainsi la complémentarité des services proposés
sur Internet, sa satisfaction augmente, ce qui peut, à terme, augmenter sa fidélité au site. De plus, il y a un
transfert de confiance depuis le site prescripteur vers le site conseillé.
L’affiliation est une version plus complexe et rémunérée du lien croisé. Un prescripteur va
recommander le produit d’un site Internet moyennant une commission qui peut être fixe ou indexée sur les
achats. Le cas le plus connu sur Internet est sans conteste Amazon.com qui a créé sa notoriété sur ce
principe.
La stratégie de Jeff Bezos (le fondateur d’Amazon) est d’utiliser des prescripteurs qui vont contribuer
au développement de la notoriété du site Web. Le concept est simple : tout prescripteur (site Internet,
professeur, journaliste, etc.) qui recommande l’achat de livre sur le site d’Amazon peut recevoir une
commission. L’affiliation se traduit par un code spécifique (un tracker) dans l’URL de renvoi vers la
librairie. À la fin de la période de référence, le nombre de connexions en provenance de chaque site
prescripteur est calculé et le panier moyen d’achat donne lieu à une commission.
On peut distinguer les commissions au forfait (un nouveau prospect donne droit à X centimes d’euros)
de celles indexées sur le montant du panier acheté. Mais l’affiliation a également donné lieu à de
multiples procès et problèmes car elle nécessite une grande planification des scénarios possibles :
un prescripteur payé forfaitairement pour chaque client pourrait très facilement cliquer sur le lien
qu’il propose afin d’augmenter sa rémunération ;
un prospect peut très bien suivre le lien proposé, choisir l’ouvrage recommandé mais, par faute de
temps, ne pas réaliser immédiatement son achat et revenir sur le site de lui-même (donc sans cliquer
sur le lien « traqueur ») quelque temps plus tard. Si le prescripteur est rémunéré par rapport à la
prescription réalisée, il ne sera pas rémunéré alors qu’il a réellement contribué ;
enfin un prospect peut suivre le lien proposé, ne pas acheter l’ouvrage recommandé mais profiter de
sa présence sur le site pour acquérir un autre type de produit. Si le prescripteur est rémunéré par
rapport à la prescription réalisée, il ne touchera aucune commission alors qu’un achat a bien été
réalisé.
Il existe une multitude de variétés de contrats et de risques de contournement des clauses, de ce fait le
contrat d’affiliation est un outil certes efficace mais qui peut se révéler bien délicat à mettre en place de
façon rentable pour l’entreprise.

2.1 Les sites dédiés


Les sites dédiés sont des sites Internet affectés à la promotion unique d’un produit ou d’une marque
d’un groupe. Ils évitent à la communication d’être noyée dans un flot médiatique. Pour être efficace, le
site dédié doit bénéficier d’un très bon référencement ou d’un excellent buzz sur Internet. Le site dédié est
un complément à une autre communication, il ne s’utilise pas seul, il vient en appui d’une méthode de
communication média ou hors-média traditionnelle. Le site lego star wars s’inscrit dans cette logique
(disponible à l’adresse www.lego.com). Il ne propose pas de vente directe des produits lego, mais met
en scène l’univers de la marque. Le consommateur peut alors être redirigé vers le site commercial
(shop.lego.com) qui lui, assure la vente en ligne.

2.3 La publicité dans les jeux


On parle d’in-game advertising (IGA) ou d’advergames. Leur nom vient de la contraction des deux
termes anglais : advertising et games. Partant du constat que les consommateurs sont très sollicités par la
publicité traditionnelle, l’advergame prend à contre-pied les schémas classiques. Il propose un jeu ou une
vidéo dans lequel la publicité prend une place naturelle. Ces applications ludiques ont pour premier
objectif de capter l’attention via l’affectif, puis de délivrer leur message. Le but est tout à la fois de
donner une image jeune à la marque grâce au ton (souvent décalé), au support, à la méthode de diffusion
(la rumeur) et au côté « complice » de la marque qui investit pour divertir les internautes. L’influence de
ce type de publicité est complexe à évaluer. Terlutter et Capella (2013) proposent un modèle d’analyse
particulièrement complet de l’efficacité de ces messages. Ils prennent notamment en compte le type de
message publicitaire, le type de jeux, la congruence entre le message et le jeu ainsi que les facteurs
situationnels du joueur. Leur étude s’intéresse à la mémorisation du message publicitaire inclus dans le
jeu.
Cette pratique existait déjà de façon statique dans les jeux de courses de voitures : les emplacements
des messages et les images sont prévus dès la conception du jeu. Le prinicpe reposait alors sur du
« product placment » comme il en existe au cinéma depuis des années. Aujourd’hui, avec les puissances
de calcul des ordinateurs, c’est une publicité dynamique qui apparaît, il est possible de calculer en temps
réel la probabilité d’exposition d’un joueur au message en étudiant la zone où se passe l’action par
rapport à la zone où est affichée la publicité. En fonction du résultat, il est possible de repositionner le
visuel de la marque dans une zone à plus forte probabilité de vision. Les jeux sont développés en tenant
compte d’espaces d’affichages vierges qui seront affectés au fur et à mesure des calculs du logiciel. Les
consoles de jeu Xbox 360, Playstation III et Wii connectées au réseau intègrent cette option à leurs jeux.
Mais les éditeurs restent discrets sur les jeux qui utilisent ce type de technologie. Les travaux de
Zackariasson et al. (2010) montrent l’intérêt de ces marchés potentiels sur la création de l’identité de
consommateur des participants. La marque s’intègre mieux à l’environnement du jeu et aux réactions de
l’utilisateur. Il est à noter que ces résultats sont corroborés par plusieurs études professionnelles. L’étude
GFK/Médiamétrie annonce 38 % des marques « restituées » pour un jeu de course automobile et 50 %
pour un jeu de foot, et 40 % des joueurs déclarent être plus enclins à acheter une marque/un produit après
avoir été exposés au message in-game.

2.4 Les fonds d’écran et économiseurs d’écran


Les fonds d’écran sont particulièrement intéressants comme supports publicitaires. Cette publicité n’est
absolument pas perçue comme intrusive ou agressive par les consommateurs puisqu’ils font eux-mêmes
l’action de télécharger le fichier fond d’écran. Cette publicité est généralement qualifiée de « rémanente »
car elle est à la fois faiblement intrusive, tout en ayant une forte exposition. Un fond d’écran sur le bureau
d’un ordinateur sera vu par l’utilisateur à chaque fois que ce dernier changera d’application en basculant
de fenêtre, ce sont donc plusieurs occasions de voir qui se présenteront chaque jour.
Des marques comme Coca-cola ou Lego utilisent abondamment ce type de publicité pour proposer des
fonds d’écran à télécharger. Une version plus élaborée intègre un programme de mise à jour qui se
connecte automatiquement à un serveur afin de changer l’image de fond d’écran au bout d’une durée
préprogrammée (par exemple chaque jour). Ceci ayant pour but d’éviter la lassitude du consommateur qui
voit ainsi son bureau changer tout en restant dans l’univers d’une marque souhaitée.
Les économiseurs d’écran ont quant à eux une efficacité moindre en termes de mémorisation car, par
leur nature, ils ne sont censés se déclencher qu’une fois l’utilisateur parti, ce qui bien évidemment
diminue le nombre d’occasions de voir. L’économiseur d’écran de la société Aubade avec ses « leçons »
est un grand classique qui est toujours en tête des téléchargements.

2.5 Le call-back
Le call-back est l’association de la communication sur Internet et du téléphone. Avec cette méthode, il
est proposé à l’internaute de s’inscrire pour participer à un « événement » particulier durant lequel il
pourra interagir avec le site. La phase d’inscription sert à enrichir la base de données de l’annonceur en
lui permettant de collecter des informations de bonne qualité (l’internaute n’a aucun intérêt à mentir en
laissant ses informations sous peine de ne pas pouvoir participer). Lors du « jeu » une interaction est
réalisée entre les actions de l’internaute sur le site et son téléphone. En France, la SNCF avec sa
campagne « SOS bonnes excuses » et Orange avec sa campagne « Chabal et Orange Foot » se sont
particulièrement distingués dans ce type de campagne.
La campagne SNCF avait pour but de capter les utilisateurs professionnels. La campagne Web venait en
complément des messages radio. Sur le site Internet Sosbonnesexcuses.com il était proposé à l’internaute
une série de bonnes excuses pour arriver en retard au bureau ou en réunion. Il était demandé de laisser les
coordonnées nominatives, téléphoniques et mail de l’internaute ainsi que celles de son supérieur, puis la
société, le poste exercé et enfin la date et l’heure de la réunion. Quelques minutes avant la réunion, le
supérieur hiérarchique de l’internaute recevait un mail présentant une excuse plus ou moins fantaisiste
afin de justifier le retard. La force du call-back : que lors de la présentation de l’excuse via une vidéo en
ligne, le téléphone de l’interlocuteur sonne et un message personnalisé directement lié à la vidéo soit
diffusé. L’impression d’immersion de la personne dans le message publicitaire était très forte. Les
excuses étaient quant à elles suffisamment surprenantes pour ne pas être crédibles tout en étant
humoristiques afin de déclencher un affect positif. À titre d’exemple, les excuses les plus utilisées sur le
site SNCF furent : l’attaque par un gorille et la double vie d’agent secret. La campagne fut suivie d’une
relance personnalisée afin de proposer les offres professionnelles de la SNCF.
La campagne Orange-foot avait pour but de faire connaître les services sportifs (et principalement le
service Orange-foot) de l’opérateur mobile. L’utilisation d’un joueur connu comme Sébastien Chabal a
permis de créer un buzz important autour de l’opération de communication.
L’internaute était invité à laisser ses coordonnées sur un site d’inscription, il pouvait alors se connecter
sur le site où il visionnait une vidéo de Chabal hésitant à tirer une pénalité. Ce dernier prenait son
téléphone et appelait directement l’internaute (qui avait laissé son nom et son numéro de téléphone). Ce
dernier devait aider Chabal en choisissant à l’aide du clavier où tirer son penalty. L’internaute avait le
sentiment d’être en relation directe avec Chabal. La base de données ainsi constituée a permis de
proposer de nouvelles offres aux abonnés Orange (offres de découverte, augmentation des services liés
au forfait) et de tenter de conquérir de nouveaux clients.
Ce type de message interactif déclenche un buzz important auprès des internautes, mais il ne faut pas
sous-estimer l’importance de l’amorce de la campagne. Dans les deux cas illustrant ce paragraphe,
l’agence a beaucoup investi dans la préparation de la cible, créant l’attente afin de capter l’audience.

2.6 Les codes QR


C’est une forme de communication en plein essor qui allie les méthodes de communication classiques
avec l’informatique nomade et Internet. Ce code-outil devient un support de communication dont l’image
jeune et technique plaît aux agences et aux utilisateurs.
Les codes QR sont une nouvelle génération de codes-barres. Ils sont présents sur les tickets des
musées, les entrées aux monuments afin d’identifier un client et ses informations (le prestataire qui a
fourni le billet, la date d’achat, les conditions, etc.). En publicité, ils sont couplés à de l’affichage. Pour
utiliser ce type de code, il faut disposer d’un téléphone portable de type smartphone, il est nécessaire de
« photographier » le code QR et de le traiter avec un logiciel spécifique. Ce traitement est en réalité le
décryptage des informations contenues dans le code QR, ceci permet au smartphone d’interagir avec le
code, il peut par exemple ouvrir une page Web avec des indications sur le produit affiché, créer une carte
de visite avec des coordonnées, télécharger un document, etc. Le code QR se prête aisément à la création
graphique, il est possible de le retravailler pour intégrer un logo en son centre, de jouer sur les couleurs,
les formes, les effets de reliefs. Sa seule contrainte tient à l’intégrité de l’information codée. Il faut
toujours coder une url la plus courte possible, d’où le recours à des « réducteurs d’adresse » afin de
minimiser l’information codée. Il sera ainsi possible de lui faire prendre de multiples formes sans
dépasser le taux de perte maximal admis qui est de 20 %. Dans son codage le QR Code inclut un système
de redondance qui permet ainsi la perte de 20 % maximum des informations graphiques sans altérer
l’intégrité de l’information codée.

2.7 Les pages sur les réseaux sociaux numériques


Ce ne sont pas des publicités au sens strict du terme. Mais face au nombre croissant d’utilisateurs de
réseaux sociaux, les entreprises ont trouvé là une solution économe pour développer leur notoriété.
D’après l’Harvard Business Revue[8] 76 % des entreprises utilisent ou planifient d’utiliser les réseaux
sociaux pour leur communication. Bien évidemment les usages sont fort différents entre la simple
présence et la gestion d’une vraie communication via les réseaux sociaux numériques. Toutes les
entreprises n’ont pas recours à une agence spécialisée ou à un community manager. La segmentation des
réseaux sociaux (professionnels, privés, communautaires, etc.) et le nombre croissants d’internautes
visitant les réseaux sociaux (plus de 3 milliards début 2014) offrent une vitrine particulièrement
intéressante pour les entreprises. Cinq points retiennent à l’évidence l’attention des marketeurs :
La quasi-gratuité de la création d’une page entreprise sur l’ensemble des réseaux sociaux numériques.
La généralisation du modèle « freemium » (accès basique gratuit, puis services additifs payants) a permis
l’implantation rapide des entreprises sur les réseaux.
L’opportunité de développer sa notoriété. Avec 27 millions d’utilisateurs en France début 2014 (dont
70 % se connectent au moins une fois par jour), ce réseau est rapidement devenu un incontournable pour
les entreprises qui veulent s’adresser au grand public.
La possibilité de communiquer à moindre frais, généralement par des opérations hors média
(couponing, invitation, jeux concours). Les outils mis à disposition pour les réseaux sociaux permettent de
qualifier et de segmenter les « fans » d’une entreprise. Il est ainsi possible de mettre en place des
opérations ponctuelles visant certains segments.
Travailler la relation client. L’entreprise peut facilement interagir avec les usagers, elle peut poster
plusieurs informations sur ses lieux de vente, ses produits et ainsi créer un rappel régulier dans la
mémoire du consommateur. C’est également l’opportunité d’intervenir rapidement en cas de
mécontentement d’un client.
Enfin, dernier élément, la présence de l’entreprise sur les réseaux sociaux, le nombre de « fans » et le
trafic sur sa page exercent un effet positif sur le référencement naturel (ou organique ou SEO) de
l’entreprise dans les moteurs de recherche. Plus une entreprise a de « fans », plus elle a de visites sur sa
page dans un réseau social, plus elle sera bien placée dans les résultats des moteurs de recherche. Cet
impact est tout de même fort difficile à quantifier. L’arrivée sur le marché des réseaux sociaux de
Google+ a alimenté les rumeurs les plus diverses quant à la sensibilité de l’algorithme de Google
(Hummingbird ou colibri en français) face aux réseaux sociaux autres que Google+.

Section 3 LA MISE EN ŒUVRE

Une fois présentées les différentes possibilités de communication en ligne, il nous faut nous interroger
sur la mise en œuvre de ces créations.
Plusieurs éléments sont ici analysés, dans un premier temps nous proposerons quelques chiffres sur
l’évolution des investissements publicitaires sur Internet. Puis nous proposons une approche des outils de
choix pour le media planning avant de conclure par les méthodes de tarification.

1 Évolution des investissements publicitaires sur Internet


En 2013, le marché publicitaire global a augmenté de 2.5 %, mais les variations montrent que le marché
est tiré par la publicité cinéma et radio au détriment de la presse et de l’affichage.
Tableau 6.1 Part de marché des cinq mass medias et Internet fin 2012 et fin 2013

Source : Adapté de l’étude kantar Media, Médiamétrie MIL 2013 M-S 00h-24h,
Afnic, Médiamétrie – OUI Q4 2013.

Internet, pour sa part, est en diminution importante (– 0,8 point), il faut voir ici l’importance croissante
des moyens de publicités hors agences. De nombreuses entreprises de taille modeste ont compris qu’elles
pouvaient, à tort ou à raison, se passer des services d’une agence de communication ou des services
payant pour communiquer sur leur fil Twitter, et leurs pages sur les réseaux sociaux. Cette sortie de la
publicité via un modèle payant est particulièrement sensible en 2013. Ce mouvement est une évolution
régulière puisque le passage 2011 à 2012 marquait déjà une baisse de 0.9 point des investissements
publicitaires sur le Web.
L’usage d’Internet comme média multiple (recherche, télévision à la demande, mail et échanges,
réseaux sociaux) tend pour sa part à augmenter, 82 % des plus de 15 ans utilisent Internet et la durée
moyenne de connexion (tout âge confondu) est de 1 h 11 par jour sans distinction notable de sexe ou de
CSP[9].
Enfin, dernier élément à retenir de l’année 2013, l’explosion de l’Internet mobile, phénomène qui va
probablement s’amplifier avec le déploiement des réseaux H+ et 4G.
Plus de 50 % des 15 ans et plus possèdent un smartphone et utilisent Internet sur ce support. On constate
un glissement des usages de l’Internet fixe vers l’Internet mobile sur les smartphones : réseaux sociaux,
surfs de courte durée, visionnage de vidéo, recherches ponctuelles sont autant d’activités qui ont migré de
l’Internet fixe vers le mobile.
Le cas des tablettes est plus complexe. Ces dernières sont moins facilement identifiées dans les études
car elles peuvent selon les modèles se rattacher à l’Internet fixe (en connexion wifi) ou mobile (en
connexion 3G, H+ ou 4G). Elles représentent tout de même 32 % des plus de 15 ans, avec une masculinité
relative (54 % d’hommes). Le glissement de l’activité de l’ordinateur fixe/portable vers la tablette est
moins net que dans le cadre des smartphones.
Ces évolutions dans les usages conduisent à repenser les campagnes publicitaires sur Internet. La mise
en place d’outils de communication « hors média Web » comme les applications gratuites, les sites Web
responsive[10] (ou application SaaS) sont autant d’éléments qui doivent aujourd’hui être inclus dans une
stratégie de communication en ligne.
2 Media planning et Internet
Le choix des différents supports de communication est un élément délicat pour les agences. Parmi les
outils existant pour effectuer ce choix, notre présentation expose deux principaux indicateurs ainsi que
leurs limites sur Internet : le GRP et le B de Morgenztein.

2.1 Le GRP sur Internet


Pour déterminer les composants d’un mix de communication, les professionnels ont recours à un
indicateur phare : le Gross Rating Point ou point de couverture brute. C’est un indice de performance
d’un plan média. Il existe un GRP pour chacun des médias, il permet, entre autres, les comparaisons pour
les choix de supports. Le GRP représente l’indice de pression publicitaire sur une cible donnée. Il s’agit
du nombre moyen de chances de contact pour 100 personnes de la cible visée. Le GRP est très utile car il
permet de comparer l’efficacité (a priori) de différents supports de communication.

DÉFINITION
Le GRP se calcule de la manière suivante : taux de couverture (ou taux de pénétration) × répétition moyenne. Par exemple : un GRP de
200 signifie que la campagne va toucher en moyenne deux fois la population ciblée.

Deux critiques sont formulées à l’égard du GRP dans le monde physique : tout d’abord, il ne tient pas
compte du cumul d’audiences entre les médias ni même des recoupements d’expositions lors des
campagnes multimédias. Ensuite le GRP s’appuie sur l’identification du contact et de son ODV/ODE
(occasion de voir/occasion d’entendre), ce qui implique d’utiliser des panels et des supports bien
identifiés.
Ces limites sont connues mais sur Internet elles prennent un poids supplémentaire de par la nature du
média et les contraintes techniques.
Le GRP sur Internet a très rapidement intéressé les chercheurs (Bourliataux-Lajoinie 2000) et les
praticiens (en 2007 Carat propose une étude sur la mise en place d’un GRP spécifique à Internet)[11], mais
sa mise en œuvre empirique se heurte à deux grands problèmes techniques. Il est en effet très difficile de
mesurer avec précision le taux de couverture et la répétition sur Internet.

2.2 Le taux de couverture


Il est important de cerner ce qu’est le taux de couverture. Il représente la part de la population cible
réellement exposée au message. Comment peut-on mesurer réellement le nombre de personnes exposées
au message ? Médiamétrie, fort de son expérience de quantification d’audience dans le monde physique, a
proposé une mesure de la quantification d’audience sur le Web[12].
Dans le monde réel, un abonné à la télévision ne dispose que d’un nombre fini de chaînes, il est donc
possible de connaître le temps passé devant chaque chaîne en interrogeant son terminal « décodeur ».
L’abonnement qu’il a souscrit correspond à un bouquet gratuit/payant dont le nombre de chaînes est connu
avant de mettre en place la mesure. Il est ainsi possible de définir des regroupements par thème de
chaînes, par langue, etc. Sur Internet la démarche est bien plus complexe, il n’est pas possible de
connaître à l’avance le nombre de sites auxquels l’utilisateur aura accès, les catégorisations sont de fait
bien plus difficiles. Bien évidemment les grands sites français et francophones sont analysés mais ils
peuvent ne représenter qu’une partie (non quantifiée) de l’utilisation d’Internet par un consommateur. De
plus, tous les internautes ne fréquentent pas les mêmes sites, certains peuvent être soumis à la même
campagne publicitaire sur plusieurs sites, ce qui augmente l’efficacité de cette dernière.
À ce jour, le panel Médiamétrie/NetRatings est composé de 25 000 panélistes et l’analyse porte sur
7 000 sites, ce type de mesure par panel est appelé user centric[13]. On utilise le terme d’user centric car
l’analyse se base sur le comportement observé de l’utilisateur, ce dernier est donc au centre de la mesure.
Deux types de lieux de connexion sont pris en compte, le lieu de travail et le domicile. C’est un maillage
de l’utilisation du Web qui permet d’effectuer une mesure des comportements. Pour ce type de mesure, les
sociétés doivent utiliser un logiciel de pistage et de mémorisation des comportements (un meter), celui
développé par Médiamétrie/NetRatings se nomme NetSight.
Le taux de couverture peut ainsi être estimé avec une bonne précision, mais il faut prendre en compte
les spécificités du réseau Internet afin de voir les limites de ces mesures. Le meter est installé sur une
machine et il est lié à un profil (le père, la mère, le premier enfant, etc.). Le meter doit être installé autant
de fois qu’il y a de profils et de machines. C’est ici un problème récurrent dans les études sur le
comportement des internautes, il est très fréquent qu’une machine familiale ne possède que des comptes
génériques, un pour l’administration de la machine et un pour l’utilisation courante. Cette confusion des
utilisateurs physiques derrière un même profil de connexion brouille les analyses user centric.
Le type de flux doit également être filtré par le meter. À ce titre, la nouvelle version de NetSight est
capable de reconnaître les flux vidéo, audio, les flux RSS et les widgets. Enfin, il faut tenir compte de
l’accroissement de l’informatique nomade dans les modes de consultation.
Le panel demeure un très bon outil d’estimation de l’utilisation du Web, mais sur un support en
constante évolution comme Internet, il ne peut être pleinement efficient.

2.3 La mesure de la répétition


La répétition moyenne du message est le second critère important pour le GRP. Une nouvelle contrainte
technique perturbe cette mesure. De par la spécificité du réseau, il est en effet très difficile de connaître
avec exactitude le taux de duplication d’un message.
Dans le monde physique il est possible de connaître assez précisément le taux de duplication d’un
support. À titre d’exemple, il existe des études fiables sur le nombre de lecteurs d’un journal. Il est bien
plus difficile de connaître le nombre d’expositions d’une bannière publicitaire sur Internet. Si nous
analysons la connexion d’un internaute sur un site Web qui contient de la publicité, nous constatons la
séquence suivante :
le consommateur arrive sur le site Internet de son choix et demande la page d’accueil ;
le serveur qui héberge le site expédie le contenu de la page et demande au serveur de la régie
publicitaire d’expédier le contenu publicitaire prévu sur la page ;
la fusion des deux sources s’affiche sur la page de l’internaute ;
c’est à ce moment que la mesure du nombre d’expositions perd de sa précision. Le problème
provient du serveur proxy (ou cache). Ce dernier, placé sur le réseau de l’utilisateur, a pour fonction
de fluidifier le trafic sur le réseau. Il stocke une copie des pages les plus demandées afin de limiter
la durée et le nombre de connexions qui circulent sur le réseau. De fait, ce n’est plus la page
d’origine du site qui est affichée sur l’écran de l’utilisateur mais une copie locale de la page.
Lorsque l’on étudie le nombre de pages expédiées par le serveur, le nombre annoncé est donc
inférieur au nombre de « copies » réellement affichées.
Ce problème du proxy est particulièrement important si l’internaute accède au site depuis une
entreprise, une université, une école, une administration, depuis toute entité qui regroupe de multiples
ordinateurs.
À titre d’exemple, la page d’accueil d’un moteur de recherche est souvent stockée dans le serveur
proxy d’une entreprise, cela permet aux salariés d’accéder très rapidement à la page demandée. En fait,
ils n’accèdent qu’à une copie « locale » de la page officielle du site. Seule la requête avec les mots clés
sera expédiée au serveur principal pour traitement.
Si cet exemple ne pose pas de problème particulier, il en est tout autrement avec une page qui contient
des messages publicitaires. Le message stocké dans le proxy de l’entreprise sera affiché une nouvelle fois
lors de l’appel de la page. En réalité, la copie locale sera affichée et non l’original. Ceci pause un
problème pour le décompte des publicités affichées. En effet le serveur de la régie publicitaire aura
comptabilisé un affichage (lors de l’envoi initial de la page avec publicité) alors qu’en réalité il y aura
peut-être eu deux (ou plus) affichages dûs aux copies faites par le proxy.

DÉFINITION
Les pages chargées ont une durée de vie dans le proxy. Une page comme celle de Google peut être gardée pendant plusieurs
secondes, seule la requête avec les mots clés est expédiée. En revanche les cours de bourse ou le prix des matières premières sont des
pages qui, de par leur rapide péremption, ne sont pas stockées dans le proxy.

Comment calculer ainsi un GRP fiable ? Les deux données fondamentales du calcul de ce taux souffrent
ici d’un manque de fiabilité dans leurs mesures. Il serait peut-être plus pertinent de ne s’attacher qu’au
nombre d’ODV en utilisant un système d’autodéclaration de la publicité. Dans ce dernier cas, peu importe
le nombre de duplications dans les différents proxys, seul l’affichage à l’écran du message publicitaire
active un appel sur le serveur qui gère la campagne d’affichage. De fait, ne sont comptabilisés que les
messages affichés et non les messages expédiés.

2.4 Le bêta de Morgernztein


Second outil utilisé par les professionnels, le bêta de Morgernztein est directement lié à
l’apprentissage du message publicitaire. Les travaux fondateurs de Morgernztein à ce sujet ont été
récemment mis à jour par l’auteur lui-même pour intégrer une valeur bêta propre à Internet.
Ce taux exprime le pourcentage de mémorisation du message à la première exposition. Par exemple, la
radio a un bêta de 5 %, cela signifie qu’à la première occasion d’entendre (ODE), 5 % des
consommateurs mémorisent le message publicitaire. L’efficacité mémorielle (des bannières) à la
première exposition se situe donc entre la presse et la télévision.
Le calcul de ce coefficient sur Internet est une avancée importante pour la stratégie de planification
média, mais tout comme le GRP il ne s’adapte pas parfaitement à Internet. Deux limites sont à soulever
pour le bêta. La première limite tient au type de publicité choisie pour Internet. Les bannières ne sont
qu’un des multiples formats de display sur le Web. Il serait nécessaire de dupliquer l’étude sur les autres
formats disponibles sur le réseau. Seconde limite, il se pose aujourd’hui le problème du bêta appliqué à
l’informatique mobile de type smartphone ou console de jeu. La consommation d’Internet se développe
sur ces terminaux et la publicité commence aujourd’hui à investir ces plateformes.

3 La mesure de l’efficacité d’une publicité sur Internet


La mesure de l’efficacité publicitaire est un problème récurrent en communication. En 2004 Hall
proposait dans le Journal of Advertising Research une importante étude sur la mesure de l’efficacité
d’une communication, et en 2007 Lohtia et al. proposent quant à eux une étude focalisée sur l’efficacité
des bannières Internet. Leurs analyses font émerger de nombreux écueils, souvent communs à la publicité
dans le monde physique. Pour ne citer que les plus importants, nous retiendrons :
comment connaître l’impact d’une campagne parmi les campagnes existantes faites par des
concurrents, par des produits substituables ?
comment mesurer l’impact de la publicité sur les ventes ?
comment évaluer la mémorisation de la publicité ?
comment connaître son impact sur un comportement d’achat ?
l’attitude envers la publicité influence-t-elle l’attitude envers la marque et/ou le produit ?
Bien évidemment Internet se trouve, comme tout support de communication, soumis aux mêmes
interrogations et plusieurs travaux de recherche ont essayé de cerner ce problème.
Notre approche de la mesure de l’efficacité de la publicité sur Internet se fera en deux parties,
l’efficacité du display et l’efficacité du search. Chacune de ces deux grandes parties sera analysée au
travers de l’efficacité de la perception du message et de l’efficacité via le clic.

3.1 Le cas du display


Les études sur l’efficacité du display sont nombreuses, notre présentation s’articule autour de celle
réalisée par Ipsos Média CT 2009. Cette étude s’est faite via un site Web spécialement créé pour l’étude
ainsi qu’un questionnaire post-test.
Dans un premier temps nous nous interrogeons sur la visibilité de l’annonce. Le consommateur voit-il
réellement le message publicitaire ?
Les plans d’expériences font souvent appel à la méthode de l’eye-tracking (suivi oculaire) afin de
connaître très exactement le comportement des utilisateurs sur les sites Web. Plusieurs chercheurs ont
développé des méthodologies spécifiques pour l’eye-tracking sur Internet (Jakob Nielsen, Kara Pernice
2010, Duchowski 2003).
Cette méthode d’« oculométrie » analyse le déplacement des yeux sur l’écran d’un ordinateur durant la
navigation grâce à l’utilisation de deux caméras[14] : l’une située dans l’axe des yeux de l’utilisateur et
l’autre qui fixe sa pupille. Un système informatique interprète les données afin de capter tous les
mouvements des yeux de l’utilisateur et de les reporter sur une image de l’écran. Il est ainsi possible de
connaître les zones les plus vues (ou zones chaudes, représentées en foncé) et les zones les moins vues
(zones froides, représentées en clair). L’eye-tracking est particulièrement utilisée en psychologie
cognitive. En marketing, elle a été utilisée notamment pour les publicités télévisuelles.
Les principaux résultats à retenir sont :
62 % des internautes ont fixé une bannière durant leur navigation (en moyenne 6 minutes 36 secondes
de navigation pour le test) ;
le format pavé attire le plus l’attention des internautes en à peine 7 secondes ;
la bannière n’est vue qu’au bout de 31 secondes, l’attention accordée aux bannières diminue très
rapidement si le site en propose plusieurs ;
l’internaute consacre en moyenne 7 % du temps de surf à la publicité ;
suite à la navigation, le taux moyen de reconnaissance d’une publicité est de 27 %.
Plusieurs limites sont à indiquer sur cette étude.
Tout d’abord elle n’aborde pas tous les types de publicités sur Internet. La création d’un site spécifique
au test et le risque de recoupement avec des campagnes existantes ne permettent pas de couvrir tous les
types de créations.
L’intérêt de l’étude est sur l’attention et la reconnaissance de la publicité via les pavés ou les
bannières, mais la mesure des clics n’est pas testée.
Il semble donc que le consommateur voie bien la publicité à l’écran mais, une fois ces résultats
présentés, il nous faut nous interroger sur le taux de clics des formats. L’IAB propose, en plus de ces
recommandations sur les formats, des statistiques sur les taux de clics moyens des différents formats
existants.
Tableau 6.2 Formats publicitaires, dimension, intrusivité et taux moyen de clics

Source : D’après études de l’IAB 2011/2012

Nous constatons le très faible taux de clics du display. Cependant, il faut analyser ces chiffres en tenant
compte de l’impact de l’attention visuelle tel que l’eye-tracking le montre. Les chiffres donnés sont des
moyennes de clics, ils doivent être modérés par la prise en compte de la pression publicitaire.

REMARQ UE
Calcul de la pression publicitaire sur un site. Un site qui dispose de 50 pages avec 30 pages avec publicité (PAP) – soit une publicité
chaque 1,66 page – aura une pression publicitaire plus forte qu’un site disposant de 50 pages avec 10 PAP. La principale conséquence est
une diminution du taux de clics du consommateur. Plus ce dernier est soumis à une pression publicitaire forte, moins il clique sur les
bannières.

L’efficacité d’une publicité sur Internet comme sur tout autre média ne peut se résumer à un simple taux
de mémorisation ou un taux de clics, l’efficacité est multiple tout autant que les raisons qui poussent une
entreprise à communiquer. Il est important pour l’entreprise de bien cerner ses attentes en communiquant.
Les outils du Web permettent bien des formes qui s’intégreront dans un mix de communication.

3.2 Le cas du search


Second format de publicité sur le Web, le search a lui aussi une mesure d’efficacité. La publicité via
les mots clés achetés à un moteur se traduit par l’apparition dans des zones précises de « liens
sponsorisés ». Cela signifie que l’annonceur a payé pour que son site apparaisse en tête des liens
sponsorisés lorsque l’internaute effectue une recherche précise.
Notre présentation sera axée essentiellement sur des travaux qui ont eu pour sujet le moteur Google, ce
moteur drainant à lui seul plus de 90 % des recherches sur le Web.
La première question que l’on peut se poser quant à l’efficacité des liens sponsorisés est de savoir si le
consommateur les voit réellement ou s’ils sont traités comme un élément lié au design de la page (les
zones sponsorisées sont en dégradé de bleu). Une fois encore, les analyses d’eye-tracking peuvent nous
apporter une réponse.
En France, la société Miratech (Miratech.fr) est l’un des principaux acteurs du marché, elle propose sur
son site Web des exemples d’eye-tracking de site Web et une intéressante vue d’eye-tracking
d’utilisateurs du moteur Google.
Cette méthode est plus fiable que le déclaratif. En contrepartie, elle demande une infrastructure plus
lourde à mettre en place et se déroule dans les locaux de sociétés spécialisées. Cela limite de façon
importante les études sur les comportements de navigation en fonction des lieux (bureau, maison,
université ou école, cybercafé, etc.). Indépendamment de cette limite, l’eye-tracking met en lumière
plusieurs résultats importants :
les liens sponsorisés sont vus par le consommateur, ils sont bien identifiés comme des solutions
possibles à sa recherche ;
le temps moyen de lecture consacré aux trois liens sponsorisés est équivalent au temps alloué aux
trois premiers résultats du moteur ;
les quatre premières réponses sont vues et lues par le consommateur, au-delà on peut estimer que le
consommateur ne s’intéresse qu’à quelques mots clés saillants dans le descriptif. Ce qui rend
d’autant plus importante la gestion du texte présentant le site.
Dans son étude publiée en 2009, Google propose ses propres tests sur l’eye-tracking de ses pages. Les
résultats confortent ceux précédemment trouvés et apportent trois nouvelles informations :
l’attrait de chaque zone de la page de résultat ;
l’existence du « triangle d’or » situé dans la partie haute à gauche de la page, c’est la zone la mieux
vue de la page ;
le fait qu’il n’existe pas de comportement type pour la lecture de la page de résultats.
La seconde question que l’on peut se poser quant à l’efficacité publicitaire est de savoir si le
consommateur clique sur les liens sponsorisés.
L’étude du taux de clics couplée à l’eye-tracking présentée sur Referencement-blog.net permet d’isoler
les deux points suivants :
bien que le consommateur porte attention aux liens sponsorisés, le taux de clics est nettement
supérieur sur les réponses « naturelles » du moteur. Le consommateur différencie donc très bien les
annonces commerciales des annonces issues de sa recherche ;
nous trouvons un point de désintérêt aux trois quarts bas de la page, le taux de clics chute de façon
drastique à 2 %.
L’efficacité de la publicité search semble donc réelle, mais il ne faut pas lui attribuer l’exclusivité de
la présence sur les moteurs. Le référencement naturel et la qualité de la recherche saisie donnent une
large efficacité aux résultats du moteur.

4 La tarification
La tarification de la publicité est le dernier point de ce chapitre. Il existe deux grandes méthodes de
tarification : le CPM, coût pour mille, et le CPC, coût par clic (De Pechpeyrou, Goudey et Desmet 2002).

4.1 Le CPM
Le plus utilisé est le CPM ou coût pour mille. Selon SRI/Capgemini, le CPM représente 80 % de la
tarification du display en 2009. Dans ce cas, l’annonceur va payer à la régie « l’affichage » de 1 000
publicités, théoriquement sur 1 000 écrans, mais nous l’avons vu, le rôle des proxys peut perturber le
décompte des affichages. Le serveur de bandeaux décompte le nombre de requêtes exécutées mais ce
décompte est recoupé par un mouchard d’autodéclaration de la bannière. En effet, cette dernière pouvant
être dédoublée dans un proxy, les concepteurs ont intégré un système qui autodéclare l’affichage lorsque
celui-ci intervient. Un message dédoublé ne sera compté qu’une fois par le serveur de bandeaux, mais il
autodéclarera deux fois son affichage. Il est donc possible d’avoir une estimation plus fiable du nombre
réel d’affichages.
Ce système de tarification au CPM est particulièrement adapté pour créer la notoriété d’une marque ou
d’un produit.

4.2 Le CPC
Il est également possible de tarifier la publicité au CPC ou Coût par clic. Ce tarif au taux de clics se
base sur une exposition « gratuite » mais une tarification sur la réaction de l’internaute. L’annonceur ne
payera qu’en proportion du nombre d’internautes qui cliquent réellement sur le message. Le CPC est un
système de tarification lié à la performance de la campagne. Il est particulièrement utilisé pour recruter
des prospects, ces derniers cliquant sur l’annonce pour aller consulter le produit. Le principal problème
ici est de déterminer quand l’internaute devient réellement un prospect. Le taux de rebond[15] est un bon
exemple de consommateur qui clique sur une bannière sans se transformer en prospect.
Si l’on veut synthétiser l’utilisation du CPM et du CPC, on peut présenter le CPM comme plus
performant pour la création de notoriété alors que le CPC est plus performant pour la recherche de
prospects.

4.3 Les autres formes de tarification


On trouve des formes de tarification plus marginales liées à une activité spécifique, par exemple la
rémunération au formulaire (CPL ou Cost Per Lead) qui rémunère le nombre de questionnaires remplis
suite à la publicité ou à une réaction constatée de la cible (téléchargement d’une plaquette, demande de
rendez-vous). Cette méthode est encore assez peu utilisée car elle dépend beaucoup du type d’activité de
l’entreprise et de la cible choisie. Citons également le CPA (Cost Per Action) lorsque la rémunération
suit un achat effectif de l’internaute. Nous sommes ici assez proches de l’affiliation. Un pourcentage du
chiffre d’affaires généré ou une somme forfaitaire fixe est perçu à chaque vente réalisée. Une fois encore,
ce type de tarification est assez peu utilisé.
Enfin, il existe une tarification au « forfait jour », cette méthode est surtout utilisée pour des actions
ponctuelles qui auront recours au changement de l’habillage d’une page d’accueil ou à la déclinaison
d’une charte graphique particulière.
Est-il plus intéressant de tarifer au CPM ou au CPC ?
Dans le Focus 6.3, nous comparons le cas d’une bannière publicitaire déposée sur un grand site
national durant une semaine. Le premier cas correspond à une tarification au CPM et le second à une
tarification au CPC.
Il est ainsi nettement visible que le CPC est une tarification adaptée au recrutement de prospects (et non
à la notoriété) alors que le CPM est adapté à la notoriété (et non au recrutement de prospects).
Il faut cependant apporter quelques précisions à cet exemple. Le type de site choisi est directement lié à
la tarification. Un grand site national pour faire du CPM sera, par exemple, le site du comparateur de prix
de « Kelkoo ». Ce sont des sites généralistes qui drainent une forte population. Dans le cas du CPC, un
grand site national sera un portail spécialisé sur une thématique, un site lié à une communauté spécifique.
Par définition, ce site aura une fréquentation moindre mais il aura une cible plus en adéquation avec la
cible recherchée, d’où la probabilité de taux de clics nettement supérieure.

Focus 6.3
Tarification d’une bannière publicitaire
Hypothèse 1 – Tarification au CPM, les données
Un coût de CPM à 5 €.
Taux de clics sur la bannière de 0,1 %
Taux de conversion sur le site de 4 %
Vente d’un produit qui génère 20 € de marge
La publicité est déposée sur un grand site national durant une semaine : nombre d’impressions
observées 1 million.
Calcul du coût de la campagne
CPM = 5,00 €
Impressions = 1 000 000
Taux de transformation = 0,1 %
Coût de la campagne = 5 000,00 € (soit 1 000 000 x 5 € x 0,1 %)
Clics = 1 000,00 (soit 1 000 000 x 0,1 %).
Taux de conversion 4 % soit 1 000 x 4 % = 40 achats
Marge générée 40 x 20 = 800 €
Le coût de la campagne est de 5 000 € pour une marge générée de 800 €
La couverture de la campagne est de 1 000 000 ODV

Hypothèse 2 – Tarification au CPC
Un coût du CPC à 5 €.
Taux de clics sur la bannière de 0,5 %
Taux de conversion sur le site de 40 %
Vente d’un produit qui génère 20 € de marge
La publicité est déposée sur un grand site spécialisé durant une semaine : nombre d’impressions
observées 10 000
Calcul du coût de la campagne
CPC = € 5,00
Impressions = 10 000
Taux de transformation = 0,5 %
Coût de la campagne = 2 500 € (soit 10 000 x 5 € x 0,5 %)
Clics = 10 000 x 0,5 % = 500
Taux de conversion 40 % soit 500 x 40 % = 200
Marge générée 200 x 20 = 4 000 €
Le coût de la campagne est de 2 500 € pour une marge générée de 4 000 €
La couverture de la campagne est de 10 000 ODV
La tarification de la publicité sur Internet n’est pas uniquement un choix mathématique d’arbitrage entre
des coûts à l’unité ou au forfait. Le type de site et l’objectif de la communication sont autant d’éléments
forts pour le choix de la tarification.

4.4 Les grands indicateurs à retenir


Si l’on ne devait retenir que quelques éléments stables relatifs à la publicité sur Internet, il faudrait sans
conteste garder à l’esprit les principaux indicateurs qui doit être dans le tableau de bord du responsable
de communication digitale.

Focus 6.4
Les indicateurs de trafic sur le site
Nombre de visites et nombre de visites uniques : indicateur servant à repérer la fidélité d’un
internaute, et l’impact d’une communication (via l’augmentation soudaine des nouvelles visites)
Nombre de pages vues par visite et durée de la visite : indicateurs qui permettent de mesurer le
comportement de navigation des internautes dans le site et ainsi de segmenter les visiteurs.
Taux de rebond sur la page d’accueil : indicateur qui permet de détecter un problème de
référencement du site ou d’image perçue.
Taux d’abandon par pages stratégiques : indicateur qui permet de détecter un problème dans la
conclusion de l’acte d’achat de l’internaute (procédure perçue comme trop complexe, problème
d’affichage sur les supports mobiles, etc.)

Les indicateurs publicitaires

Nombre de PAP (Page avec Publicité) : permet de gérer la pression publicitaire sur le site.
Nombre de publicités affichées : indicateur qui permettra une tarification au CPM.
Taux de clic des bannières / pop-up / interstitiel, etc. : indicateur de type CTR qui permettra de
gérer la facturation de l’espace publicitaire.
Taux de transformation : indicateur qui va permettre d’établir une forme de retour sur
investissement de la publicité affichée.
Bien évidemment ces indicateurs sont à calculer pour chaque support utilisé par l’internaute. La
navigation via un smartphone peut entrainer un taux de d’abandon supérieur à une navigation via un
ordinateur, ceci peut être notamment dû à des contraintes de rapidité et de disponibilité des connexions.

EN CONCLUSION
Après 20 ans d’utilisation, la publicité sur Internet marque aujourd’hui les premiers signes
d’une diminution des investissements.
L’utilisation d’Internet comme relais de support plus classique en publicité permet de renforcer
le capital sympathie de la marque et d’accroître la probabilité de mémorisation de la marque.
Mais comme nous l’avons vu, la mise en place d’un vrai plan média qui intègre le Web est une
étape complexe pour laquelle nous manquons encore d’indicateurs fiables. Les comportements
des usagers évoluent rapidement, aujourd’hui il est fréquent de redéfinir sa propre grille
télévisuelle en s’appuyant sur les systèmes de « replay ». Enfin, la tarification de la publicité
est aujourd’hui majoritairement liée au CPM, mais le développement de la publicité sur les
smartphones imposera rapidement de trouver d’autres modèles de tarification plus aptes à
traduire la réalité des comportements.
La publicité sur Internet sort de son enfance pour atteindre le stade d’un vrai média. La
dénomination de « communication 360° », chère aux agences, traduit bien cette relation.
Aujourd’hui Internet est un support naturel de communication comme peut l’être la presse ou
l’affichage. Il ne lui manque plus qu’à acquérir des outils de suivi et de tarification à la hauteur
de ses capacités.

[1] A ne pas confondre avec la V.O.D. ou Video On Demande qui s’apparente à de la location d’une vidéo.

[2]
http://www.converteo.com/blog-conversion/boite-a-outils/les-bannieres-qui-vendent-ou-la-fin-de-la-page-web/
[3] Le site www.tarifspresse.com propose un outil très utile pour estimer les coûts (hors promotion et offres spéciales) des différents
supports de presse.
[4] Il est automatiquement inclus dans Internet Explorer depuis 2004.

[5] Source : kantar Media, Médiamétrie MIL 2013 M-S 00h-24h, Afnic, Médiamétrie – OUI Q4 2013.

[6] Voir le chapitre sur le tracking des internautes pour les détails des cookies, de leurs utilisations et limites.

[7] Nous utiliserons le terme de monde réel en référence à la terminologie anglo-saxonne IRL pour « in real life ».

[8] http://hbr.org/web/slideshows/social-media-what-most-companies-dont-know/1-slide, étude menée sur 2100 entreprises.

[9] Source : Médiamétrie, web’Observatoire Q4 2013.

[10] Web responsive : se dit d’un site web qui « s’adapte » automatiquement aux différents supports tels les smartphones, les tablettes, les
ordinateurs.
[11] Voir l’article sur l’agence Carat et sa proposition de calcul de GRP http://www.strategies.fr/actualites/medias/r25025W/carat-invente-le-
grp-internet.html
[12] Le panel Médiamétrie/NetRatings est un panel représentatif de la population internaute française âgée de 2 ans et plus ayant accès à un
ordinateur de type PC à son domicile ou sur son lieu de travail. Le panel est composé de 25 000 panélistes dont 9 000 recrutés par
téléphone et 16 000 online. Il est redressé sur des critères sociodémographiques et un sous-échantillon online pour minimiser les biais
éventuels de surconsommation. Les résultats sont ventilés par lieux de connexion détaillés (source : Mediametrie.fr).
[13] Le terme renvoie à son opposé « site centric ». Ce dernier est largement détaillé dans le chapitre consacré au tracking des
internautes.
[14]
Un exemple vidéo commenté est disponible à l’adresse http://www.dailymotion.com/video/x1dhdy_referencement-google-eye-
tracking_news
[15] Le taux de rebond se manifeste par un consommateur qui arrive sur la page du site et fait immédiatement marche arrière. Il ne fait

qu’une entrée / sortie sur la page. Le chapitre sur le tracking des internautes revient en détail sur ce taux et sa signification.
Chapitre Search engine marketing
7 et référencement

Jean-Claude DOMENGET
Maître de conférences, Université de Franche-Comté,
laboratoire ELLIADD

Objectifs

■ Comprendre l’impact d’un bon référencement.


■ Analyser les enjeux et stratégies de référencement.
■ Optimiser le référencement naturel.
■ Comprendre les grands concepts du référencement payant.

Sommaire

Section 1 Se former pour devenir référenceur


Section 2 Enjeux et stratégies de référencement
Section 3 Optimiser le référencement naturel (SEO)
Section 4 Découvrir le référencement payant (SEA)
Le référencement fait partie aujourd’hui des leviers marketing principaux à disposition des
organisations sur le Web. Que l’on se situe au niveau du marketing sur les moteurs de recherche (SEM :
search engine marketing) ; du référencement naturel ou organique (SEO : search engine optimization) ;
du référencement payant (SEA : search engine advertising) ou du référencement issu de la participation
sur les médias socionumériques (SMO : social media optimization), les enjeux du référencement se sont
progressivement élargis pour atteindre une dimension stratégique.
Pour une organisation, il s’agit non plus d’atteindre la « première position sur Google » mais de
développer sa visibilité sur les moteurs de recherche afin de répondre à des objectifs fixés en amont : se
faire connaître, générer un trafic ciblé vers des espaces de la marque, fidéliser un type précis de clients,
augmenter les ventes, etc. Longtemps concentré sur les contenus éditoriaux des sites Web puis des blogs
professionnels, le référencement touche aujourd’hui différents contenus Web : images, vidéos, actualités,
données localisées, etc. et intègre en partie les résultats de la participation des internautes sur les médias
socionumériques.
Selon les types de sites et les modèles économiques associés, « l’alchimie du SEO »[1] fait varier
énormément le mix des optimisations techniques, des optimisations éditoriales/verticales et du
Netlinking. Dans cet article sont distingués a minima les blogs, les forums, les sites e-commerce
spécialisés, les sites e-commerce généralistes, les sites de presse, les comparateurs de prix, les services
de proximité, les sites de banque et d’assurance.
Centré autour d’un outil, le moteur de recherche, le marché du référencement en France est dominé par
un acteur hégémonique. Google traite plus de 90 % des recherches des internautes en France[2]. Face à cet
acteur incontournable, des professionnels, les référenceurs, ont développé une activité aujourd’hui
pérenne mais sujette aux évolutions constantes du secteur.
Ce chapitre ne vise pas à être un énième guide de formation au référencement Web[3]. Il est organisé en
quatre sections afin de permettre aux lecteurs de découvrir ce domaine et de le situer parmi l’ensemble
des leviers e-marketing. Il aborde ainsi la formation au référencement et la professionnalisation des
métiers associés. Il met ensuite l’accent sur le développement de nouveaux enjeux, de plus en plus
stratégiques pour les organisations, nécessitant la mise en place d’une véritable stratégie en
référencement. Il présente également un ensemble de techniques d’optimisation de la visibilité sur les
moteurs de recherche. Axé principalement sur le référencement naturel ou SEO, ce chapitre évoque enfin
les principes du référencement payant ou SEA, avant de conclure sur les évolutions récentes et à venir du
domaine.
Section 1 SE FORMER POUR DEVENIR RÉFÉRENCEUR

Le secteur du référencement est un domaine de la communication et du marketing Web qui évolue


continuellement. Cette évolution concerne aussi bien les mises à jour régulières des algorithmes des
moteurs de recherche, les techniques de référencement à mettre en œuvre, l’évolution des pratiques de
recherche d’informations des internautes que l’évolution du marché. Se former au référencement nécessite
aujourd’hui l’acquisition de compétences techniques, rédactionnelles, communicationnelles et marketing,
voire stratégiques. Depuis quelques années, différents types de formation ont émergé permettant de se
former aux nombreux métiers du référencement.

1 De l’autoformation aux formations au référencement


Des référenceurs « pionniers » (Domenget, Michel, 2014), la profession garde plusieurs
caractéristiques et valeurs. Si l’autoformation et la veille restent un des piliers de la profession pour
suivre les tendances du marché, plusieurs formations publiques ou privées sont apparues afin de former
aux métiers de référenceur.

1.1 L’autoformation des « pionniers »


À l’âge des « pionniers », l’autoformation alors indispensable a montré l’importance de la dimension
collective de la formation par soi-même et a participé à la création d’une identité de la profession des
référenceurs. Aujourd’hui, elle reste le gage du maintien d’une employabilité durable. À partir du milieu
des années 1990 pour les plus anciens, des « pionniers » du référencement ont pressenti l’importance des
moteurs de recherche, dont les usages sont aujourd’hui banalisés (Simonot, 2008 ; Simonot, Gallezot,
2009). Autodidactes, ces « pionniers » vont s’auto-former en partageant leurs savoirs, leurs savoir-faire,
leurs savoir-être issus de tests, d’échanges et de retours d’expérience auprès des clients. Google
n’existait pas encore, les mots même de référencement ou de référenceur n’avaient pas été inventés.
L’activité consistait à inscrire les sites Web dans les annuaires leaders qui généraient le plus de trafic
comme Dmoz, Yahoo, Voila en France. Les missions du référenceur étaient toutes à inventer : réaliser
l’audit d’un site Web, définir une liste de mots clés, remplir des balises. L’objectif était en priorité de
faire indexer les sites. Le référencement était « un terrain vierge »[4] avec un « côté magique », quelque
chose de « marrant ». « Être en première position » sur une myriade de mots clés, augmenter le trafic d’un
site (« fois 6, fois 10 ») mais aussi « jouer avec les moteurs » en « les spammant comme des bourrins »
avec des pages alias, des pages de contenus et surtout des pages ou même des sites satellites[5] ; tout cela
créait une vraie effervescence. Progressivement, plusieurs qualités et valeurs, socialement construites
mais non encore reconnues, ont permis à ces professionnels de faire valoir leurs compétences
(dispositions à l’autodidaxie, disponibilité, curiosité, goûts pour la technique, persévérance).
Pour combattre une éventuelle fragilité du métier de référenceur, l’autoformation auprès des pairs est
depuis le début indispensable. La dimension sociale de l’autoformation était d’autant plus importante
chez les « pionniers » qu’il fallait rompre avec un isolement professionnel, qu’ils fussent indépendants ou
en agence. Très vite la recherche d’informations les a conduits à s’inscrire à des listes de diffusion (la
liste référencement sur Yahoo Groups a été la plus citée) puis est venu l’âge des forums. Des groupes,
identifiés justement à des forums (forums de WebRankInfo – WRI, Taggle, WebmasterHub, Seosphere
pour les plus connus) ou à l’association SEO Camp[6] au niveau de la profession, ont participé à la
construction d’une identité professionnelle, en permettant aux membres d’intégrer des pratiques, des
codes, des conventions, des connaissances, des aptitudes, des compétences, des savoir-faire voire des
comportements, des cultures propres à la profession de référenceur.
Aujourd’hui encore, il semble indispensable pour les référenceurs de « se considérer en formation
permanente » dans une profession en changement constant. Cette autoformation est le seul gage, à titre
individuel comme collectif, du maintien d’une employabilité, ce « capital personnel que chacun doit gérer
et qui est constitué de la somme de ses compétences mobilisables » (Boltanski et Thévenot, 1991 : 156).
Cette autoformation passe notamment par une activité de veille.

1.2 La veille du secteur


La veille est une autre activité essentielle du référencement. Elle répond à l’instabilité du secteur, aux
changements fréquents, aux annonces inattendues, aux actualités qui rythment la profession. Il s’agit avant
tout de définir un plan de veille, partant de la définition d’objectifs, de choix du périmètre de la veille, de
sélection des sources d’informations, de traitement puis de diffusion de l’information recueillie[7].
L’activité de veille passe également par le choix des outils. Si la lecture de blogs spécialisés reste une
pratique indispensable, le suivi de flux RSS semble avoir été remplacé par celui de comptes Twitter. En
effet, avec Twitter, la veille et le partage de celle-ci ont profondément été renouvelés (Desbiey, 2011).
Parmi les sources d’information régulièrement citées, le site d’Olivier Andrieu, www.abondance.com,
reste incontournable en France. En ajoutant deux sources anglo-saxonnes[8] searchengineland.com et
moz.com/blog, vous raterez peu d’informations importantes dans le secteur. Sur Twitter, la plupart des
référenceurs sont présents. La liste d’Alexandre Villeneuve (twitter.com/referencement/seo/members)
permet de repérer les principaux comptes à suivre (en sélectionnant ceux qui vous correspondent le
mieux). Enfin, une myriade de blogs ont un souci de vulgarisation de notions avec une dimension plus
opérationnelle. Un moyen de les découvrir progressivement et de vous faire votre propre avis est de
suivre le service de veille proposé par la société 1re position (www.secrets2moteurs.com).
Né de l’autoformation et intégrant pleinement l’activité de veille, le métier de référenceur est
aujourd’hui accessible par un ensemble de formations publiques ou privées.
1.3 Les formations au référencement
La formation a toujours été au cœur du métier de référenceur. Dès le départ, ce métier a gagné en
crédibilité en intégrant parmi ses missions la formation des différents publics auxquels il s’adresse.
Parmi ces publics, nous pouvons distinguer les clients, les collaborateurs, les dirigeants, les pairs et les
étudiants :
du côté des clients, même si nous ne sommes plus à l’âge de l’évangélisation du marché, les
consultants SEO continuent à former les clients, dans le sens de leur faire prendre conscience des
nouveaux enjeux et des nouvelles techniques du référencement ;
du côté des collaborateurs, la formation consiste à éduquer les autres professionnels du Web (chef
de projet, développeur, rédacteur, Webdesigner) au respect des fondamentaux du référencement et
aux bonnes pratiques SEO. De très nombreuses formations continues, accessibles notamment sous
forme du droit individuel à la formation (DIF) sont proposées par des consultants SEO ;
du côté des dirigeants, les stratèges ont dans leurs missions un rôle beaucoup plus « politique » ;
du côté des pairs, Twitter est devenu le canal d’autoformation et de veille prédominant dans le
secteur mais la formation se déroule également en interne au sein d’une équipe SEO, lors
d’événements professionnels voire auprès de Black Hats[9]. Elle peut être validée également par la
certification CESEO[10], lancée par l’association SEO Camp ;
du côté étudiant, les formations initiales et/ou en alternance en référencement sont récentes
(2008/2009) et restent rares. Elles sont intégrées au sein d’enseignements divers participant à ce que
définit une formation aux métiers du Web : informatique, multimédia, communication, marketing,
commerce, documentation, éditorial. Le guide des formations au SEO en France, édité par
l’association SEO Camp en 2010, avait recensé 17 formations[11]. Si cette liste a quelque peu évolué,
avec l’arrivée notamment des écoles privées dites « de l’Internet » en 2011, les enseignements
qu’elle a relevés restent d’actualité. Les deux formations les plus pointues sont à un niveau bac+3 :
la licence professionnelle de rédacteur et référenceur Web à Mulhouse et la licence professionnelle
de marketing digital à Lyon.
Cette arrivée de référenceurs diplômés conduit également à s’interroger sur l’évolution des métiers du
référencement.

2 Les métiers du référencement


La professionnalisation des métiers du référencement a conduit à distinguer différents types de postes
allant du très opérationnel (technique) à la définition d’une stratégie de communication/marketing globale.
Cette distinction de métiers s’inscrit dans un marché de l’emploi très dynamique.

2.1 Être référenceur


Les intitulés de postes de référenceur sont des plus divers : expert SEO, consultant SEO, consultant en
référencement naturel/payant, chef de projet SEO, chargé de référencement SEO/SEA, etc.[12].
Pourtant, deux profils de référenceurs peuvent être distingués. D’un côté des référenceurs
opérationnels, hyperspécialisés, se rapprochant d’un profil technique (avec une spécialisation par
exemple dans l’architecture des sites ou un CMS[13] notamment d’e-commerce) et à l’opposé des
stratèges/managers, se rapprochant d’un profil communication/marketing, dépassant le cœur de métier
SEO pour réfléchir à la place du SEO parmi l’ensemble des leviers e-marketing, dans une stratégie de
visibilité sur le Web ou le mobile. Entre les deux, un ensemble de profils plus ou moins polyvalents
perdure.
Plus qu’un intitulé de poste, des différences apparaissent au niveau des missions accomplies.
Complétant la distinction évoquée précédemment entre profil technique et stratégique, les missions
dépendent des types d’organisations dans lesquelles les référenceurs travaillent (indépendants, en agence,
« in house » c’est-à-dire chez l’annonceur pour une PME, « in house » dans une grande entreprise). À
titre d’exemples, un référenceur en agence va conseiller et accompagner différents types de clients
(artisans – commerçants, PME, grands comptes) sur différents types de sites (sites vitrines, sites e-
commerce spécialisés, sites e-commerce généralistes, présence sur des sites de presse ou comparateurs
de prix, services de proximité, etc.). Un référenceur indépendant va avoir un profil plus technique,
travaillant seul et sera spécialisé sur quelques secteurs d’activité et/ou types de sites. Il gère souvent le
référencement de ses propres sites Web pour apporter du trafic et les monétiser. Quant au référenceur
chez l’annonceur, il travaille sur un site unique ou une galaxie de sites. Selon le profil de l’annonceur, il
va définir ou appliquer une stratégie et un ensemble de recommandations touchant à l’optimisation
technique, la rédaction de contenus éditoriaux, la stratégie de liens, l’analyse des résultats et les mises à
jour du ou des sites.

2.2 Le marché du référencement en France


Le marché du référencement en France est dynamique aussi bien du côté des affaires que des emplois.
Du côté des affaires, le marché du référencement a toujours été volatile. « Le problème fondamental
reste la rétention des clients ». Que ce soient les indépendants qui jouent principalement sur leur
réputation ou une agence qui porte en bannière son client historique ; le « turn over » de clients reste
important. Car à la différence des liens sponsorisés, avec lesquels la mesure du retour sur investissement
est immédiate, le talon d’Achille du SEO est l’absence de critères de mesure d’efficacité fiables. Le
référencement reste l’affaire d’une « alchimie » qui entretient une part de magie du métier, difficilement
conciliable avec les standards d’efficacité marketing attendus aujourd’hui par le marché. Le marché du
référencement a connu déjà deux crises économiques importantes (celle de l’éclatement de la bulle
Internet en 2000-2001 et celle actuelle à partir de 2007-2008).
Du côté des emplois, les opportunités professionnelles restent nombreuses même si elles sont fortement
corrélées à une dimension géographique (Paris/Île de France, voire Lille et Lyon, sans commune mesure
avec le reste de la France)[14]. Il n’existe évidemment pas une trajectoire professionnelle unique, allant de
l’opérationnel « avoir la main dans le cambouis » : coder, produire du contenu, partir à la pêche aux
liens ; jusqu’à définir la stratégie SEO ou même la stratégie de communication/marketing de grands
comptes. Certains veulent absolument rester dans leur « cœur de métier », d’autres quittent le SEO et
partent dans des stratégies transversales. Il est tout autant possible de faire le chemin inverse et de passer
d’une fonction stratégique à un retour à l’opérationnel.
L’analyse de la place de la formation dans ce secteur d’activité a permis d’évoquer l’importance de la
stratégie, laquelle est liée aux enjeux du référencement.

Section 2 ENJEUX ET STRATÉGIES DE RÉFÉRENCEMENT

Contrairement à une idée reçue et véhiculée par des agences ou des consultants SEO incompétents ou
malhonnêtes, les enjeux du référencement ne se résument pas à acquérir le meilleur positionnement sur un
ensemble de mots clés, dans les pages de résultat d’un moteur de recherche ou SERP (search engine
result pages). Ils relèvent au contraire d’enjeux e-marketing plus classiques nécessitant la mise en place
d’une stratégie de référencement et répondant à des objectifs précis.

1 Les enjeux e-marketing du référencement


Comprendre les enjeux e-marketing du référencement passe par une distinction des différentes
composantes du domaine, mêlant le référencent dit « naturel », « payant » et « social ». Cette
compréhension nécessite également une explication du fonctionnement d’un moteur de recherche à travers
les notions d’indexation, de positionnement et de visibilité ; l’anatomie d’une page de résultat et plus
largement les comportements de recherche d’information des internautes.

1.1 Définitions et enjeux du SEO/SEA/SMOG/SEM


Les définitions du SEO/SEA/SMO/SEM permettent de situer les enjeux du référencement et de
comprendre comment le SEO s’intègre parmi les différents leviers e-marketing. Longtemps l’enjeu
principal semblait être le positionnement de contenus dans les SERP, résumé par l’objectif aussi vendeur
qu’inutile d’« être 1er sur Google ». Cet objectif a été élargi à un enjeu de visibilité, suite à l’introduction
de la recherche universelle qui intègre dans les SERP généralistes (appelés également Web) d’un moteur
de recherche, des résultats issus des index connexes notamment ceux des images, des vidéos, des
actualités et du shopping. Pourtant, les enjeux du référencement relèvent en réalité de sa capacité à
générer un trafic ciblé, issu des moteurs de recherche et à améliorer les performances commerciales
(vente, fidélisation, avis, etc. – Isckia, 1999 ; Haon, Patel, 2011).
Dans cette perspective, le SEO consiste à définir une stratégie et à appliquer des techniques
d’optimisation d’un référencement dit « naturel » ou « organique ». Ces actions de stratégie et
d’optimisation concernent des critères (techniques, rédactionnels, transversaux) qui touchent au site, à la
page ou aux liens. Le SEA concerne pour sa part l’achat de liens « sponsorisés » ou « payants » sur les
moteurs de recherche. En France, le programme le plus connu est Google Adwords qui affiche sur les
SERP de Google et des sites affiliés des annonces, issues de campagnes et de groupes d’annonces (cf.
section 4 de ce chapitre). Le SMO rassemble les actions menées par un compte (individus, marques,
organisations) sur les médias socionumériques dans un objectif toujours lié au référencement dans les
moteurs de recherche. Dans cette optique de référencement, les médias socionumériques les plus
concernés sont Google+, YouTube, Pinterest, Linkedin, etc. Enfin, le SEM réunit l’ensemble des leviers
e-marketing, intégrant le SEO, le SEA, le SMO, spécifiquement développés pour les moteurs de
recherche.
La compréhension des enjeux e-marketing du référencement passe également par une explication du
fonctionnement d’un moteur de recherche.

1.2 Indexation, page de résultat, positionnement, visibilité


Une analyse en termes d’étapes de référencement permet de distinguer certaines notions parfois
confondues et d’indiquer les enjeux associés.
Le travail de base du référenceur est d’optimiser l’indexation des sites ou des contenus car l’enjeu est
ici simple : sans indexation pas de présence possible dans les pages de résultat. L’indexation consiste à
faciliter le crawl des pages du site par les robots des moteurs de recherche. Elle relève d’actions
d’optimisation technique présentées supra. Un moteur de recherche comme Google intègre différents
index et nécessite des actions spécifiques pour un index comme celui des actualités. Des problèmes
d’indexation peuvent se poser notamment pour des sites présentant des niveaux importants de profondeur
de l’arborescence ou utilisant des techniques ou langages présentant un frein au référencement (notamment
javascript, ajax, flash, formulaires mal codés etc.). Des solutions de premier niveau telle que la
proposition d’un ficher sitemaps (fichier XML qui fournit un plan du site) peuvent résoudre en partie ce
problème.
La page de résultat ou SERP peut être considérée comme le terrain de jeu du référenceur ou plus
exactement un espace plus ou moins concurrentiel selon la requête (mots clés) visée. Son anatomie donne
une idée des actions qui peuvent être menées. Ayant évolué plusieurs fois ces dernières années, elle met
en avant certains services et données (résultats personnalisés issus des contacts via Google+ ; rich
snippets ou description des résultats enrichis etc.). Selon le type de requêtes à dimension informative ou
transactionnelle (intégrant ou non une dimension de localisation par exemple), les SERP évoluent
fortement, laissant plus ou moins de place aux liens sponsorisés et aux résultats issus des index connexes
(images, vidéos, actualités, shopping etc.). Une étude de la société Searchmetrics[15] montre ainsi
l’évolution de l’intégration des liens, issus de la recherche universelle, dans les SERP de google.com aux
États-Unis, durant l’année 2012. Les formats les plus intégrés sont les vidéos, les images, puis les
données géolocalisées, les actualités et les résultats issus de Google Shopping mais ce sont les actualités
et les images qui ont progressé le plus.
Longtemps le travail du référenceur a pu être associé au positionnement de contenus dans les SERP,
l’objectif étant d’atteindre sur la 1re page, idéalement la 1re voire les 2 ou 3e positions. Si cet objectif est
aujourd’hui largement remis en cause, il reste un critère très étudié notamment via les outils de suivi de
positionnement. Néanmoins, au niveau des SERP, l’objectif aujourd’hui est beaucoup plus de rendre
visible un contenu, quelle que soit la nature de ce contenu. Sur des requêtes concurrentielles, générant un
volume de recherche important ou sur des SERP trustées par des sites importants, la meilleure tactique
consistera à essayer de se rendre visible par la marge, en se concentrant notamment sur le référencement
des images, des vidéos, etc.
Notons également que les SERP ont évolué ces dernières années en fonction des accords plus ou moins
pérennes et des rachats qui ont eu lieu d’un côté entre Google, Twitter (pendant une période) et Freebase
et d’un autre côté entre Bing, Yahoo Search et Wolfram Alpha.
Directement lié aux notions de positionnement, de visibilité et à l’anatomie d’une page de résultat ;
l’analyse de l’évolution des comportements de recherche permet de mieux saisir les enjeux e-marketing
du référencement.

Figure 7.1 Anatomie d’une SERP


1.3 Évolutions des comportements de recherche
Un des enjeux e-marketing majeurs du référencement est de mieux comprendre les comportements de
recherche d’information des internautes sur le Web en général et les moteurs de recherche en particulier,
lesquels ne cessent d’évoluer. De nombreuses recherches scientifiques portant principalement sur les
comportements informationnels des jeunes et dans les domaines de l’enseignement et de la recherche[16]
indiquent qu’un moteur de recherche est à considérer comme « un système global dans lequel entrent en
jeu de multiples variables : l’espace cognitif des acteurs, les caractéristiques contextuelles
psychologiques, sociales et organisationnelles, ainsi que les changements des besoins d’information »
(Ihadjadene, Chaudiron, 2008).
L’amélioration du délai d’affichage des résultats, l’introduction de Google Suggest, un service de saisie
semi-automatique des requêtes, suggérant des requêtes associées qui sont soit les plus populaires, soit
personnalisées[17] ou de la recherche universelle, ont conduit à des pratiques de recherche plus précises,
marquées par l’idéologie de la pertinence véhiculée par Google (Cardon, 2013).
De même, des études professionnelles fleurissent régulièrement pour tenter de mesurer le taux de clic
dans les SERP, en fonction de la place du lien dans la page[18]. Elles indiquent toutes que la consultation
des réponses dans les SERP se concentre sur la première page et se focalise sur les premiers résultats,
même s’il n’est plus d’actualité de parler d’un triangle d’or (symbolisant l’importance des trois premiers
résultats). Il est loin l’âge au cours duquel l’internaute consultait systématiquement les 2e, 3e pages de
résultats, reformulait sa requête plusieurs fois pour trouver une réponse adéquate.
Pourtant ces études gagneraient à distinguer les comportements des internautes selon au moins trois
types d’intentions (navigationnelles pour trouver une URL ; informationnelles pour trouver une
information ; transactionnelles pour réaliser un achat). Les comportements de recherche semblent
également très différents selon le type de contenus recherchés (images, vidéos, actualités, produits, etc.),
la dimension géolocalisée de la requête, l’affichage plus ou moins élargi des liens sponsorisés, etc. La
géolocalisation et plus largement les comportements informationnels en situation de mobilité ont
fortement modifié les interactions entre les usagers et les moteurs de recherche et par conséquent les
stratégies de référencement. Une fois mesurés les enjeux e-marketing liés au référencement, il est temps
de préciser ce qu’est une stratégie de référencement.

2 Définir une stratégie de référencement


Le référencement peut sembler relever d’un ensemble de techniques, de bonnes pratiques, de règles de
bon sens. S’intégrant plus largement dans une stratégie e-marketing, la stratégie de référencement va
comprendre une analyse de mots clés, un pilotage du référencement et des anticipations, afin de répondre
à des objectifs précis.

2.1 Analyse des mots clés recherchés


Aujourd’hui encore, même si d’autres outils de recherche d’information par exemple par la voix ont fait
leur apparition, la stratégie de référencement passe par une analyse de mots clés, visant les requêtes
réellement effectuées par les internautes. Cette analyse de mots intègre des phases de recherche de mots
clés à l’aide d’outils, de tests et de suivis, d’intégration de tendances et de mesure de la concurrence.
Définir une liste de mots clés, sur lesquels le référenceur souhaite positionner et rendre visible
différents types de contenus, prend du temps. Plusieurs postures peuvent être suivies : commencer par un
brainstorming au sein d’une équipe, se mettre dans la peau de l’utilisateur, réfléchir aux objectifs visés,
intégrer un vocabulaire métier, etc.[19] L’imagination pour trouver des « pépites » est sans limite, l’objectif
étant de définir un univers sémantique plutôt qu’une liste à proprement parlé de mots clés. Dans ce type
d’action, l’expérience mais aussi la curiosité, l’originalité, la rigueur sont les principales compétences et
qualités à mettre en oeuvre.
Une fois établie une première liste, il s’agit de la valider à l’aide d’outils comme l’outil de
planification de mots clés de Google Adwords https : adwords. google.fr/o/KeywordTool, afin de
vérifier que les mots clés pressentis sont bien recherchés ainsi que de compléter et d’amender la liste
initiale. À cette étape, plusieurs critères de sélection peuvent être pris en compte (volume de recherche
mensuel moyen, concurrence sur les mots clés, concurrence sur la présence dans les balises title, etc.).
Puis, lorsque les recommandations concernant l’utilisation de mots clés seront mises en place, il faudra
les tester pour voir si les visites à partir d’eux « transforment ». Enfin, il restera à faire évoluer cette liste
par un suivi de positionnement et d’audience, ce travail devant être réinventé avec la généralisation
depuis peu du « not provided »[20].
Figure 7.2 Outils de planification des mots clés – Google adwords
D’un point de vue stratégique, le choix de mots clés sur lesquels se positionner doit intégrer la prise en
compte de la loi de distribution statistique de la longue traîne, rendue célèbre par Chris Anderson
concernant les sites de vente en ligne et adaptée depuis au SEO[21]. La longue traîne désigne ainsi
l’ensemble des mots clés qui sont peu souvent tapés pour atteindre un site Web mais dont le cumul
représente une part importante du trafic total de ce site.
Le choix de mots clés peut également prendre en compte les tendances de recherche qui intègrent les
évolutions des recherches sur une période donnée ou les principes de la saisonnalité de l’activité, bien
connus dans de nombreux secteurs professionnels. À l’aide d’un outil comme Google Trends
www.google.fr/trends, il est possible de détecter des tendances ou des nouveautés et donc d’anticiper des
pics de recherche sur des mots clés donnés.
Tout ce travail doit être suivi et modifié à l’aide d’outil de suivi de positionnement et de mesure de la
concurrence. Dans ce domaine, aucune technique ne garantit un positionnement pérenne. L’effort à mettre
en place et les résultats dépendent beaucoup du secteur d’activité, de l’intensité concurrentielle sur le
marché et du type de concurrents présents (nationaux/internationaux, PME/grands groupes, etc.). Une
erreur lors de l’analyse initiale peut se révéler extrêmement coûteuse car elle lance l’optimisation sur une
fausse piste. Cette analyse de mots clés devient ensuite récurrente et participe également du pilotage du
référencement.

2.2 Le pilotage du référencement


Le pilotage d’un projet de référencement varie énormément selon le type de projet (refonte d’un site,
développement de sites multilingues, augmentation du trafic, etc.). Comme toute gestion de projets Web, il
ne faut surtout pas négliger les aspects organisationnels en interne et la relation-client en externe.
Combien de recommandations utiles, originales voire stratégiques ne seront jamais appliquées, au grand
dam des référenceurs en agence ou chez l’annonceur. Le pilotage doit commencer par définir l’axe de
positionnement des actions de référencement à l’intérieur des différents leviers e-marketing.

Focus 7.1
La dimension stratégique du référencement
Philippe YONNET, directeur général de l’agence Search Foresight Groupe My Media
(http://www.search-foresight.com)
En quoi le SEO est-il devenu stratégique ?
La part du trafic issu des moteurs de recherche constitue au minimum une part substantielle du trafic
des sites Internet, et parfois une part très importante. Avec le temps, la concurrence sur Internet est
devenue très vive dans de nombreux secteurs d’activité, et développer ce canal est donc devenu de
plus en plus stratégique.
Pour quels types d’entreprise ?
Évidemment, en premier lieu pour les « pure players », qui se développent souvent d’abord en axant
tout sur le SEO, puis essaient de capitaliser en investissant leurs premiers gains (ou l’argent de leur
seconde levée de fonds) dans des campagnes classiques de notoriété. Mais aujourd’hui, le SEO est
devenu stratégique pour de nombreux acteurs plus établis ou franchement « brick and mortar », soit
pour développer leurs ventes, mais aussi pour défendre leur e-reputation, ou empêcher de nouveaux
entrants de pénétrer leur marché via ce canal.
Quels conseils stratégiques vous demande-t-on ?
À vrai dire, on nous demande surtout des avis sur les arbitrages à réaliser entre le SEA (Adwords)
et le SEO, ou le référencement et les autres canaux. Spontanément, on nous interroge aussi sur
l’opportunité de prendre des risques face aux pénalités de Google. Il n’est pas rare non plus qu’on
nous demande comment dépasser un concurrent grâce au SEO. Mais en réalité, c’est plutôt nous qui
apportons des éclairages stratégiques dans nos missions de SEO : l’optimisation pour les moteurs de
recherche s’étend à de nombreux sujets qui impactent non seulement les choix techniques, mais aussi
le marketing, le merchandising, la communication et les relations presse/publiques. Un SEO efficace
influence aujourd’hui les stratégies d’inbound marketing des entreprises, mais il doit aussi savoir
se nourrir des plans existants. Une fois cette dimension stratégique découverte par les clients, ils se
mettent à nous solliciter sur ces sujets.
L’évocation de plusieurs projets permet d’évaluer les enjeux. Au cours de la refonte d’un site, un souci
pour le référenceur est de ne pas perdre les positons et la visibilité acquises avec l’ancien site. La mise
en place d’un plan de redirection des pages existantes vers les nouvelles, via des redirections 301, est
alors indispensable[22]. Dans le cadre d’une activité à forte saisonnalité, il s’agit d’anticiper la montée en
charge des recherches et de prévoir notamment la production de contenus en amont. Dans le cadre d’un
projet de référencement de sites multilingues, plusieurs précautions doivent être prises en compte afin
d’éviter notamment la duplication de contenu.
Il s’agit de retenir la solution la plus efficace entre une situation idéale mais compliquée à gérer, d’un
nom de domaine par langue (monsite.fr et monsite.co.uk) à celle à proscrire de pages multilingues
(monsite.fr/welcome) ; en passant par un sous-domaine par langue (france.monsite.com) ou un répertoire
par langue (monsite.com/fr).
Enfin le cas du changement de domaine permet d’aborder le choix du nom de domaine. Ce choix est
crucial car le nom de domaine s’apparente à un nom de marque (Stenger, Bourliataux-Lajoinie, 2011).
Sous un angle marketing, soit la marque est déjà connue, il faut alors vérifier si le nom de domaine est
déjà réservé sur le site d’une société spécialisée comme Gandi.net ou Domaine.fr et s’acquitter de la
redevance annuelle pour en avoir la jouissance, soit il faut créer le nom ex nihilo. Dans ce cas, les
notions de positionnement de la marque, de valeur de marque, d’image de marque s’appliquent au choix
de nom du site Web. Celui-ci porte alors sur l’intégration ou non d’une référence explicite à l’activité ou
au service rendu par le site (ex. : quiestlemoinscher.com). Le nom de domaine va indiquer ensuite
l’origine territoriale de la marque ou son secteur d’activité, avec des suffixes ou TLD (Top Level
Domain) comme .fr pour la France, .de pour l’Allemagne, .com pour une activité commerciale avec une
ambition mondiale ou .org pour une organisation à but non lucratif. Il doit favoriser enfin la mémorisation,
anticiper les fautes possibles d’orthographe et se prémunir d’action de cybergrabbing de la part de
concurrents qui choisiraient un nom très proche du nom d’origine afin de profiter des erreurs des
consommateurs.
Cette présentation de la dimension stratégique du référencement permet de mieux situer les nombreuses
techniques d’optimisation utilisées pour référencer les contenus Web dans les moteurs de recherche.

Section 3 OPTIMISER LE RÉFÉRENCEMENT NATUREL (SEO)

Le référencement naturel des contenus Web relève d’un ensemble de piliers (technique, éditorial, liens).
Renforçant la définition d’une stratégie de référencement, la compréhension du fonctionnement des
moteurs permet de mieux situer les optimisations à réaliser in-site (technique, éditoriale, verticale), au
niveau du Netlinking et de s’outiller efficacement afin de réaliser les différentes tâches d’un référenceur.

1 Comprendre le fonctionnement des moteurs


Comprendre le fonctionnement des moteurs, c’est améliorer l’indexation des pages et des contenus,
optimiser les critères qui ont le plus de poids dans les algorithmes de classement des résultats et
connaître les règles édictées par les moteurs.
Les moteurs de recherche tissent la toile de leurs index tels des araignées à l’aide d’un ensemble de
robots, appelés spiders, parcourant le Web de liens en liens. L’indexation des contenus par un moteur de
recherche comme Google met l’accent depuis quelques années sur la fraîcheur de l’index et le délai
d’indexation des contenus, enjeux stratégiques aussi bien pour les sites de presse que dans le e-commerce
lors des soldes par exemple. Cette quête de fraîcheur et de rapidité s’est traduite notamment par
l’abandon de la « Google dance »[23], la modification de l’infrastructure technique du moteur avec Google
Caffeine, l’intégration pendant une période des messages de Twitter ou encore le traitement de plus en
plus rapide des pénalités issues des filtres Panda ou Pingouin.
Quelques conseils peuvent être également suivis afin d’améliorer le délai d’indexation d’un contenu.
Lors du lancement d’un nouveau site, la mise en ligne d’une version provisoire, attractive, contenant des
contenus dès le départ, sur laquelle des mises à jour fréquentes de la page d’accueil seront effectuées,
améliore le délai d’indexation dans Google. Ce délai reste néanmoins variable selon le type de sites, le
type de contenus, l’antériorité du site, etc. Des actions sur les médias socionumériques, Google+ et
Twitter notamment, peuvent améliorer ce délai.
Le positionnement sur les moteurs passe par un ensemble de critères faisant partie du fameux
algorithme si bien gardé secret de Google. Parmi ces critères, plusieurs relèvent aujourd’hui d’un mythe
(sur le marché français tout du moins), comme les mots clés à insérer dans la balise Meta Keywords ou la
densité de mots clés minimum à respecter. Les critères peuvent avoir trait au site ou au domaine. Ils
concernent l’unicité du contenu qui doit être original et disponible sur un seul domaine, le volume et la
qualité des liens entrants, l’importance du domaine, etc. Un second ensemble de critères relève de la
page. Ils concernent principalement la balise title, le volume et l’ancre des liens entrants, un contenu
unique, de qualité, rafraîchi régulièrement et la structuration du code. Une autre série de critères est
relative aux liens, parmi lesquels l’ancre des liens, le texte qui entoure le lien, la place du lien dans la
page ou encore la thématique de la page contenant le lien.
La compréhension du fonctionnement des moteurs passe enfin par la prise en compte de la philosophie
des moteurs ou comme le désigne Dominique Cardon, d’entrer « dans l’esprit du PageRank » (Cardon,
2013). Il s’agit ainsi d’un ensemble de règles défini, rappelé et précisé par différentes sources
d’information, constituant ce qui peut être désigné comme les « guidelines » de Google (le guide de
démarrage relatif à l’optimisation pour les moteurs de recherche goo. gl/seoguide-fr, les blogs officiels
googleblog. blogspot.fr, googleWebmastercentral. blogspot.fr et le petit nouveau
googleWebmastercentral-fr. blogspot.fr ; sans oublier le blog de Matt Cutts, responsable de l’équipe anti-
spam de Google et tenant le rôle de porte-parole de Google auprès des référenceurs
www.mattcutts.com/blog).
Après avoir longtemps joué au jeu du chat et de la souris, les relations entre Google et les référenceurs
se sont officialisées, à travers des échanges directs sur les blogs cités précédemment, le traitement des
pénalités par des équipes en interne de Google, la participation de membres de Google à des événements
professionnels, etc. même si le respect ou non des règles ainsi édictées distingue toujours deux types de
communautés de référenceurs, les white hats et les black hats.
La compréhension du fonctionnement d’un moteur de recherche comme Google permet de distinguer les
optimisations in-site (technique, éditoriale, verticale).

2 Optimisation in-site
L’optimisation in-site comprend un ensemble de techniques d’optimisation technique, d’optimisation
éditoriale et d’optimisation verticale. Si l’optimisation technique porte plus sur un site Web, les
optimisations éditoriales et verticales sont à aborder au niveau des différents contenus Web.

2.1 L’optimisation technique


L’optimisation technique d’un site Web constitue le premier pilier du référencement. Elle passe par un
ensemble de principes, de règles, de paramètres à respecter et à mettre en place. Ceux-ci concernent
notamment l’hébergement et la performance du site, l’optimisation du code source, les contenus
accessibles (aux moteurs) ; le paramétrage des outils pour les Webmasters, du fichier robots.txt, du
fichier sitemap, des balises moteurs et de façon plus poussée, la gestion de la duplication de contenu. Ce
paragraphe évoque différents leviers d’optimisation technique.
L’hébergement et la performance du site relève en partie du choix de l’hébergeur. Il faut vérifier la
compatibilité de la solution d’hébergement retenue avec la version du CMS et de la base de données
utilisées. Le temps de chargement peut être testé avec un outil comme http://tools.pingdom.com et
optimiser notamment en compactant les fichiers CSS, en rassemblant les images dans des sprites CSS, en
positionnant en bas de page les fichiers javascript, en optimisant les images, etc.
L’optimisation technique d’une page passe par la rédaction d’un code propre. Il s’agit par exemple de
respecter la sémantique des balises HTML. Utilisez la balise <H1> pour les titres d’article et <H2>,
<H3> pour les sous-titres. Utilisez une feuille de style CSS pour la mise en page avec les balises de
fonction <div> positionner un bloc et <span> modifier le style d’une portion de texte. Privilégiez la mise
en valeur des mots clés avec la balise d’indication <strong>.
L’optimisation technique consiste ensuite à respecter le standard de schema.org. Il s’agit d’un schéma
d’intégration du Web sémantique. Ce schéma de « micro-données » (fonctionnalité du HTML5 afin de
créer du contenu sémantique dans les documents HTML) est commun à plusieurs moteurs de recherche.
Ces micro-données permettent aux robots d’indexation de mieux saisir le sens des pages indexées. Ce
standard est le successeur d’autres formats comme les micro-formats ou FOAF (Friend of a friend) qui
permettent de décrire des personnes et les relations qu’elles entretiennent entre elles.
L’optimisation passe aussi par l’accessibilité des contenus aux robots. Un outil efficace dans cette tâche
est le fichier sitemap. Ce fichier correspond au plan du site dans un format xml. Il contient la liste des
URL de l’ensemble des pages du site. Vous pouvez créer un fichier sitemap avec différents outils code.
google.com/p/sitemap-generators/wiki/SitemapGenerators et le faire connaître à Google via un compte
Outils pour les Webmasters ou intégrer l’URL dans le fichier robots.txt. Plus d’informations sur
sitemaps.org.
La nécessité du respect à 100 % des critères d’accessibilité définis par le W3C fait débat dans la
communauté SEO. Le service « validateur W3C » validator. w3.org permet de mesurer le respect des
normes. En SEO, l’enjeu est plus celui de l’accessibilité aux robots que le respect des normes W3C.
Le paramétrage technique permet d’approfondir l’optimisation technique. Il intègre le paramétrage
disponible dans les outils Google pour les Webmasters, dont la création et la validation du fichier robots.
txt. Ce fichier, placé à la racine du site (ex. : www.dunod.com/robots.txt) indique aux robots les fichiers
ou répertoires que le Webmaster d’un site ne souhaite pas voir parcourus avec la commande « disallow ».
Parmi les balises moteurs, la balise title est la balise principale à optimiser. Elle s’affiche comme titre
de la page dans le navigateur. La balise Meta description permet de donner une indication pour le texte
descriptif, affiché sous le titre de page, dans le snippet d’un résultat. La balise Meta keywords n’est plus
prise en compte par Google Web mais Google News en utilise une version. La balise Meta robots sert, à
l’image du fichier robots.txt, à définir des restrictions d’indexation destinées aux robots. Les valeurs
principales sont noindex (pas de crawl), nofollow (ne crawl pas le lien), noarchive (pas d’accès à la
version cache dans les résultats).
EXEMPLE – Page d’accueil de Dunod
www.dunod.com – balises présentes le 03/04/2014[24].
<title>Éditions Dunod - Éditeur de livres</title>
<meta name=»description» content=»Dunod Editions. Edition de livres de savoirs pour étudiants, professionnels, amateurs en entreprise,
sciences, techniques, informatique, psy, bien-être et loisirs.» />
<meta name=»keywords» content=»Dunod, édition, éditions, éditeur, éditeurs, livre, livres» />

Enfin, la réécriture d’URL permet de modifier des URL « exotiques » contenant un ensemble de
paramètres et de caractères spéciaux (&, ?, /, etc.). Elle n’a pas d’impact sur le positionnement mais
beaucoup plus sur l’incitation au clic (la présence de mots clés indiquant plus explicitement le contenu
accessible). La mise en place d’une réécriture d’URL passe par plusieurs étapes : vérifier que votre
choix d’hébergement autorise la réécriture d’URL ; lister les pages dynamiques dont l’URL comporte des
paramètres ; écrire les règles d’un nouveau schéma d’URL dans le fichier .htaccess qui correspond ;
changer tous les liens vers les pages dont l’URL a été réécrite ; vérifier qu’il n’y a pas d’erreur.

Focus 7.2
Duplicate content : le reconnaître, s’en prémunir
Par Sébastien Billard, expert SEO chez 3 Suisses.
Le duplicate content (littéralement « contenu dupliqué ») se définit comme le fait pour une même
page d’être accessible via plusieurs URLs. Au sens strict, il s’agit d’une duplication à l’identique
(code HTML + textes) d’une page Web sur plusieurs URLs. Cependant, dans la pratique, on
considère également comme étant du duplicate content des pages avec un contenu identique mais
dont le code HTML diffère légèrement. Le fait que des fragments de textes soient dupliqués sur le
site ou sur le Web est quant à lui qualifié de « near duplicate ».
Quelques sources courantes de contenu dupliqué :
Noms de domaine multiples (« www.monsite.com » et « www.monsite.fr »)
Sous-domaine multiples (« www.monsite.fr » et « monsite.fr »)
Mauvais canonisation de la page d’accueil et des répertoires (« www.monsite.fr/ » et
« www.monsite.fr/index.php »)
Identifiants de sessions passés dans les URL (« index. php ?sid=123 » et « index. php ?sid=456 »)
Inconsistances dans l’ordre des paramètres (« page. php ?couleur=rose&taille =42 » et « page.
php ?&taille =42 couleur=rose »
Réécriture d’URLs sans redirections (« /produit. php?type=chemise&color=rose » et « /chemise-
rose.php »)
Si les moteurs de recherche ne pénalisent pas le duplicate content en tant que tel, celui-ci n’en est
pas moins néfaste pour le référencement, d’autant plus que sa volumétrie est importante.
Les principaux problèmes posés par le duplicate content sont la dilution de la popularité
(PageRank) et l’épuisement du « budget crawl », c’est-à-dire du temps alloué par les moteurs à
l’indexation d’un site. Le temps passé à crawler de multiples fois les mêmes pages sous des URL
différentes est du temps perdu qui n’est pas passé à crawler d’autres pages plus utiles pour le
référencement.
Si les moteurs de recherche ont mis en place des protocoles de lutte contre le duplicate content
comme les balises link rel=canonical, la meilleure approche est toujours de traiter le problème à la
source en s’assurant que chaque contenu ne puisse être accédé que par une URL unique.
Comme vous pouvez le constater, ce premier niveau d’optimisation nécessite un minimum de
compréhension et de connaissance en langage de programmation.

2.2 L’optimisation éditoriale et verticale


L’optimisation éditoriale et ce que nous pouvons considérer comme sa déclinaison, l’optimisation
verticale, constitue le deuxième pilier du référencement. En appliquant le précepte proposé par Olivier
Andrieu « le contenu est roi », il s’agit de respecter un ensemble de principes et de règles concernant le
contenu éditorial, parmi lesquels : suivre les règles de la rédaction Web, mettre en place quelques
principes d’optimisation éditoriale et établir à la fois une ligne éditoriale et une stratégie de publication.
Dans une première approche, l’optimisation verticale va consister à suivre ces principes et ces règles,
appliqués à d’autres types de contenus que du texte : image, vidéo, actualité, données localisées, etc.
Dans son guide de démarrage, cité précédemment, Google évoque plusieurs principes à dimension
marketing : créer un contenu pertinent et accrocheur, impliquer les internautes, proposer un contenu
unique. Encore faut-il traduire en action ses principes ! Une première piste peut être d’appliquer les
règles de la rédaction Web présentées en détail par Isabelle Canivet dans son guide[25]. Sept leçons sont à
appliquer parmi lesquelles : « livrer tout, tout de suite : l’utilisateur est pressé » ou « vendre : l’écriture
doit atteindre les objectifs du site ». Plus concrètement, il est conseillé notamment de placer le contenu
principal dans les zones visibles de la page ; de respecter les principes de la pyramide inversée
consistant à proposer l’idée principale dès le début et à donner les détails ensuite ; de suivre les lois de
proximité journalistique (géographique, temporelle, thématique) ; de produire un texte concis, concret,
cohérent ou encore d’améliorer la lisibilité sur les différents supports de consultation.
Parmi les actions à privilégier, la rédaction du titre de la page (voir balise title) est importante afin, à
la fois d’indiquer clairement le contenu proposé mais aussi, voire surtout, d’inviter le lecteur à le
consulter. Il s’agit alors de travailler la dimension incitative de la formulation. Un titre comme
« Optimisation du contenu : travaillez votre texte appeal ! »[26] réussit le tour de force de répondre aux
règles de rédaction Web pour les robots et les lecteurs, en mêlant dimensions informatives, incitatives et
humoristiques. Différentes tactiques issues du monde des blogs consistent également à proposer des listes
(« Les 10 meilleurs »), des solutions (« comment faire… »), des avis d’experts, etc.
Le travail portant sur le texte visible concerne à la fois le contenu propre et l’habillage du texte. Un
souci doit être apporté à la rédaction des chapô, du contenu éditorial, des inter-titres, etc., sans pour
autant vouloir atteindre une hypothétique densité de mots clés idéale.
Comme les critères de référencement, la rédaction Web concerne à la fois la page que nous venons
d’évoquer et le site, à travers notamment son arborescence. Idéalement, les rubriques contiennent un
grand nombre de pages permettant de balayer l’ensemble d’un univers sémantique. À chaque page n’est
associé qu’un nombre limité de mots clés. Plus le site contiendra de pages, plus il pourra se positionner
sur des recherches de longue traîne.
La rédaction de contenu passe également par le respect d’une ligne éditoriale et la mise en place de
règles de publication, les deux faisant partie d’une stratégie éditoriale. La ligne éditoriale définit
l’identité de la publication et permet de garder une cohérence entre les différents éléments publiés. Elle
doit permettre de répondre à un ensemble de questions : quels sont les objectifs stratégiques ? Quels sont
les publics cibles visés ? Quels contenus seront apportés ? Quelle place est laissée au lecteur ? Etc. Les
règles de publication doivent intégrer absolument un rythme de publication, une planification des articles
et un suivi de l’actualité.
Dépassant le texte, les optimisations verticales concernent principalement les images, les vidéos, les
données localisées, les actualités, la vente (Google shopping). Si elles reprennent les principes et les
règles de la rédaction Web en les adaptant à ces types de contenu, chacun de ces contenus conduit à
développer des techniques spécifiques de référencement.
Ainsi, pour le référencement des images, il est conseillé de travailler le nom de l’image ; le texte
alternatif qui sera présent dans la balise <alt> ; les textes placés autour de l’image. Néanmoins, étant
donné les dimensions de partage, de visibilité, de viralité des images, il est utile également de les
déposer sur des plateformes de partage d’images telles que Flickr, Instagram, Pinterest, etc., en prenant
soin d’associer des métadonnées et notamment de choisir des mots clés pertinents pour faire jouer la
folksonomie.
Le référencement des vidéos, appelé aussi VSEO (video search engine optimization), intègre aussi ces
principes et ces règles tout en soignant de plus en plus la qualité technique de la vidéo (image et son)
dans une optique de recherche vocale et en préconisant le multipostage des vidéos sur les innombrables
plateformes de consultation de vidéo (à titre indicatif : YouTube, Dailymotion, Vimeo, Wat, Métacafé,
etc.).
Le référencement local encore plus que les deux précédents est un domaine à part entière du
référencement. Sur les SERP de Google, il est devenu indispensable dans les recherches impliquant un
critère géographique et permet d’apparaître dans les cartes (ou maps) proposées. Intégré aux services de
Google+, Google+ Local permet de cibler un segment de marché spécifique (secteur d’activité et secteur
géographique). Plusieurs critères sont à respecter parmi lesquels, le choix des catégories pour classer
votre activité, la reprise des mêmes indications (adresse physique, nom de votre marque) sur votre site et
votre compte Google+ Local ou encore la mise en place de pages d’atterrissage (landing page)
localisées par lieu et par établissement.
Deux autres types de référencement notamment relèvent de techniques spécifiques. Le référencement de
contenus d’actualité nécessite une validation par Google afin de pouvoir apparaître dans l’index
spécialisé d’actualités. De même le référencement de contenus liés à une dimension de vente est
particulier. Il concerne le domaine des comparateurs de prix et l’essor des marketplaces.
Complétant l’optimisation technique et l’optimisation éditoriale/verticale dans une stratégie de
référencement, la stratégie de Netlinking ou stratégie de gestion des liens constitue le troisième pilier du
référencement.

2.3 L’optimisation du Netlinking


La stratégie de Netlinking permet d’aborder les liens comme critères SEO et d’envisager des sources
de liens potentielles. Là encore la créativité, l’originalité doivent être le mot d’ordre car si tous liens sont
« bons à prendre », les plus intéressants demandent beaucoup de temps, de travail, d’échanges pour des
résultats parfois incertains. Le Netlinking est aussi le terrain de chasse des référenceurs black hats
utilisant scripts, scraps, outils d’automatisation pour spammer des sites, obtenir des positions dont la
pérennité reste la pierre d’achoppement, « faire monter » des contenus sur des requêtes improbables ou
passer de l’autre côté de la force et faire du negative SEO[27]. Partie émergée de l’iceberg, la
manipulation des résultats pour une requête cible a fait parler d’elle lors de ce qui est mieux connu sous
le nom de Google bombing[28].
Évoquer les liens conduit forcément à traiter du critère longtemps phare de l’algorithme de classement
des résultats de Google, le PageRank (PR). Sous couvert de neutralité (Flichy, Meadel, 2013) et visant à
mesurer l’importance d’une page au regard des autres pages qui présentent un même niveau de
pertinence (Cardon, 2013)[29], le calcul du PR s’effectue pour chaque page selon un barème allant de 0
(nul) à 10 (maximum). Il faut comprendre le PR comme une logique de vote. À chaque fois qu’une page
met un lien vers une autre page, ce lien est considéré comme un vote pour indiquer l’intérêt de cette page.
Critère manipulable, que les référenceurs essaient de modeler, le PR d’une page est réparti entre toutes
les pages vers lesquelles cette page propose un lien. Les tactiques de modélisation des liens (techniques
du PR Sculpting et PR Modeling) ont longtemps fait débat dans la communauté SEO, visant à optimiser
la structure hypertexte d’un site Web en ne transmettant la force d’une page ou « jus de liens » (link juice)
qu’aux pages les plus importantes[30]. Plus largement, si le PR est « mort » en tant que critère tout
puissant, la notion de lien et son poids dans l’algorithme de Google restent un critère essentiel pour
positionner un site Web et augmenter son rythme d’indexation.
Tous les liens entrants ne sont pas équivalents. D’un point de vue technique, le robot d’indexation doit
pouvoir suivre le lien entrant. On parle alors de lien spider friendly. L’ancre du lien doit être optimisée
sans atteindre une sur-optimisation qui pourra être pénalisée notamment par Google Pingouin. L’ancre
d’un lien correspond au texte du lien sur lequel l’internaute va pouvoir cliquer pour atteindre un nouveau
contenu. Elle doit indiquer explicitement le thème du contenu visé, à travers notamment le choix de mots
clés pertinents. Sont ainsi à éviter les systèmes automatisés qui mettent les ancres sur des indications du
type « en savoir plus » ou « cliquez ici ». Quant à l’attribut nofollow, s’il ne donne pas le « jus » du lien,
il n’empêche pas le robot de suivre ce lien.
Dans le domaine du SEO, un autre critère est venu concurrencer le PR. Le TrustRank correspond à un
indice de confiance sur un sujet donné. Il est basé sur une sélection de sites de références sur un sujet
donné. Ces sites ont la confiance de Google et sont souvent des sites institutionnels ou incontournables
dans leur domaine d’activité. Comme le PageRank, le TrustRank est calculé pour chaque page, selon une
échelle variant cette fois-ci de 0 (spam) à 1 (site important). Des indications donnant une idée du
TrustRank d’une page ou d’un domaine sont par exemple disponibles sur l’outil Open Site Explorer
opensiteexplorer.org. Les sites les plus recherchés sont ceux avec des suffixes en .edu ou .gouv car ils
sont réservés à des instances précises. Parmi les plus connus, nous trouvons par exemple wikipedia.org.
Avant de vouloir absolument obtenir des liens issus de tels sites, il est indispensable d’améliorer son
maillage interne. Les liens internes permettent en effet d’augmenter le nombre de pages vues lors de
chaque visite et de faire découvrir la richesse du contenu. Cette dimension est plus tournée vers
l’internaute même si elle peut être utile aux robots pour parcourir votre site. De nombreuses astuces pour
améliorer le maillage interne sont issues du monde des blogs. Nous pouvons évoquer la proposition de
liens vers des contenus antérieurs qui continuent à générer du trafic, l’optimisation des ancres de liens, la
réalisation de séries ou de dossiers pour montrer la cohérence des contenus proposés, la suggestion qui
peut être automatisée de contenus connexes, sans oublier un fil d’Ariane ou un plan de site à destination
des internautes. Comme l’évoque Aurélien Bardon animant le site Oseox[31], l’architecture du site et le
maillage interne vont influencer la répartition du « jus de liens ». Une page que vous souhaitez rendre
importante doit recueillir plus de liens et des liens de meilleure qualité. L’ancre du lien doit être variée
pour rester « naturelle ».
Une fois optimisé le maillage interne, il reste à développer le maillage externe et à mettre en place une
tactique pour obtenir de nombreux liens de qualité. Ce travail passe par l’inscription dans des annuaires,
l’animation d’un blog, la présence sur les médias socionumériques, la mise en place d’échanges ou
encore une stratégie éditoriale orientée par l’acquisition de liens (ou link baiting).
L’intérêt de s’inscrire dans des annuaires ou de mener des campagnes de communiqué de presse, sur
des plateformes dédiées afin d’obtenir des liens, se pose. Néanmoins, quelques éléments peuvent
convaincre de l’utilité de la démarche. Il s’agit de liens qui seront contextualisés autour d’une thématique
précise, sans liens retour la plupart du temps. Une soumission à la main faisant varier le titre, la
description doit être menée auprès d’annuaires généralistes ou spécialisés qui seront sélectionnés. Des
listes d’annuaires et de sites de RP sont disponibles sur le Web mais les référenceurs préfèrent souvent
garder leur propre liste secrète. La prudence est cependant de mise car certains annuaires ou sites de
communiqués sont pénalisés par Google.
Logiquement, pourrions-nous dire, l’animation d’un blog et le partage de contenus sur les médias
socionumériques participent d’une tactique afin d’obtenir des liens. L’article de Jean-Marie Leray sur la
stratégie de liens[32] détaille très bien la démarche à suivre, passant par le repérage des sites intéressants
et susceptibles de mettre un lien vers une de vos pages et les actions concrètes à mener afin de proposer
un échange de liens.

Focus 7.3
Netlinking : priorité à la qualité
Par Olivier Andrieu, consultant SEO et éditeur du site Abondance.com
La notion de netlinking, ou action de rechercher des liens (backlinks) vers son site, a connu plusieurs
époques sur le Web. Longtemps, de nombreux Webmasters et référenceurs ont mis en place des
stratégies plus ou moins pernicieuses pour créer des liens factices pointant sur un site : on a alors
connu la grande époque des « annuaires SEO », des « communiqués de presse » (qui n’en étaient
pas, puisqu’il s’agissait plutôt de sites « poubelles », sorte de blogs ouverts acceptant n’importe
quel contenu assorti de liens, bien sûr), du « spamco » (ajout de commentaires sur les blogs ou dans
les forums, sans autre intention que d’ajouter un lien dans la signature) et autres joyeusetés.
Et puis un jour, Penguin est arrivé. Le filtre antispam de Google a alors fait un grand ménage sur le
Web, et notamment dans l’Hexagone. Il était temps !
Depuis 2012 donc, date à laquelle le manchot googlien a été lancé, la situation a changé avec une
réelle prise en compte (et de conscience) de la nécessité de créer du contenu de qualité permettant
d’attirer des liens naturels de bien meilleure qualité. Cette notion de « linkbaiting » (appâter le lien
avec des textes d’excellente valeur) demande certes beaucoup plus de temps à être mise en place,
mais elle est sans commune mesure avec les méthodes anciennes en termes de pérennité et
d’efficacité.
La morale de cette histoire « penguinesque » est donc qu’il est absolument nécessaire de rechercher
des liens naturels et de qualité. Bannissez toute méthode visant à créer des backlinks factices qui
deviendront vite « toxiques » !
Toutes ces actions qu’elles relèvent de l’optimisation technique, de l’optimisation éditoriale/verticale,
de l’optimisation du Netlinking n’ont pas véritablement d’intérêt si vous ne mesurez pas leurs résultats, à
travers l’utilisation d’outils SEO.

2.4 Les outils SEO


Un référenceur va utiliser une myriade d’outils pour réaliser ses tâches, constituant sa « boîte à outils ».
Dans ce point, nous nous concentrons sur la présentation d’un outil de mesure d’audience, à travers celle
de Google Analytics.

Focus 7.4
La « boîte à outils » d’un référenceur
Entretien avec Renaud Joly, responsable SEO (www.renaud-joly.fr)
Quels outils utilisez-vous ?
J’ai utilisé de nombreux outils durant mon parcours, je retiens : l’analyse du positionnement
(SEMrush, Myposeo, Yooda), l’analyse des liens pointant vers le site (Majestic SEO), l’analyse des
logs (Botify), la simulation de crawl du site (Deepcrawl, Xenu). Il ne faut pas oublier les outils
proposés par les moteurs de recherche qui sont une mine d’information gratuite sur le comportement
des moteurs concernés : Google Webmaster Tools, Bing Webmaster Tools, Yandex Webmaster
Tools. On peut y ajouter Google Analytics en Webanalyse.
En quoi sont-ils importants dans votre travail ?
Les outils vont permettre de gagner du temps, ce qui améliore l’efficacité car on peut mener des
actions plus rapidement. Les outils vont ramener des données que l’on ne peut pas se permettre de
vérifier manuellement, exemple : les crawlers, les contrôles positionnement. Ils vont pré-analyser
les données : rapport d’erreur, évolution. Ils vont permettre de systématiser les contrôles, ce qui
procure de la fiabilité et de la réactivité. Ils vont enfin permettre d’analyser les sites concurrents.
Quelles sont les différences entre ces outils ?
Les fonctionnalités sont assez proches. Les différences se font selon la volumétrie à analyser.
Certains outils sont calibrés pour des sites de taille moyenne de quelques dizaines de milliers de
pages, d’autres sont calibrés pour de gros sites ou des marketplace de plusieurs millions de pages.
Dans le second cas, l’industrialisation est plus poussée, avec par exemple la présence d’une API
permettant d’automatiser les transferts de données. Le prix est aussi adapté en fonction des volumes
à traiter.
Le domaine du Web Analytics est en lien direct avec le SEO et aujourd’hui dans une vision multicanal
et SEM, il a donné naissance au Digital Analytics[33]. Plusieurs outils sont gratuits. Outre Google
Analytics, www.google.fr/intl/fr/analytics/, la société AT Internet développe une offre complète avec Xiti
Free, www.xiti.com/. Une solution open source est également disponible avec Piwik, piwik.org/.
Ce domaine intègre un vocabulaire spécifique avec des notions comme celles de pages vues (nombre
de fois où un document est vu/lu dans un navigateur Web) ou de taux de rebond (pourcentage de visite
d’une seule page qu’elle soit la page d’accueil ou une autre page). La mesure d’audience et de
performance nécessite de se fixer des objectifs précis (par exemple : améliorer la fidélisation, augmenter
le panier moyen, etc.) qui vont être traduits en KPI (ou indicateurs clés de performance)[34]. Il s’agit
d’analyser des tendances, des variations, de suivre régulièrement les évolutions et de tester des pistes
d’optimisation.
En effet, parmi les bonnes pratiques souvent relevées, il est indiqué d’identifier les parcours des
utilisateurs, afin d’optimiser le tunnel de conversion et d’identifier les pages de sortie ; de réaliser des
A/B tests afin de vérifier les choix ergonomiques et de design.
Une solution comme Google Analytics présente de très nombreux tableaux de bord correspondant à des
dizaines de critères (nombre de vues, durée moyenne d’une visite, sites référents, flux de comportement,
etc.). Elle connaît des évolutions régulières ajoutant de nouvelles fonctionnalités et modifiant parfois les
grandes catégories qui sont actuellement : temps réel, audience, acquisition, comportement, conversions,
tracking mobile. Les critères qu’elles renferment permettent de répondre à un ensemble de questions : qui
sont vos visiteurs ? D’où viennent-ils ? Vos visiteurs sont-ils fidèles ? Quel est l’impact du marketing
viral ? Quelle est la part de vos visiteurs qui proviennent des moteurs de recherche ? Quel est votre
niveau de conversion par sources de trafic ? Quels sont les parcours de vos visiteurs sur votre site (pages
d’arrivée et de sortie) ? Etc.
Google Analytics propose de définir des objectifs de conversion, de les marquer et de mesurer les
résultats. Un objectif correspond à une page Web, à laquelle l’internaute accède après avoir effectué une
action souhaitée (ex. : un achat). Il se définit donc par une URL spécifique, un nom d’objectif, un
entonnoir de conversion (chemin d’accès à la page objectif), une valeur d’objectif (permettant de mesurer
le retour sur investissement).
Si ce chapitre a pour ambition première de permettre à des étudiants ou des professionnels d’évaluer
les enjeux du référencement naturel, nous évoquerons sous l’angle de la complémentarité quelques
principes du référencement payant[35].

Section 4 DÉCOUVRIR LE RÉFÉRENCEMENT PAYANT (SEA)

Les solutions de « référencement payant par achats de mots clés » ou « achats de liens sponsorisés »
(SEA) sont à la fois complémentaires mais aussi en concurrence avec le référencement naturel (SEO).
En effet, s’il n’y pas de lien entre les deux en termes de positionnement, la concurrence existe en termes
de visibilité dans une SERP. Les liens sponsorisés peuvent occuper les emplacements les plus visibles,
sur certaines requêtes concurrentielles.

1 Google Adwords
Les solutions de référencement payant sont basées sur la vente de mots clés aux enchères. Cette
démarche conduit à afficher un titre d’annonce, un lien et un court descriptif vers une page Web ciblée ou
page d’atterrissage. La solution la plus connue est Google Adwords.
En complément d’une stratégie de référencement naturel, toute la stratégie d’Adwords repose sur
l’intérêt que peut avoir une entreprise à acheter une visibilité sur certains mots clés pour une période
donnée. Le principe de Google Adwords est de mixer l’enchère et la pertinence des résultats. En effet,
chaque enchère est pondérée d’un quality score qui note la pertinence d’une campagne et des annonces.
La tarification de cette démarche est déterminée au CPC (coût par clic).
En tenant compte des statistiques fournies par Google, il est possible de connaître le taux moyen de
clics pour un mot-clé acheté, en fonction du CPC investi. Il est également possible de prévoir une somme
maximale par clic allouée à l’achat d’un mot-clé. Ceci permet à l’entreprise cliente de gérer son budget
publicitaire avec une hypothèse minimale et maximale de coût.
Néanmoins, avec le système de CPC, les mots clés sont commercialisés aux enchères, ce qui peut être
vite onéreux pour des marchés concurrentiels, tels que l’assurance, l’automobile, les voyages, la banque,
etc. dominés par des acteurs de taille mondiale. L’étude du champ lexical (analyse sémantique) et des
budgets associés conduit généralement à éviter les mots génériques (voiture, voyage, assurance, etc.)[36]
sous peine de voir le budget mensuel alloué, épuisé en quelques heures. La combinaison de ces mots clés
avec d’autres plus spécifiques tels que la ville de l’entreprise est alors recommandée pour certains
professionnels. Ainsi, « assurance Angers » ou « assurance Pau » coûteront beaucoup moins chers que le
seul mot « assurance ».

2 Gérer une campagne de liens sponsorisés


La gestion d’une campagne de liens sponsorisés passe par la définition d’une stratégie comprenant le
choix d’un budget, d’un ciblage géographique et par appareil, l’optimisation du CPC, la création d’une
annonce et le suivi de la position moyenne.
Le choix d’un budget dépend de nombreux facteurs parmi lesquels la durée des campagnes, la
concurrence et le choix des mots clés, la localisation des campagnes, le type d’appareils (Web, tablettes
ou mobiles) etc. Le choix du budget moyen dépend lui du volume de trafic visé.
Le ciblage concerne notamment le ciblage géographique et la période choisie (correspondance avec le
calendrier annuel de chaque secteur professionnel marqué par des périodes plus intenses d’activité, ex. :
soldes, rentrée scolaire, fêtes de fin d’année, etc.). Le ciblage géographique peut se faire de manière très
précise, en sélectionnant des régions, en excluant des villes, en réalisant un ciblage par rayon autour d’un
point, etc.
Le choix des mots clés reste une étape essentielle du référencement payant comme il l’est pour le
référencement naturel, d’autant plus que le coût par clic varie énormément en fonction des mots clés.
Dans Google Awords, vous avez le choix entre trois options de correspondance d’un mot-clé avec les
termes de la requête saisie par l’internaute afin de déclencher ou non l’affichage de votre annonce. « En
règle générale, plus l’option de correspondance du mot-clé est large, plus il est susceptible de générer un
trafic important. Et plus elle est restrictive, plus le mot-clé sera pertinent par rapport à la requête de
recherche de l’internaute »[37]. L’option de correspondance de mots clés la plus large est « requête large »
(ex. : éditeur, livres) qui inclut des fautes d’orthographe, des synonymes, des variantes pertinentes etc.
(ex. : éditeurs d’ouvrages). L’option de correspondance « expression exacte » intègre les variantes
proches de cette expression et inclut des mots supplémentaires avant ou après l’expression (ex. :
recherche éditeur livres rares). Quant au « mot-clé exact », elle est l’option de correspondance la plus
restrictive puisqu’elle n’affiche l’annonce que si les termes exacts sont tapés ou une variante proche mais
sans ajout de mots supplémentaires (ex. : éditeur livre). Une autre option importante concernant le choix
des mots clés est d’exclure certains termes. (ex. : exclure justement les livres rares lorsque la recherche
porte sur « éditeur livres »).
L’optimisation du coût par clic (CPC) est la variable d’ajustement d’une campagne, là où le budget
journalier/mensuel ou le budget par campagne sont généralement définis en amont. En fonction de vos
objectifs, des actions des concurrents, des indicateurs donnés par le service, du volume de recherche
estimé, etc., vous devrez ajuster le CPC qui vous semble le plus juste pour chaque terme[38].
La création d’une annonce doit respecter les règles de la rédaction Web précédemment évoquée, en
visant l’objectif principal de la consultation. La clarté, la concision[39], l’incitation sont les principales
qualités d’une bonne annonce. Il s’agit d’une promesse effectuée à l’internaute, d’où l’importance de la
cohérence entre l’annonce et les contenus accessibles sur la page d’atterrissage pointée par cette annonce.
Quant au suivi du référencement payant, nous avons vu qu’il est l’affaire d’une gestion quotidienne afin
d’ajuster les CPC, modifier les mots clés ou les types d’expressions visés, de tenir compte des périodes
d’activité, etc. Le suivi peut porter par exemple sur les heures les plus favorables aux taux de clic, les
zones géographiques les plus intéressantes ou encore les annonces qui « transforment » le mieux.
Domaine spécifique du référencement, le référencement payant relève de tâches de gestion et de suivi
plus exigeantes que dans le référencement naturel. Néanmoins, si une spécialisation apparaît nécessaire,
l’étude emploi des référenceurs en 2013 indique que 55 % des référenceurs SEO s’occupent également
des liens sponsorisés.

EN CONCLUSION
La dimension stratégique du référencement passe par la prise en compte, à la fois des
évolutions passées et à venir des moteurs de recherche mais aussi de la recherche
d’information sur le Web ou sur mobile. L’histoire du référencement montre la capacité des
référenceurs à anticiper les évolutions des moteurs, lesquelles viennent soit d’innovations
techniques (ex. : le knowledge graph), soit de choix économiques stratégiques (ex. : le not
provided), soit le plus souvent en réaction à des pratiques devenues abusives (ex. : les filtres
Panda et Pingouin).
Depuis 2008-2009, le référencement a connu une accélération des évolutions touchant un
moteur de recherche comme Google. Complétant la recherche universelle, la personnalisation
des résultats a modifié les pratiques des référenceurs. Elle relève de différentes situations,
qu’elle soit en fonction de la localisation de l’internaute, de l’interface utilisée (.fr ou .com),
du fait qu’il soit identifié ou non et plus récemment de l’intégration des résultats de recherche
provenant de contacts sur Google+.
Autres changements importants, le déploiement d’une nouvelle infrastructure technique avec
Google Caffeine en 2010, améliorant la fraîcheur et surtout la capacité à traiter les
informations ; les modifications de l’algorithme (avec Colibri en 2013), faisant suite au
déploiement de deux filtres visant à pénaliser le spam (Panda en 2011 et Pingouin en 2012)[40],
conduisent à devoir réajuster régulièrement les stratégies mises en place. Si Google Caffeine
qui était une nouvelle infrastructure technique a amélioré la fraîcheur de l’index et la capacité
à traiter les informations, Colibri est un changement d’algorithme visant à améliorer la
pertinence des SERP. Entre les deux, les nombreuses mises à jour d’un premier filtre, Panda,
se sont attaquées aux fermes de contenus et ont visé à lutter contre le spam, tandis que celles
d’un second filtre, Pingouin, se sont attaquées aux fermes de liens et donc aux liens de
mauvaise qualité.
À l’arrivée, la multiplication des pénalités a notamment eu comme conséquence des actions de
dés-optimisation, dés-indexation, suppression de liens[41] là où les stratégies visaient
auparavant à sur-optimiser et à obtenir le maximum de backlinks.
Quant au Web sémantique tant annoncé, il imprègne déjà les moteurs de recherche. Citons à
titre d’exemple, les SERP de Google intégrant des contenus relevant de la base de
connaissance du knowledge graph1, proposant une fiche d’information basée sur des entités
nommées, correspondant à des noms d’individus, de lieux, d’organisations, etc.
En parallèle, les évolutions ne sont pas simplement à rechercher du côté de Google mais aussi
dans les façons même d’accéder à l’information. Des services de reconnaissance vocale
comme Siri sur iOS ou Google Now sur Android laissent entrevoir des changements
importants dans le métier de référenceur.[42]

[1] Voir « L’alchimie du SEO » www.renaud-joly.fr/index.php/post/2011/2002-referencement

[2] La société AT Internet publie un baromètre mensuel des parts de visites provenant des moteurs de recherche. À titre indicatif, Google

représentait 92,4 % de part de marché en février 2014. www.atinternet.com/ressources/ressources/etudes-publiques/barometre-des-


moteurs/
[3] Voir notamment l’ouvrage annuellement remis à jour d’Olivier Andrieu, Réussir son référencement Web, 6e éd., Eyrolles, 2013.

[4] Nous évoquons en italique et entre guillemets des verbatims de référenceurs « pionniers » recueillis pour une étude visant à proposer une

modélisation de profils de référenceurs ainsi que des trajectoires professionnelles et de formation (Domenget, Michel, 2014).
[5] Une page satellite est une page optimisée sur un ou plusieurs mots clés, destinée aux moteurs de recherche et visant le plus souvent à
contourner un frein au référencement.
[6]
L’association SEO Camp est une confédération internationale visant à développer l’image du métier de référenceur et à organiser des
événements autour du référencement et du SEM. www.seo-camp.org
[7] Voir notamment l’ouvrage de Xavier Delengaigne, Organiser sa veille sur Internet, Eyrolles, 2011.

[8] Voir l’article d’Olivier Andrieu : « Veille SEO : mes sources d’information anglophones »

www.abondance.com/actualites/20110818-8992-veille-seo-mes-sources-dinformation-anglophones.html
[9] Le sens du terme black hat en SEO diffère de celui en informatique. Il est employé pour « décrire le comportement d’un référenceur

qui utilise des techniques contraires aux guidelines de Google » (source : Wikipédia).
[10]
La certification expert référencement (CESEO) est un examen visant à valider des compétences professionnelles dans le domaine du
SEO. Voir ceseo.org
[11] Voir l’annuaire des formations SEO (2010) www.seo-camp.org/association/commissions/formation/annuaire et le palmarès des écoles
Internet (2013) etudiant.lefigaro.fr/fileadmin/templates/palmares_ecoles_internet_2013.htm
[12]
Voir le portail des métiers de l’Internet qui présente le métier de consultant en référencement naturel
metiers.internet.gouv.fr/metier/consultant-en-referencement-naturel
[13] Un CMS ou Content Management System est un type de logiciels destinés à la conception et à la mise à jour dynamique de sites Web
ou d’application multimédia.
[14]
Voir l’étude emploi des référenceurs en France en 2013 www.journaldunet.com/solutions/seo-referencement/profil-et-salaire-des-
referenceurs-en-france-en-2013-etude-seo-camp.shtml. Étude basée sur un questionnaire en ligne, disponible sur le site de l’association
SEO Camp, de septembre 2013 à janvier 2014. 440 répondants.
[15] Voir www.journaldunet.com/solutions/seo-referencement/recherche-universelle-seo-video-google-news-et-images.shtml

[16] Voir trois « méta-études » sur les comportements informationnels des usagers urfistinfo.hypotheses.org/1551, recherche d’information
sur le Web (RIW) et moteurs de recherche : le cas des lycéens tel.archives-ouvertes.fr/docs/00/71/91/99/PDF/QuachTat2011.pdf
[17] Voir https://support.google.com/websearch/answer/106230?hl=fr

[18] Voir l’article de Sébastien Billard, www.sebastien-billard.fr/seo/post/Taux-de-clic-dans-les-pages-de-resultats-des-moteurs-etat-des-


lieux-30-01-2014
[19] Voir notamment l’article d’Isabelle Canivet, blog.60canards.com/2013/12/mot-cle-mot-cle-mot-clé-liste-de-mots-cles-comment-choisir/

[20] Le « not provided » correspond aux visites dont le mot clé tapé par l’internaute ne peut pas être déterminé, à la suite de la
généralisation du protocole de connexion sécurisée https par Google. Voir www.atinternet.com/documents/bientot-un-100-provided/
[21] Voir docs.abondance.com/question123.html
[22] Une redirection 301 est une redirection définitive à la différence d’une redirection 302 qui est temporaire. La première permet le

transfert de la force de l’ancienne page vers la nouvelle, la seconde non.


[23] La « Google dance » correspondait à la mise à jour de l’index de Google, modifiant les SERP avec une période quasi mensuelle.

[24] Notons que cet exemple ne correspond en rien à un modèle d’optimisation des balises title, description et contient toujours des mots

dans la balise keywords.


[25] Isabelle Canivet, Bien rédiger pour le Web : stratégie de contenu pour améliorer son référencement naturel, Eyrolles, 2014, 3e éd..

[26] Voir l’article de Sébastien Billard, s.billard.free.fr/referencement/?2006/11/30/319-optimisation-du-contenu-travaillez-votre-text-appeal

[27] Le negative SEO regroupe un ensemble de techniques dont une attaque de liens de mauvaise qualité visant à « faire tomber » un site,

lui faire prendre une pénalité ou le faire « descendre » dans les SERP.
[28] Parmi les Google bombing devenus célèbres : la biographie officielle de George W. Bush en 1ère position sur la requête « miserable

failure » en 2003 ou la requête « Nicolas Sarkozy » renvoyant au site officiel du film Iznogoud en 2005.
[29] Dans son article sur l’esprit du PageRank, Dominique Cardon distingue un principe d’autorité, révélant la profonde inégalité en termes

de pertinence et d’importance des pages du Web, un principe de popularité, poussé par les logiques d’audience, un principe d’affinité, lié
à l’ascension des médias socionumériques et un principe d’efficacité mesuré par la satisfaction des internautes. Une difficulté de
compréhension vient du fait que ces principes ne recoupent pas les mêmes notions dans le jargon des référenceurs. Pour ces derniers, le
PR mesure la popularité, le TrustRank (évoqué supra) est un indicateur d’autorité. Pour éviter toute confusion, nous éviterons d’utiliser les
notions d’autorité et de popularité pour évoquer les critères de calcul de l’algorithme de Google.
[30]
On retrouve ce souci de transmettre ou non du « jus de liens » avec la distinction entre attributs dofollow et nofollow qui peuvent être
associés à un lien.
[31] Voir oseox.fr/referencement/maillage-interne.html

[32]
Voir adscriptum.blogspot.fr/2006/01/stratgie-de-liens.html
[33] Voir l’association : digitalanalyticsassociation.org

[34] Voir le site webkpi.fr

[35] Pour répondre à de nombreuses questions, voir le guide des liens sponsorisés de Florian Marlin, guide-liens-sponsorises.fr/

[36] Néanmoins, les annonces sur des mots clés génériques génèrent le plus de trafic et de conversions en volume mais à des coûts parfois
très élevé.
[37] https://support.google.com/adwords/answer/2497836

[38] Le JDN a proposé une étude des mots clés les plus chers www.journaldunet.com/ebusiness/publicite/mots-cles-adwords-les-plus-chers/

[39] Dans Google Adwords, le titre de l’annonce est limité à 25 caractères et la description se compose de deux lignes de 35 caractères
maximum chacune.
[40] Voir pour un résumé www.webrankinfo.com/dossiers/google-search/hummingbird

[41] Voir www.htitipi.com/blog/google-pingouin.html

[42] google.fr/intl/fr/insidesearch/features/search/knowledge.html
Partie
Études et technologies
4

Chapitre 8 Les études en ligne


Chapitre 9 Technologies d’Internet et vie privée
Chapitre
8 Les études en ligne

Manu CARRICANO
Professeur Escuela de Alta Dirección y Administración de Barcelone,
laboratoire Pricing Center de l’EADA

Laurent FLORES
Maître de conférences HDR Université Paris II et à l’INSEEC,
laboratoire LARGEPA

Objectifs

■ Comprendre l’utilisation du web pour les études quantitatives et qualitatives.


■ Appréhender les techniques d’études émergentes.

Sommaire

Section 1 Les études quantitatives online


Section 2 Les études qualitatives online
Section 3 L’efficacité des sites Internet et de la publicité online
Section 4 Vers le développement de nouvelles méthodes d’études
Section 5 Vers des études de marchés « relationnelles »
Internet provoque depuis quelques années déjà un grand nombre d’interrogations, de remises en
question, voire d’émergence de nouveaux modèles touchant les stratégies et les actions marketing des
entreprises. Cette situation n’a pas bien sûr manqué de toucher également le secteur des études des
marchés. En effet, le marché des études s’est très tôt emparé de cette nouvelle technologie en considérant
Internet à la fois comme un objet d’études ou de recherches mais surtout comme un moyen d’études. Alors
que les précurseurs des études online ont d’abord commencé à étudier le « média Internet » au travers
d’études audience ou d’efficacité de sites Internet ou de publicités online, ce sont bien les études par
Internet qui ont très tôt contribué à tirer la croissance du marché. Esomar1, l’association mondiale des
professionnels des études de marchés et sondages d’opinion estime qu’en 2012, le marché mondial des
études s’élevait à environ 38 milliards de dollars. Les études « quantitatives » représentent 77 % de
l’ensemble des études réalisées, et les études « qualitatives » environ 20 %. Alors qu’en 2005, avec
13 % de l’ensemble des dépenses, Internet pointait à la troisième place des modes de collecte de données
les plus populaires derrière le face-à-face (24 %) et le téléphone (21 %). En 2012, le poids d’Internet est
de 27 % devenant ainsi le mode de collecte le plus populaire ! Loin d’être un phénomène de mode,
aujourd’hui, les études sont « interactives » ou ne sont pas.
Dans ce chapitre nous passons rapidement en revue les différents types d’études existantes. Qu’elles
soient quantitatives ou qualitatives, au-delà des avantages de rapidité et de coût offerts par la technologie,
nous développons plus particulièrement les nouvelles perspectives et méthodes qu’offre Internet. Nous
faisons un point ensuite sur les études online dont l’objet est « d’étudier le média » (à des fins de mesure
d’audience ou d’efficacité des sites Internet ou de la publicité online par exemple). Nous concluons sur
les formidables perspectives offertes par Internet et les médias sociaux, mais aussi le mobile et le big
data, et qui font aujourd’hui déjà évoluer la pratique du marketing et des études.
Les acteurs du marché des études se sont très tôt emparés des opportunités offertes par Internet,
considérant cette technologie à la fois comme un objet d’études ou de recherches mais surtout comme un
moyen d’études. Alors que les précurseurs des études online ont d’abord commencé à étudier ou plus
exactement à « mesurer » Internet (au sens média du terme) au travers d’études audience ou d’efficacité
de sites Internet ou de publicités online, ce sont bien les études par Internet qui ont très tôt contribué à
tirer la croissance du marché. ESOMAR[1], l’association mondiale des professionnels des études de
marchés et sondages d’opinion estime qu’en 2012, le marché mondial des études s’élevait à environ
32 milliards de dollars. Les études « quantitatives » représentent 77 % de l’ensemble des études
réalisées, et les études « qualitatives » environ 17 %. Alors qu’en 2008, avec 21 % de l’ensemble des
dépenses, Internet était déjà le moyen de collecte le plus populaire dans les études, en 2012 les études
online continuent de progresser et représentent 27 % de l’ensemble des dépenses d’études. En à peine un
peu plus de 15 ans, les études online quasiment inexistantes avant le début des années 2000, comptent
aujourd’hui pour plus du quart du marché mondial des études.
Tableau 8.1 – Comparaison de l’importance des modes de collectes 2008/2012

Source : Esomar Global Market Research Reports 2009 et 2013

Bien sûr, une certaine disparité existe selon les pays : en 2012, les études online représentaient
respectivement 38 % et 45 % du total des modes de collectes au Canada et au Japon, alors que dans
certains pays comme la Bolivie ou au Pakistan, ce pourcentage des dépenses était quasiment nul. Sur ce
continuum, la France occupe une position intermédiaire avec 20 % des dépenses études en 2012.
Qualifiées d’études de la « 4e génération » (Galan et Vernette, 2000), les études online ouvrent une
nouvelle voie à l’industrie des études de marchés. Tour à tour manuelles (1re génération), informatisées
(2e génération), puis automatisées (3e génération), Internet offre aujourd’hui aux professionnels des études
de nouvelles opportunités de développement, tant en termes de coût, de rapidité, que de qualité et
d’efficacité grâce au développement de nouvelles méthodes et approches non disponibles jusqu’ici. C’est
ainsi que de nouveaux acteurs spécialisés ont émergé au début des années 2000, aux États-Unis pour
commencer, puis en Europe et en France[2], tandis que les acteurs historiques du marché[3] se contentaient
d’intégrer timidement les modes de recueil online.
Dans les sections suivantes, nous nous proposons de revenir sur les principales caractéristiques des
études online, en passant rapidement en revue les différents types d’études existantes. Qu’elles soient
quantitatives ou qualitatives, au-delà des avantages de rapidité et de coût offerts par la technologie, nous
insisterons plus particulièrement sur les nouvelles perspectives et méthodes que permet Internet. De
nombreux auteurs ont souligné, au-delà des aspects économiques, l’importance des bénéfices
« transformationnels » à attendre de cette technologie (Day 1994 ; Florès 2003 ; Grover & Al., 1996).
C’est sur ce dernier point qu’il semble en effet qu’Internet offre aux hommes d’études et de marketing de
véritables opportunités. Une place particulière sera donc accordée aux nouvelles perspectives qui
s’offrent (voir s’imposent) au métier des études à la fin de ce chapitre. Au préalable, une rapide revue
considérera le cas particulier des études online dont l’objet est « d’étudier le média » (à des fins de
mesure d’audience ou d’efficacité des sites Internet ou de la publicité online par exemple). Dans ce
dernier cas, Internet est alors non seulement le moyen d’études mais également l’objet d’études lui-même.

Section 1 LES ÉTUDES QUANTITATIVES ONLINE


Aujourd’hui, la pénétration d’Internet allant croissante, la très grande majorité des études faites
habituellement en face à face ou par téléphone sont également réalisables par Internet. Des tests de
concepts, aux pré-tests et post-tests publicitaires en passant par les sondages politiques, et les études
d’usages et attitudes, pratiquement tous les types d’études sont possibles online… Cette flexibilité
d’usage et cet engouement croissant sont largement expliqués par les bénéfices liés à l’interactivité
d’Internet et les technologies associées (réseaux sociaux, questionnaires sous Flash, etc.) mais également
à leur plus grande rapidité d’exécution et leur faible coût.
D’abord utilisées pour étudier le média lui-même (et les internautes), le développement exponentiel des
études online est avant tout dû à leur utilisation comme mode de collecte plus efficient. Avec Internet, les
études vont plus vite, sont plus économiques, et plus interactives. Aujourd’hui, il est relativement facile
de « programmer »[4] un questionnaire et de l’envoyer par e-mail. Les invités se connectent alors, cliquent
sur le lien html envoyé, commencent à répondre, puis, automatiquement, leurs réponses sont formatées et
disponibles en ligne pour analyse. Une véritable révolution !
Les précurseurs du marché ont très vite saisi l’opportunité et commencé très tôt à « migrer » vers le
online. Les études les plus populaires furent dès l’origine des tests de concepts online (de produit ou de
publicité) qui permettent un retour très rapide sur les perceptions des utilisateurs actuels ou potentiels
d’un concept, le tout sur un échantillon généralement plus important que pour les tests réalisés en face en
face. Au fur et à mesure que la pénétration qu’Internet progressait, et que les cibles interrogées
devenaient de plus en plus « représentatives », les études online se développaient en abordant désormais
les études d’image ou encore d’usages et attitudes.
Avant d’aborder plus amplement la spécificité des enquêtes quantitatives online, il nous semble
important d’interroger, dans un premier temps, la représentativité des études conduites par Internet. En
effet, les études dites quantitatives étant de par leur nature même mises en place sur des échantillons de
taille relativement importante (plusieurs centaines d’individus), il semble fondamental d’établir la
capacité de l’échantillon online à fidèlement représenter les attitudes, pensées et opinions de l’ensemble
de la population.

1 La représentativité des études online


La critique généralement la plus souvent adressée au média Internet est celle de sa relative non-
représentativité par rapport à l’ensemble de la population. Cette question de la représentativité des
internautes était omniprésente entre 2000 et 2005, lors des très nombreuses discussions et conférences
consacrées aux études de marchés, elle l’est beaucoup moins aujourd’hui du fait de la forte pénétration
d’Internet dans les foyers : la France comptait en juillet 2013 42,2 millions d’internautes (+5 % en un an),
soit une pénétration de 83 % (source : Observatoire des Usages Internet, Médiamétrie).
Cette question demeure toute fois bien présente dans certains cas particuliers, comme par exemple celui
de l’interrogation des seniors. Il est aujourd’hui plus facile de les interroger, mais la pénétration
d’Internet auprès de cette cible ne permet pas encore une pleine représentativité.
Soulignons aussi que l’avènement du online a permis d’aborder sous un nouveau jour la notion de la
représentation de l’échantillon dans les études quantitatives. En effet, dans la plupart des cas, les
commanditaires d’études cherchent à reconstituer des échantillons représentatifs de leurs consommateurs
potentiels. Ils n’ont alors pas besoin de « représenter » la population en général selon les critères fournis
par le recensement de l’INSEE par exemple. En d’autres termes, les acheteurs d’études ont avant tout
besoin de s’assurer que leurs différents segments de consommateurs sont bien couverts dans l’échantillon
d’études. Or dans la grande majorité des cas, les segments visés par les commanditaires – les
consommateurs actifs ou les prospects – sont également largement présents et actifs sur Internet. Par
conséquent, même s’il est vrai que la population interrogeable par Internet est généralement plus jeune,
plus active (parfois moins éduquée), que celle des populations mères en général, le tout ne représente
plus aujourd’hui une contrainte pour interroger des individus « représentatifs » de la cible généralement
visée. En outre, plusieurs enquêtes se sont attachées à comparer la précision des résultats des données
collectées par Internet, en confirmant un plus faible taux de réponse des enquêtes par Internet en général,
mais une différence pratiquement nulle lorsque la base d’échantillonnage est un panel online, qui est le
mode de recueil le plus largement diffusé dans les études sur Internet aujourd’hui (Manfreda et al., 2008).
En outre, certains auteurs ont également mis en avant des « recettes » permettant d’améliorer le taux de
réponse sur Internet. Parmi ces recommandations, l’enrichissement des contenus (images, ergonomie, etc.)
permet d’améliorer nettement le taux de réponse, ce qui est largement favorisé aujourd’hui par les
questionnaires sous Flash, comme nous le verrons ultérieurement (Deutskens et al., 2003).
Nous pouvons dire donc qu’en 2013, Internet permet de constituer des échantillons représentatifs[5] :
de la population des internautes (bien évidemment) ;
d’un marché et d’une problématique (à partir de quotas par exemple) ;
de la population française des moins de 60 ans.
Dans le cas où une marque ou une entreprise dispose d’une base de données clients renseignée sur
l’adresse e-mail, il est dans ce cas tout à fait possible d’utiliser cette source d’échantillonnage pour
conduire une étude online. En effet, l’interrogation régulière des membres d’un programme relationnel ou
d’un club d’utilisateurs est aujourd’hui très populaire et constituait d’ailleurs, dès l’émergence des études
online, l’un des moyens les plus simples et efficaces de recueillir des avis de clients.
Alternativement, le « Live Sampling » permet de recruter des participants directement sur Internet (via
des bannières, pop ups ou simplement des boutons sur les pages des sites). Les taux de clics ayant
fortement décliné d’année en année, cette technique est quasiment exclusivement utilisée aujourd’hui pour
interroger « à chaud » les internautes sur la perception des sites qu’ils visitent ou encore sur le souvenir
qu’ils peuvent avoir de certaines publicités online, et plus rarement pour faire des études plus générales,
comme cela a pu être le cas il y a une dizaine d’années.
Finalement, et sous l’impulsion d’AOL (America Online), à l’époque premier fournisseur d’accès
Internet aux États-Unis, « Opinion Place » permettait dès sa création de recruter non pas des
« panélistes » mais des visiteurs « d’AOL Opinion Place », de les qualifier sur les critères nécessaires
au sondage, et de les interroger directement après. Cette technique d’échantillonnage dite du « River
Sampling » est aujourd’hui encore proposée par AOL et DMS, la société spécialisée qui gère la
plateforme Opinion Place.
Cependant ce sont les « Access Panels Online » qui ont révolutionné et popularisé les études online.
Aujourd’hui, ce sont ces panels online qui permettent de réaliser la grande majorité des études en ligne.

2 Les acces panels online


Les professionnels des études de marchés[6] distinguent trois grands types de panels online :
les access panels généralistes ;
les panels représentatifs ;
les panels ciblés ou spécialisés.
Les access panels généralistes permettent de réaliser tous types d’études. Les panélistes y sont
recrutés de façon très diversifiée au travers de campagnes de bannières sur des sites, d’e-mailing, des
programmes d’affiliation, ou via le référencement sur les moteurs de recherche. La multiplication des
sources permet d’éviter que le profil des interviewés ne soit influencé par la spécificité d’un site ou d’un
mode de recrutement. Certaines cibles comme les adolescents, les seniors et, dans une moindre mesure,
les hommes nécessitent de faire un travail de recrutement spécifique car elles sont plus difficiles à
trouver ou à attirer. Ces panels sont généralement recrutés et gérés par des sociétés d’études généralistes,
citons par exemple TestConso (QualiQuanti), MyTNS.com (TNS), panel Ipsos, Newpanel (Opinion
Way). D’autres sociétés d’études exclusivement online, comme Crmmetrix, ont développé leurs propres
panels généralistes également. Une troisième catégorie de sociétés s’ajoute à cette liste : les sociétés de
panels online. Les plus connues sont Toluna, Research Now, SSI ou encore LightSpeed Research. Leur
métier n’est pas de réaliser des études en « full service » mais simplement de vendre leur terrain d’études
à d’autres sociétés d’études généralistes ou online. En effet, la difficulté de recrutement et de gestion des
panélistes est telle que toutes les sociétés d’études petites ou grandes achètent du terrain d’études à ces
sociétés. Leur spécialisation assure une meilleure gestion de la « ressource répondants » tout en leur
permettant d’optimiser le coût d’entretien de leurs propres panels. La limite de cet outil est le recrutement
et la gestion des panélistes, « ressource » devenant de plus en plus difficile à entretenir : en cause la
baisse des taux de participation, la sur sollicitation des panélistes, ou encore la multipanélisation. À ce
titre, l’ARF aux États-Unis (www.thearf.org), et l’Esomar (www.esomar.org) de façon plus globale
multiplient les initiatives visant à assurer et maximiser la « qualité » des études online.
Les panels « représentatifs » sont généralement construits à partir de panels généralistes avec des
critères de représentativité. On peut citer notamment le cas du panel OMD/Ipsos. Une agence média telle
OMD utilise un panel « représentatif » par exemple pour une meilleure compréhension de la
consommation média des Français. Pour ce faire, les panélistes du panel sont qualifiés notamment sur des
critères média, ce qui permet d’avoir dans un délai très court des précisions par rapport à des études
média-marchés. Le panel d’OMD France, baptisé OMD Snapshot, permet de mener des vagues
d’enquêtes auprès d’un panel de 2 500 individus recrutés par Ipsos et représentatifs de la population
française de moins de 60 ans. Cet outil, utilisé également en Grande-Bretagne, permet de traiter
automatiquement une dizaine de questions envoyées toutes les semaines par mail à 1 250 personnes. Les
résultats sont exploitables en moins de sept jours et les taux de retour (selon OMD) dépassent les 70 %.
Comme leur nom l’indique, les panels ciblés ou spécialisés sont mis en place pour répondre à des
besoins précis et pointus de leurs commanditaires. Ils cherchent dans ce cas à cibler une cible
particulière. Par exemple, les panels de clients peuvent être recrutés à partir de questionnaires de
recrutement sur le site de l’annonceur ou par e-mailing à partir de la base de données clients (pour
exemple les panels RMC Radio et BFM TV avec Crmmetrix). Les panels spécialisés, comme leur nom
l’indique cherchent à recruter des individus appartenant à la même communauté, au même secteur
d’activité, etc. Citons pour exemple le panel « gays » animé par gayresearch.com, le panel de 65 000
médecins du Réseau Santé Social, ou encore le panel des petits porteurs et des directeurs financiers du
groupe DI.

3 Caractéristiques et formats des enquêtes online


Nous abordons ici les principales caractéristiques des enquêtes online, puis détaillons les différents
formats d’interrogation.

3.1 Principales caractéristiques


Les enquêtes via Internet se caractérisent d’abord par le fait que l’interviewé est seul face à son écran
et répond à son propre rythme. Le caractère asynchrone des enquêtes online enrichi considérablement
leur administration par la durée de mise en ligne des questionnaires, par la possibilité qu’offre Internet de
recontacter les personnes interrogées lors d’études longitudinales notamment, ou tout simplement pour
collecter des informations complémentaires.
L’auto administration du questionnaire tend à favoriser la qualité des réponses (temps disponible pour
répondre, non-influence de l’interviewer, anonymat, etc.). Ce constat est spécialement adapté au cas des
« questions ouvertes » dont la richesse de contenu est généralement supérieure à celle des enquêtes en
face en face ou par voie postale. Ainsi des études purement « quantitatives » peuvent très largement être
enrichies par de nouveaux formats de programmation permettant l’intégration et la manipulation d’images
(le format Flash en particulier), de sons, voire de vidéos.
Comme le souligne Daniel Bô (2009), les techniques d’interaction permettent aujourd’hui de s’appuyer
de plus en plus sur la dimension tactile et sensitive du Web. L’écran du Web n’est pas seulement un
espace où l’on peut lire des choses, il devient un espace que l’on peut toucher, une surface réactive,
constituée de modules sensibles au passage de la souris, au clic, etc. Pour répondre, l’internaute n’a plus
seulement le choix entre cocher des cases ou remplir des zones de textes : des outils sont là pour glisser,
saisir, déplacer des objets sur l’écran, et répondre aux enquêtes de façon beaucoup engagée et agréable,
comme le montre la figure 8.1.
Source : GMI
Figure 8.1 Exemple de questionnaire permettant de faire « glisser » des images
Au-delà de l’interactivité et de la liberté d’expression qu’apportent Internet, une attention particulière
doit enfin être apportée à l’ergonomie du questionnaire, qui joue fortement sur la simplicité de
compréhension, la navigation, et permet d’optimiser de sorte le temps de collecte et l’expérience de
l’interviewé.
Graphismes, interactivité et ergonomie offrent en fin de compte de nouvelles possibilités fort
intéressantes pour des mises en situation réelle (exposition à un linéaire à un magasin, visite virtuelle,
etc.) tout en maximisant l’expérience des interrogés.

3.2 Les formats d’interrogation


Il existe deux grands types de format d’interrogation, le mode séquentiel, où chaque écran correspond
à une seule question, et le mode panoramique, où sur le même écran peuvent figurer plusieurs questions.
Alors que le mode séquentiel permet en quelque sorte d’isoler chaque question et d’ainsi minimiser
l’effet du contexte sur la réponse, en mode panoramique la disponibilité des autres questions sur la même
page peut influencer la réponse. Est-ce à dire que les meilleurs questionnaires sont tous séquentiels par
nature ? Pas véritablement, non, car la réponse est à rapporter à l’objectif visé par l’étude et le temps
nécessaire pour répondre au questionnaire. La fourchette idéale semble se situer entre 10 à 12 minutes
d’interview, même si quelques exceptions existent, encore une fois toutes liées à l’objectif et au périmètre
de l’étude. Certains questionnaires peuvent en effet durer jusqu’à 25-30 minutes et être correctement
complétés (la cible interrogée, les primes et cadeaux, ou encore la nature même de l’étude sont autant de
facteurs pouvant encourager la participation). Dans tous les cas, le questionnaire cherchera à
« optimiser » l’expérience du répondant (et ainsi la durée d’interrogation) en alternant mode séquentiel et
panoramique (vérifier la cohérence des blocs de question regroupées). La logique d’interrogation et
l’expérience du chargé d’études sont ici capitales pour maximiser la qualité et la fiabilité de
l’information collectée.

Tableau 8.2 Comparatif des modes d’interrogation séquentiel et panoramique

Source : adapté de Bô (2009).


Section 2 LES ÉTUDES QUALITATIVES ONLINE

Pour bien situer les études qualitatives online, il est utile de le comparer à celles menées généralement
en « face à face ». Les principales différences entre les deux modes de collecte sont détaillées ci-
dessous.

1 Les spécificités du qualitatif online


Alors que dans le face à face les dimensions non-verbale et interpersonnelle sont omniprésentes et
permettent de s’imprégner des perceptions et de travailler de façon plus inconsciente, sur Internet tout se
passe derrière un écran et le résultat des échanges est avant tout une production de discours ou d’images
commentées (dans certains cas, il est en effet possible de demander aux participants de charger des
photos, des films, etc.). Par ailleurs, et même si les progrès liés à la réalité virtuelle et la 3D sont
conséquents depuis quelques années le online ne permet pas, a priori, aux participants de toucher, goûter
voir sentir les produits testés. Les participants peuvent malgré tout recevoir les produits avant leur
participation et ainsi en parler.
Souvent très présents dans la conduite de réunion de groupes en face, la représentation sociale désirée
et le leadership de certains participants disparaissent sur Internet. Il est en de même du rôle de
l’animateur de la discussion, online il doit pleinement jouer son rôle de modérateur et ainsi maximiser la
vérité et la profondeur des échanges. L’anonymat libère pleinement les capacités d’expression et favorise
le centrage sur le ressenti personnel. Les témoignages recueillis online deviennent ainsi plus sincères en
particulier sur les sujets plus personnels, polémiques, ou tabous. De même, tous les participants sont
actifs et participent, le possible leadership de certains participants s’estompent et favorisent la libre
expression de tous. Au-delà de ces différences de fond, notons également que sur Internet, tout le monde
peut participer et n’a pas besoin de se déplacer à la réunion de groupe. Il devient alors facile d’inviter
des personnes des quatre coins de France voire du monde, de mixer les origines sociales des participants
mais aussi de prolonger la discussion au-delà de la réunion de groupe elle-même. Loin d’être
incompatibles, les deux modes de recueils en ligne et en face-à-face sont donc très largement
complémentaires, le « online » offrant véritablement de nouvelles perspectives aux études qualitatives.
En effet, alors que la plupart des méthodes qualitatives datent de l’aire pré-informatique (la technique des
réunions de groupes s’est développée à partir des années 1970), Internet amène une dimension
technologique et informatique au qualitatif (Bô, 2009). Le qualitatif se « quantifie » de part le nombre
plus important de personnes qui peuvent être invitées, les coûts de terrain (collecte) baissent, ainsi que
les coûts de retranscription des échanges (les écrits sont directement disponibles en ligne).
2 Les différentes méthodologies du « quali online »
En France comme aux États-Unis, différentes méthodologies d’études qualitatives online coexistent.
Elles ont bien sûr toutes leurs propres spécificités et permettent selon les cas de coller à différents types
de besoins d’études. Le tableau 8.3 présente de façon synthétique les différents types de méthodologies
disponibles sur Internet.

Tableau 8.3 Les différentes méthodologies du « quali online »

Source : adapté de Bô (2009).

Au-delà des méthodes elles-mêmes, l’ensemble des spécialistes du qualitatif semblent s’accorder sur le
fait qu’Internet a véritablement donné un nouvel élan aux études qualitatives sur Internet. Ce nouvel élan
est spécialement bien représenté par l’avènement récent des communautés d’études online. Lancées au
début des années 2000 par la société Communispace aux États-Unis, les Communautés d’études en ligne
(ou « Market Research Online Community » (MROC) en anglais) sont en plein développement et
représentent la nouvelle tendance de fond du qualitatif online et plus généralement des études online. En
effet, mariant tout à la fois les avantages du qualitatif et du quantitatif, elles permettent d’inscrire les
études dans la durée et vont dans le sens de développement d’études de plus en plus « relationnelles »[7].
Elles offrent de nouvelles perspectives aux études, le répondant, ou plutôt le participant, étant tout à la
fois questionné, questionne les autres participants mais aussi la marque, le tout dans un espace favorisant
le libre-échange, l’écoute, pour le développement d’études de plus en plus « connectées », comme l’ont
montré Schillewaert, De Ruyck et Verhaeghe (2009) et Florès (2008a).
Avant d’aborder les nouvelles perspectives offertes par Internet et plus particulièrement par les médias
sociaux, dans les paragraphes suivants, nous revenons d’abord sur la particularité des études online
s’intéressant au média lui-même. Comme déjà évoqué, dans ce cas Internet n’est pas seulement le moyen
de recherche mais devient l’objet de recherche lui-même.
Section 3

L’EFFICACITÉ DES SITES INTERNET ET DE LA PUBLICITÉ ONLINE

Dès l’origine, les études online se sont intéressées au média lui-même, et plus précisément aux mesures
d’audience de l’Internet. Le principal objectif de ces études est d’estimer la part de la population
connectée, de connaître les profils types des utilisateurs du média, de suivre leur navigation et d’estimer
la taille des audiences des sites qu’ils visitent (quels sites internet sont visités, à quelle fréquence, etc.).
En France par exemple, deux sociétés fournissent des données d’audience de l’Internet, ce sont les
sociétés Médiamétrie-Netratings et Comscore. Compte tenu de la spécificité des études audiences, nous
nous limiterons ici aux cas particuliers des études d’efficacité des sites Internet et de la publicité online.
Le lecteur intéressé pourra malgré tout obtenir plus d’information auprès des sociétés spécialisées ou
encore se référer aux actes des conférences de l’Esomar, de l’ARF aux États-Unis, ou encore de l’IREP et
du CESP[8] en France. Par ailleurs, sans faire partie véritablement de l’industrie des études de marchés,
signalons tout de même que la mesure d’audience des sites internet dite « site centric », et l’industrie du
« Web analytics » se sont fortement développées ces dernières années (en particulier avec la mise à
disposition gratuite de l’outil Google Analytics). Le « Web analytics » offre de nombreuses opportunités
d’analyse. Le lecteur intéressé pourra trouver dans l’ouvrage de J. Warren et N. Malo (2010) un excellent
résumé des fonctionnements et des possibilités d’analyse offertes par la collecte systématique des
statistiques de visites des visiteurs d’un site Internet.
De façon plus spécifique, nous détaillons dans les sections suivantes les études dites d’efficacité des
sites Web et celles ayant trait à la mesure d’efficacité de la publicité en ligne.

1 Mesurer l’efficacité d’un site Web


Le site Internet représente la fenêtre d’accès principale à aux usages de consommateurs sur Internet.
Première vitrine de l’entreprise et de la marque sur Internet, les sites de marques ont très largement
évolué dans leur contenu et leur interactivité pour tenir un rôle de plus en plus central dans la diffusion
des produits et services d’une entreprise.
Les premières études sur les sites Web se sont intéressées à leur ergonomie. En effet, au début du Web,
trop de sites ne tenaient pas leurs promesses, « les bénéfices attendus d’une présence sur Internet ont créé
un empressement qui a bien souvent eu des effets négatifs sur la qualité des sites développés. Ces effets
négatifs résultent généralement du peu de temps accordé à l’identification des besoins des utilisateurs
finaux, de la prise en compte des caractéristiques de ces derniers, de l’identification et de l’analyse des
tâches à réaliser et d’une méconnaissance de leurs environnements de consultation » (Bastien, Leulier &
Scapin, 1998). Aujourd’hui encore, ce sont toujours près de 50 % des visiteurs d’un site Web qui « ne
trouvent pas ce qu’ils sont venus chercher »[9]. Tout utilisateur aura d’ailleurs fait l’expérience de la
mauvaise qualité ergonomique de bon nombre de sites (difficulté à trouver l’information recherchée,
manque d’organisation des pages Web, temps de téléchargement, etc.)
La qualité d’un site dépend de ce que les utilisateurs pourront y accomplir, (acheter, s’informer,
naviguer librement etc.) et de la facilité avec laquelle ils pourront le faire (navigation, « dialogue »).
C’est tout l’objectif des études dites d’ergonomie, à savoir évaluer la capacité des sites à servir les
objectifs de leurs visiteurs et offrir des voies d’optimisation des parcours de visites (Boucher, 2009).
En marge des premières études s’intéressant à l’ergonomie, des études dites d’efficacité des sites Web
se sont développées dès la fin des années 1990. Ces études invitent les visiteurs des sites à répondre à un
questionnaire (en entrée et/ou sortie de site, méthodologie dite de « test/contrôle ») et permettent d’aller
au-delà des seuls aspects ergonomiques de l’expérience du visiteur pour comprendre les leviers de
satisfaction de cette expérience. Qualifiées d’études dites de « Web attitudinal » en opposition au « Web
analytics », elles fournissent le « pourquoi » des visites sur un site et permettent également de mieux
valoriser la place et le rôle du site Internet dans la stratégie digitale de la marque ou de l’entreprise (pour
les sites institutionnels). Pour exemple, et à partir de l’analyse d’une base de données agrégée de 102
études réalisées en ligne, Florès et Volle (2005b) montrent que le site de marque est un outil marketing
qui permet d’améliorer plusieurs indicateurs de performance – notamment l’intention d’achat et l’attitude
vis-à-vis de la marque – et permet d’engager un échange avec les meilleurs clients. Le même type
d’analyse conduite à partir de la base de données du baromètre e-corporate confirme l’impact du site
corporate sur l’image de l’entreprise[10].
Nous décrivons l’efficacité d’un site Web en 6 facettes principales, en reprenant la distinction faite par
la société crmmetrix (voir la figure 8.2 ci-après). Selon son directeur général, Guillaume Weill, au-delà
des métriques purement quantitatives fournies par le « Web analytics », telles le nombre des visiteurs, la
fréquence de visite, ou encore le temps moyen passé sur le site, tout responsable de site doit « mesurer
plutôt que seulement compter ses visiteurs ». Selon lui, les données de « comptage » sont bien sûr
fondamentales mais apportent trop peu d’éléments « explicatifs » sur ce qui se passe sur un site, sur le
« pourquoi » d’un certain nombre de comportements.
Faute d’information additionnelle sur le contexte, nombre de décideurs et managers e-business peinent
en effet à comprendre et mesurer le véritable impact du site Web. C’est pourquoi, mesurer un site Web,
c’est aussi et au-delà de la seule quantité de visiteurs, être en mesure d’apprécier la qualité de ces
visiteurs. On prêtera donc une attention particulière à la mesure de la perception du site, sa satisfaction et
on explorera les leviers de cette satisfaction. En outre, il paraît particulièrement important de mesurer
l’apport des campagnes online et offline, de comprendre et mesurer l’impact relationnel du site, de même
que son impact au niveau de la marque, et finalement son impact « business ».
Il semble donc que pour prendre la pleine dimension du média Internet, les annonceurs, marchands et
non marchands du Web, doivent plus que jamais « écouter » leurs visiteurs, et compléter leurs outils de
Web analytics (de « comptage ») par la mise en place d’une mesure plus « explicative » de l’expérience
de leur visiteurs. Le simple comptage (le quoi ?) doit s’enrichir d’une mesure centrée client (le
pourquoi ?). Le même constat s’applique également à la mesure d’efficacité de la publicité online.

Source : Crmmetrix
Figure 8.2 Les 6 facettes de l’efficacité d’un site Web
2 Mesurer l’efficacité de la publicité online
Au 1er semestre 2010, selon Kantar Media ce sont plus de 1,5 milliard d’Euros qui ont été investis sur
de la publicité « display »[11] sur Internet. Le tout représente plus de 12 % des investissements médias en
France (12,2 % % : 4e média en France), soit une croissance de plus 12 % par rapport à la même période
en 2009. On le voit, Internet tire clairement une partie de la croissance des investissements médias, plus
de 60 % des annonceurs utilisant internet le faisant dans le cadre de campagnes pluri-média. C’est donc
naturellement que chercheurs et annonceurs se sont penchés sur la question centrale de la mesure de
l’efficacité de la publicité online.
Les chercheurs se sont penchés dès l’origine sur l’efficacité de la publicité online et comportement de
l’Internaute. Pavlou et Stewart (2000) soulignaient très tôt d’ailleurs que le consommateur devait être au
cœur des mesures d’efficacité de la publicité online, par opposition aux mesures dites objectives (taux de
click, etc.). Dans un article très remarqué, Drèze et Hussherr (2003) observent sur 49 sujets la relation
entre le taux de click et l’observation effective de l’annonce de publicité (bannières) par le biais d’une
méthode dite d’eye-tracking. Leurs résultats montrent que la zone d’exposition et la taille sont
déterminantes. Plus intéressant, les internautes de l’échantillon se révèlent capables d’identifier qu’il
s’agit d’une bannière de publicité sans regarder directement l’annonce, et de fait, évitent inconsciemment
dans certains cas de regarder les bannières. Les liens sponsorisés sont également très fréquemment
utilisés aujourd’hui, et des travaux récents ont démontré que l’attitude du consommateur à l’égard des
liens sponsorisés modérait fortement l’intention de cliquer sur le lien (Gauzente 2010).
Quels sont dès lors, les principaux déterminants de l’efficacité de la publicité online ? Baltas (2003)
apporte un début de réponse en distinguant des facteurs créatifs (taille de la bannière, longueur du
message, logo de la marque, etc.) de facteurs liés au média (durée de la campagne, dispersion des
médias, etc.) D’autres chercheurs ont aussi montré que les mesures d’efficacité devaient être intégrées
dans une perspective plus générale, liée au site lui-même (attractivité par exemple), au consommateur
(quel sens perçoit-il dans ces messages ?) et aux opportunités éventuelles de co-marketing entre autres
(Sudoh, Bevans et Sengupta 2002). Ces dimensions sont elles aussi explorées dans les approches des
professionnels du secteur.
De leur côté, les annonceurs éprouvent eux aussi le besoin de mesurer l’efficacité de leurs campagnes
online qu’elles soient « mono média » ou intégrées dans des plans plurimédias (ou 360°). En effet bien
au-delà du « taux de click », dont le taux moyen est aujourd’hui de l’ordre de 0,03 %, il est prouvé que la
publicité online a des effets substantiels sur la marque (Hollis, 2005). Dynamiclogic fut la première
société qui s’est systématiquement intéressée à la mesure de l’impact des campagnes online sur la
marque. En utilisant, une procédure d’échantillonnage dite de test/contrôle (via un recrutement en continu,
dit de « life sampling »), qui permet d’interroger des visiteurs des sites du plan média de la campagne
online, la société Safecount propose par exemple d’isoler les réponses des personnes exposées au plan
média (aux formats publicitaires, aux sites visités, et le nombre d’expositions qui permet d’établir des
courbes de réponses) et de les comparer à des personnes non exposées à ce plan[12]. Les différences
observées sur des indicateurs tels que la reconnaissance publicitaire, l’attribution, l’agrément ou
l’intention d’achat permettent de mesurer l’impact d’une campagne online. Lorsque la campagne online
fait parti d’un plan plurimédias, la reconstitution des expositions probables aux autres médias permettent
d’évaluer les synergies médias Internet et TV par exemple[13]. Il est également possible d’interroger les
membres d’un acces panel online pour réaliser des études d’efficacité publicitaire. Comme dans le
premier cas, afin d’isoler les exposés et non exposés au plan média, il est nécessaire de disposer d’un
outil de contrôle de cette exposition (comme pour le « life sampling », le tout est généralement mis en
place grâce par « taguage » de l’ensemble des publicités du plan média online).
Sous l’impulsion d’une progression significative des investissements en « display » et d’une croissance
exponentielle à venir, la part des études d’efficacité de la publicité online progresse et devient de plus en
plus une affaire de spécialistes (Dynamiclogic, Crmmetrix, Nielsen Online, etc.). À ce titre, le standard
idéal de mesure semble encore à définir compte tenu de la faiblesse des taux de participations enregistrés
tant en « life sampling » que sur acces panels, qui certes, semblent moins souffrir « a priori » de la non-
participation des internautes aux enquêtes, mais pêchent également par d’autres biais. Un rapport récent
publié aux États-Unis par l’Internet Advertising Bureau (IAB), en août 2010, recommande d’ailleurs à
l’ensemble des acteurs de « sérieusement » se pencher sur la question de la mise en place de standards de
mesure d’efficacité acceptée par l’ensemble de l’industrie[14].
Après avoir passé en revue les grands types et méthodologies d’études en ligne, il nous semble
maintenant important d’aborder les nouvelles opportunités offertes par le Web au métier des études. En
effet, comme nous l’avons dit, les bénéfices possibles peuvent aller bien au-delà de la rapidité et du coût.

Section 4

VERS LE DÉVELOPPEMENT DE NOUVELLES MÉTHODES D’ÉTUDES

Les médias sociaux[15], définis comme « un groupe d’applications en ligne qui se fondent sur l’idéologie
et les techniques du Web 2.0 et qui permettent la création et l’échange de contenu généré par les
utilisateurs eux mêmes » (Kaplan et Haenlein, 2010), démontrent l’impérieuse nécessité pour les études
online de s’approprier la valeur créée par l’individu participant et ses interactions avec les autres
participants (et non le seul « répondant », rôle dans lequel l’individu était jusque lors trop souvent
cantonné dans les études traditionnelles). Quelques praticiens ont d’ailleurs bien saisi cette tendance de
fond puisqu’ils évoquent dans leurs écrits les concepts de « recherche connectée »[16] (Schillewaert et al.,
2009) ou encore de « community based research » (Florès, 2008a) pour faire référence au rôle de plus
en plus actif du participant, tour à tour répondant, participant et chercheur lui-même.
Avant d’aborder plus amplement cette tendance de fond liée au développement de méthodes d’études de
plus en plus « connectées » ou « relationnelles », nous rappelons, dans un premier temps, d’une part les
opportunités offertes par l’interactivité de la technologie, et d’autre part les opportunités fournies par la
traçabilité des échanges et des comportements via terminal mobile ainsi que sur Internet. Dans nos
propos, ces opportunités font écho aux bénéfices dits « transformationnels » de la technologie Internet, et
qui dépassent les seuls effets « automationnels » et « informationnels » liés à la rapidité, au coût et plus
généralement à l’efficience de process (Day 1994 ; Grover & Al., 1996).

1 Tirer profit de l’interactivité


Selon Hauser et Dahan (2001) la technologie Internet permet aux études de bénéficier de trois grands
avantages :
Le 1er avantage concerne la communication, qui permet non seulement une plus grande interactivité et
une plus grande vitesse d’échange entre équipes de développement de nouveaux produits par
exemple, mais aussi entre répondants eux-mêmes. Non pas qu’il n’existe pas d’échanges dans le
cadre des études classiques en face à face, mais ces derniers restent relativement limités à quelques
personnes et pas/peu faciles à contrôler.
Le 2e avantage a trait à la « conceptualisation », proposée par l’utilisation de différents stimuli
graphiques (en 2 dimensions voir en 3 dimensions) et audio, et qui permet d’aller au-delà des
barrières de coûts liées à la mise en place de tests de prototypes, et s’avère très performante en
termes de validité et de fiabilité (Dahan, Srinivasan 2000 ; Vernette, 2007).
Le 3e avantage porte sur les capacités de calcul en temps réel proposées par le Web et qui permettent
d’aller au-delà des plans expérimentaux « fixes » en adaptant en temps réel les stimuli proposés aux
répondants sur la base de leurs réponses précédentes. L’exemple le plus classique fait référence aux
avantages proposés par l’analyse conjointe adaptative (ACA), mais des méthodes récentes encore
plus exigeantes en termes de calcul permettent d’adapter les stimuli aux répondants, en approchant le
produit ou le concept idéal de plus en plus efficacement (Toubia O., Hauser J. R, Duncan I. Simester,
2004).
Adaptative et évolutive, la méthode de génération d’idées brandDelphi (Florès, 2005a, Toubia et
Florès, 2007)[17] utilise pleinement ces capacités de calcul avancées. Lors d’une session brandDelphi,
chacun des participants peut non seulement apporter ses propres idées à la résolution d’un problème,
l’optimisation d’un concept etc., mais également réagir, reprendre, ou reformuler les idées proposées par
d’autres participants. Ce qui peut apparaître au premier abord comme un questionnaire fermé quantitatif
est en fait une interrogation ouverte et « qualitative », le consommateur peut sélectionner les idées qui lui
semblent les plus pertinentes, y rajouter les siennes pour finalement noter l’importance/l’agrément/la
différenciation (selon les besoins) de chacune des idées sélectionnées. L’algorithmique permet en temps
réel, de simultanément, recueillir de nouvelles idées et de gérer la réexposition à un certain nombre
d’idées précédemment émises par d’autres consommateurs. La logique « évolutive » de brandDelphi
(Goldberg, 2002) fait alors rapidement émerger les meilleures idées ou propositions et ce avec un
nombre relativement limité d’itérations.
Le succès commercial de la méthode brandDelphi, lancée en 2001, et aujourd’hui régulièrement utilisée
par des annonceurs français et internationaux, témoigne de l’engouement des spécialistes des études
marketing pour une meilleure exploitation de l’interactivité d’Internet.

2 Ce que change la mobilité


Pour R. Poynter (2013), la collecte de données de mobile et via mobile pourrait être l’une des
principales avancées des études de marché dans les prochaines années. Corolaire de l’interactivité, la
mobilité est en train de transformer les études, sous nos yeux. L’Esomar notait récemment (2012) que
l’explosion de ces dernières années de l’usage des terminaux mobiles (téléphones, smartphones, tablettes,
ordinateurs portables, entre autres) a rendu possible l’émergence de nouvelles méthodes de recherche.
Parmi celles-ci, les études online bien entendu, mais également la collecte de données passives, de
données de géo-localisation, de données ouvertes contextuelles ou encore d’autres données non
structurées (texte, image, vidéo) pouvant être collectées par ce biais.
Que change donc la mobilité ? Le principal bénéfice réside dans l’accès à de grands volumes de
données de comportements réels, permettant de mieux appréhender l’espace mais aussi le temps de
consommation. Des distributeurs comme Wal-Mart dédient de très nombreuses ressources à l’analyse des
données de tracking en magasin. De nombreux acteurs des études investissent aujourd’hui dans le mobile
afin de pouvoir actionner des promotions en temps réel. Macy’s par exemple teste une solution pour
activer des promotions en fonction du parcours en magasin de ses clients.
Il s’agit aujourd’hui d’un enjeu clé pour les études : être en mesure de fournir des insights tout au long
du parcours de consommation (consumer journey), depuis la phase d’intérêt jusqu’à l’achat. Cette
approche plus exhaustive, bien loin de fragiliser les études au profit d’approches concurrentes, renforce
au contraire leur importance dans l’organisation, en remettant au centre le besoin de comprendre le
processus de décision du consommateur dans toute sa complexité.

3 Observer les comportements sur Internet


Comme certains auteurs l’anticipaient dès la fin des années 1990, Internet remet de la fluidité dans les
échanges, redonne le pouvoir aux individus et les marchés deviennent alors plus que jamais des
« conversations » (Locke & Al, 1999). L’avènement de « l’individu média » est bien sûr amplifié par le
Web 2.0, qui permet, à chacun, au travers d’un forum, d’un blog ou encore d’un wiki, de partager ses
expériences de consommation et de très vite vanter les mérites d’une marque ou d’au contraire nuire à sa
réputation. Les commentaires, messages, ou autres « billets » sont autant de « traces » indélébiles d’avis
de consommateurs qui s’exprimant au gré de leurs humeurs peuvent (Google aidant) très vite porter
préjudice à la réputation d’une marque et/ou d’une entreprise. Dans cette perspective, la marque est dans
l’obligation de suivre, de comprendre et d’apprendre de ces échanges spontanés qui naissent toutes les
secondes sur la toile aux quatre coins de la planète. Kozinets (2002) fut le premier à mettre en avant la
pertinence et la valeur des commentaires laissés sur blogs et forums pour la compréhension des marchés.
La « netnographie » était née et est aujourd’hui une pratique d’études de marchés de plus en plus adoptée
par les entreprises. Selon son inventeur, par rapport aux méthodes d’études plus traditionnelles, les
principaux avantages de la netnographie sont de trois ordres :
Le 1er avantage tient au mode opératoire de la méthode. En effet, alors que la pratique courante des
études de marchés s’envisage essentiellement par les méthodes d’interrogation, la netnographie
remet au goût du jour les méthodes d’observation et de l’ethnographie en particulier. Evitant le biais
d’enquêteur, selon Kozinets (2002) la netnographie offre un environnement d’études et d’analyse
plus naturel et plus spontané que les focus groups et les interviews de consommateurs.
Le 2e avantage fait référence à la relative simplicité de déploiement de la méthode, sa rapidité et son
coût, ou plutôt son bon rapport qualité prix. Dès ses premières expériences, Kozinets (2002) met en
avant cet avantage. Une étude récente dans un contexte français confirme également cet avantage
(Bressou, Carricano, 2009). Par ailleurs, la popularité grandissante de l’approche au sein des
instituts d’études tant aux États-Unis qu’en Europe depuis quelques mois confirment également
l’intérêt de la méthode.
Le 3e avantage de la méthode est lié à la richesse de l’exploitation des données issues des blogs et
forums. En effet, selon Kozinets (2002), auteur de référence dans le domaine, les informations
collectées sur Internet peuvent tout à la fois servir des objectifs de connaissance de pratiques de
consommation ou plus généralement de compréhension d’attitudes de consommation (Fuller & Al,
2007).
Kozinets (2002) formule en particulier quelques recommandations d’ensemble sur le développement et
la mise en pratique de la netnographie : le caractère moins intrusif de la netnographie ne remet en aucun
cas en cause, le caractère éthique lié à l’exploitation des commentaires et échanges dans les communautés
virtuelles. Bien au contraire, selon l’auteur, le respect de l’individu est, selon lui, plus que jamais
essentiel à la pleine immersion de l’homme d’études dans la vie de la communauté pour mieux en saisir
le sens, sa réalité et sa vie.
Au-delà de l’exploitation des commentaires laissés sur blogs et forums (via la netnographie
notamment), d’autres techniques d’analyse des comportements d’internautes lors de leur visite des sites
Internet sont également à prendre en compte. Une telle analyse systématique peut s’avérer très utile pour
suivre voir prédire la dynamique d’un marché ou les ventes d’un produit ou d’un service. Récemment, par
exemple, grâce à l’analyse systématique des données de visite du site allocine.fr (et en particulier le
nombre de visites sur chacune des fiches films, le nombre de fois où la bande-annonce est visualisée, etc.
[18]
) les auteurs ont pu modéliser les entrées cinéma en France et ainsi les expliquer de façon plus
significative par rapport un modèle de prévision plus classique (Belvaux, Florès, 2010). D’autres
expériences, avec d’autres types de données sont tout aussi concluantes. En particulier celles qui utilisent
le volume de recherches sur Google permettent de prédire par exemple l’évolution des marchés de la
moto, de la voiture, des assurances auto ou encore de l’immobilier[19]. Ces données agissent en quelque
sorte comme des « proxies » (issus) du Web et peuvent permettre d’anticiper rapidement l’évolution d’un
marché. Le tout se fait de façon relativement simple et peu onéreuse (comme pour la netnographie les
données sont souvent disponibles de façon gratuite) et offre certainement un bel avenir à une nouvelle
pratique de d’études et de recherche qualifiée de « Webométrie »[20].
Au-delà des opportunités liées à l’exploitation systématique des capacités interactives et de la
traçabilité des échanges qu’offrent Internet, la principale évolution des des études marketing tient à
l’avènement des médias sociaux, et au nécessaire changement de posture qu’ils impliquent dans la
relation marketeur/consommateur (ou sondeur et répondants). Le développement d’une telle pratique
d’études plus « relationnelle » est développé dans les paragraphes suivants.

Section 5 VERS DES ÉTUDES DE MARCHÉS « RELATIONNELLES »

Comme nous l’avons déjà mentionné, à la seule relation unilatérale chercheur/sondeur/répondant


semble se substituer de plus en plus une relation tripartite entre chercheur et répondants participants,
participants et chercheur et entre participants eux-mêmes. La principale conséquence de ce changement de
paradigme pour les études est l’impératif de passage d’une posture de questionnement à une posture
d’écoute.

1 Première conséquence : écouter plutôt que seulement questionner


Ce premier point est fondamental, car il remet en cause, selon nous, l’ensemble de la pratique des
études de marché qui est fondamentalement fondée sur l’interrogation (nous ne nions pas ici l’existence
de techniques d’observation dans la pratique des études de marché, mais celles-ci ont été jusqu’ici
largement supplantées par les techniques d’interrogation) plutôt que sur l’écoute. Ce changement de
paradigme retrouve ses premiers signes de manifestation dans la baisse systématique des taux de
participation aux enquêtes. Cette tendance d’abord constatée dans les interrogations en face à face, puis
par téléphone semble également voir le jour aujourd’hui dans le cadre des études online (qualité et
éthique étaient par exemple les thèmes centraux de la conférence récemment organisée sur le sujet par
Esomar[21]). En effet, alors que les spécialistes des panels online sont plus que jamais confrontés à des
problématiques de recrutement mais surtout de fidélisation de leurs panélistes, les individus ayant de
moins en moins de temps pour répondre, paradoxalement ces derniers trouvent de plus en plus le temps
pour discuter, commenter, participer à des débats publics qui fleurissent minute après minute sur la toile.
Au-delà du besoin de réinventer la relation enquêteur-enquêté, la première conséquence de ce
changement paradigme est l’opportunité que représentent l’écoute et l’analyse des commentaires et
discussions sur les forums et blogs, la « netnographie » (Kozinets 2002, ou Bernard 2004 pour une
synthèse). Cette pratique d’études, née à la fin des années 1990, se structure pour devenir véritablement
un segment de l’industrie des études de marchés (le segment du « brand monitoring » selon Forrester
(Kim, 2006) qui voit des géants de l’industrie des études se positionner par le rachat de sociétés
(notamment le rachat de Buzzmetrics par Nielsen ou de Cymphony par TNS fin 2006).
Alors que l’analyse textuelle du contenu des blogs se développe (voir Bertrandias et Carricano 2006
pour un exposé de la méthode), de similaires études peuvent être entreprises sur le matériau que
constituent images et photos disponibles sur l’Internet. Les sites Web 2.0 tels que Flickr, YouTube, ou
encore DailyMotion rassemblent une « matière première » unique et à la richesse exceptionnelle. Des
images dont la particularité est de ne pas avoir été produite dans une intention commerciale, et qui
représentent le regard quotidien et « naïf » d’une large population, internationale en outre, permettent
l’accès à une représentation globale et localisable. de la manière dont les marques sont perçues,
représentées, et plus encore à comprendre les expériences de consommation, en usant de méthodes telles
que l’anthropologie visuelle (Vernette, 2007 ; Dion, 2007).
Le passage d’une posture de questionnement à une posture d’écoute implique fondamentalement la
revalorisation de l’individu « répondant » et de son rôle, passant d’un mode passif (tel qu’il a trop
longtemps été perçu) à un mode actif, d’un rôle de simple répondant à celui de participant.

2 Deuxième conséquence : de l’individu « répondant » à l’individu


« participant »
L’industrie des études de marché est confrontée à un véritable risque de baisse de participation, voire
de non-coopération des « répondants ». Le simple terme de « répondant » souligne d’ailleurs le problème
de fond auquel sont confrontés les praticiens, qui trop longtemps l’ont considéré comme une « ressource »
sans véritablement chercher à le valoriser comme un partenaire d’échange, capable de créer et
d’influencer. Il s’agit précisément selon nous de l’enjeu principal pour les spécialistes des panels online.
Le recrutement et la fidélisation des panélistes deviennent de plus en plus difficiles, il n’est plus rare de
compter nombre d’individus membres de plusieurs panels simultanément, voire des répondants
« professionnels ». Cet état de fait est accentué par des compensations de nature généralement
transactionnelle plutôt que relationnelle (bons d’achat, points, chèques cadeaux, etc.). À l’inverse,
lorsque les interrogations par questionnaire sont positionnées comme sources d’améliorations des
services à l’égard des clients, ces études sont non seulement plus susceptibles de bénéficier d’un meilleur
taux de réponse mais semblent également capables d’améliorer la perception de l’entreprise auprès des
clients interrogés, en particulier, si tout ou partie des résultats et initiatives qui découlent de l’étude sont
partagés avec les personnes ayant répondu au questionnaire. Il semblerait donc que le simple fait
d’interroger, puis de partager les résultats d’une étude soit capable d’améliorer la relation des clients
interrogés à l’entreprise qui les sollicite. Ces constats rejoignent celles d’autres praticiens (Wittes
Schlack & Jennings, 2007) qui montrent également que la sollicitation régulière des membres d’une
communauté de consommateurs permet non seulement de mettre à jour régulièrement des idées
intéressantes mais également de développer des relations fortes entre ces consommateurs et la marque
sponsor de la communauté.
Certaines recherches académiques (Dholakia & Morwitz, 2002) ont d’ailleurs déjà montré le potentiel
relationnel des études qui semblent capables de déclencher une réévaluation positive de la marque qui les
met en place. Dans ce prolongement, nous pensons que les spécialistes de la gestion de panels online
auraient tout à gagner à véritablement valoriser les contributions de leurs panélistes en leur permettant
par exemple tout à la fois de développer eux-mêmes des relations avec les marques qu’ils souhaitent et en
mettant à leur disposition de véritables espaces collaboratifs sur lesquels ils pourraient partager avis et
suggestions sur les sujets et marques dont ils se sentent proches. En ce sens, le répondant ne devient plus
seulement répondant mais véritable acteur de la conversation et des échanges, mettant en place ses
propres conversations. Du statut de seul « répondant » ou « consommateur », l’individu devient
« participant » ou « consom’acteur », tout à la fois créateur, influenceur, offrant des idées aux marques qui
à leur tour sauront améliorer leurs quotidiens. Cette remise à niveau de l’échange est alors bénéfique pour
tous : marques et consommateurs.

3 Troisième conséquence : les études dans le paradigme du « big data »


Aux changements de comportement des consommateurs face aux études traditionnelles doit s’ajouter la
lecture croisée d’un nouveau phénomène : le big data. De nombreuses études établissent l’impact
économique du big data (Bughin et al., 2011), voire qualifient la tendance de véritable révolution
(McAfee et Brynjolfsson 2012). Le big data est avant tout un ensemble de données caractérisées par leur
volume (définis en petabytes voire en de nouvelles unités de mesures spécifiquement créés, les
zetabytes), leur variété (données historiques, transactionnelles, mais aussi provenant de CRM, du Web et
des réseaux sociaux, sous diverses formes structurées ou non structurées telles le texte, les images, la
vidéo), mais aussi leur « vélocité » (ces données pouvant être actualisées dans la seconde, n’étant plus
stockées mais accessibles en flux). Au-delà des données, le big data transforme également les capacités
analytiques des entreprises le mettant en œuvre. Fondée sur des années de data mining, ces compétences
se diffusent largement dans l’organisation grâce à des outils plus fonctionnels (visualisation avec Tableau
Software ou Tibco Spotfire par exemple), plus ouverts (R remplaçant de plus en plus les outils
traditionnels tels que SAS ou SPSS), et plus intégrés dans des dashboards décisionnels, projetant les
données et l’analyse dans des cockpits de décision (Davenport, 2013).
Quelles conséquences pour les études au sein de ce paradigme ? La première conséquence est une
opportunité. En effet, les limites du questionnement traditionnel que nous avons évoqué plus haut peuvent
être en partie dépassées par une approche de type big data. Peter Fader (2014)[22] prend comme exemple
la télévision 3D. Présentée comme une source de croissance et de revenus pour le secteur et après des
investissements colossaux tant au niveau des fabricants que des éditeurs de contenus, la télévision 3D
apparaît aujourd’hui comme un échec patent. En cause ? L’absence d’études sérieuses et approfondies,
symptôme d’une place des études dans le système de décision de plus en plus remise en cause, qui
auraient pu identifier plus tôt le frein de l’utilisation des lunettes 3D. Comment dès lors rapprocher le
besoin d’études robustes sur les usages et attitudes, par exemple, avec l’accélération de la mise en
marché des produits ? En mariant études et big data, ou plutôt en envisageant les études comme partie
prenante du big data : en fusionnant ce que les consommateurs disent avec ce qu’ils font. Au cœur de ce
mariage se trouve l’avènement du profil de « data scientist » (Davenport et Patil, 2014), qui va lui-même
de pair avec la création et la structuration de départements de Marketing Intelligence (Wee 2011). Le data
scientist, dont on estime qu’il y aurait 190 000 postes à pourvoir aux États-Unis seuls d’ici à 2015, fait
figure d’oiseau rare, incarnant le pont entre découverte de tendances dans les données et l’isolement
d’hypothèses faisant sens pour le marché, hypothèse à tester grâce à des études plus pointues et orientées
autour des comportements tout au long du parcours client.

4 La recherche et la valorisation de « l’insight »


Le nouveau type de relation entre questionnant et répondant, le Web 2.0 et plus largement les médias
sociaux, ainsi que l’avènement du big data permettent de développer nouvelles méthodes d’études. Il est
en effet indéniable que la richesse du matériau représentée par les données de transactions ou de CRM,
les nombreuses contributions spontanées écrites ou imagées sur les blogs, forums ou autres sites
communautaires impose un renouvellement des méthodes ou plutôt l’émergence d’une nouvelle façon de
faire des études. Les « puristes » des études en critiqueront les fondements méthodologiques et/ou auront
peut-être du mal à se repérer dans ce nouvel environnement. Des critiques du type « S’agit-il de qualitatif
ou de quantitatif ? », ou encore « Est-ce que les analyses mises en œuvre sont représentatives ? » sont
d’ores et déjà fréquentes. Elles sont bien sûr légitimes et chercheurs et praticiens doivent y apporter des
réponses valides, mais on peut penser également que ces questions cachent un enjeu plus important : celui
du rôle fondamental des études de marché dans l’entreprise. En effet, alors que les entreprises clament
plus que jamais leur impératif « d’orientation client », il semble que la fonction études soit parfois remise
en cause ou a minima dévalorisée, comptant moins de personnel d’année en année, et siégeant rarement
au conseil d’administration de l’entreprise. Le tout semble à première vue paradoxal en particulier si l’on
considère que les études de marché représentent la voix du consommateur dans l’entreprise. Cette
situation ne paraît pas fondamentalement étonnante, car les études semblent parfois plus préoccupées par
le respect des méthodes que par la recherche et la valorisation des idées (le fameux « insight » cher à nos
collègues anglo-saxons). Dans cette perspective, le Web 2.0 et l’espace de libertés qu’il offre aux
individus remet en cause selon nous l’opposition classique qui peut exister entre études qualitatives et
quantitatives. Peut-on véritablement qualifier de qualitatives des analyses de plusieurs milliers de
commentaires sur des blogs ou forums ? N’assiste-t-on pas au contraire à l’émergence d’une pratique
« quali/quanti » dont l’objectif premier demeure la compréhension des consommateurs ? De la même
façon, même si la représentativité des réponses des membres d’une communauté sollicitées sur
Facebook[23] peut être discutée, les réponses de cet échantillon de convenance peuvent s’avérer très
riches car émanant d’individus directement concernés par la question et parfois difficiles à solliciter
autrement. Une fois mises à jour, rien n’empêche par exemple de valider ces idées par une procédure
d’étude plus orthodoxe et plus représentative.

EN CONCLUSION
Au terme de ce développement, force est de constater qu’en l’espace de 15 ans à peine,
Internet a véritablement bouleversé l’univers des études de marchés. Représentant aujourd’hui
le moyen de collecte majeur des études quantitatives (au niveau mondial), mais également un
objet d’études (les études d’efficacité média ou du « marketing digital ») significatif qui ne
cesse de croître à l’instar des investissements Internet qui représentent aujourd’hui plus de
15 % des investissements médias des annonceurs en France[24], il semble incontournable, que
la richesse des idées disponibles sur le Web doit pousser les responsables marketing et les
hommes et femmes d’études à plus que jamais valoriser ce nouvel espace de discussions et à
envisager le marketing de façon plus « humaine et conversationnelle ». Les bonnes idées sont
certainement plus que jamais disponibles, et au-delà des méthodes, ce sont bien la curiosité et
le sens critique qui pourront faire des études une fonction plus que jamais fondamentale dans
l’entreprise. Nous considérons donc que le Web au sens large, le Web 2.0 et les médias
sociaux en particulier, sont une chance extraordinaire pour permettre au métier des études de se
réinventer.
Au verbe « sonder », nous préfèrerons l’expression avoir « une conversation avec ses
clients », car plus en phase avec le contenu et la vocation même du fameux Web 2.0. Par
exemple, certaines marques ouvrent des espaces collaboratifs publics ou privés (avec certains
de leurs clients invités de façon privée et exclusive) qui sont des lieux d’échanges fructueux
pour la mise au point de nouveaux produits, de nouvelles campagnes de communication, un
feedback sur le lancement d’un nouveau produit, ou tout simplement avoir un avis sur une
initiative d’un concurrent, etc. À l’avenir, ou plutôt dès à présent, nous pensons que ce nouveau
type d’approche participative et collaborative devrait faire partie des possibilités « d’écoute
des marchés » que les responsables des études ne pourront négliger dans leur mission
quotidienne de compréhension et d’anticipation des besoins du consommateur. Comme nous
l’avons expliqué, ces méthodes doivent trouver leur place à côté d’autres méthodes de
sollicitation plus traditionnelles pour ainsi enrichir les possibilités de connaissance des
marchés mises à disposition des marques. Nous irons même plus loin en disant que les
marques qui se priveront de cette « recherche connectée » (Schillewaert, 2009) auront plus de
mal à rester pertinentes sur leurs marchés.
Le Web 2.0, les médias sociaux et le Web au sens large (incluant aussi la mobilité) sont de
toute évidence une formidable opportunité pour remettre le client au centre de l’organisation, et
du même coup faire des études de marché une fonction plus que jamais indispensable dans
l’entreprise. À l’ère du tout consommateur et du Web par les gens pour les gens, accessible
depuis une grande variété de terminaux et pendant toutes les phases du parcours de
consommation, le Web au sens large donc, offre une formidable opportunité pour toute
entreprise d’accentuer son orientation client et donc son orientation marché et d’ainsi
améliorer sa performance organisationnelle. Il sera intéressant d’observer dans les prochaines
années, comment les entreprises, petites, moyennes ou grandes, intégreront le Web 2.0 et ses
conséquences dans leur processus d’écoute des marchés. Comme nous l’avons dit dès 2008[25],
les études de marchés ont commencé leurs mues avec l’arrivée d’Internet, celle-ci est loin
d’être achevée et réserve aux chercheurs et praticiens de belles perspectives d’avenir dans un
métier qui devra demeurer tout à la fois « scientifique » de par les méthodes rigoureuses (et
mathématiques) qu’il met en œuvre, mais aussi de plus en plus « artistique » dans sa capacité à
intégrer les changements et les nouveaux modes de vies de notre société « hyperconnectée ».

[1] Pour plus d’informations : www.esomar.org

[2] Citons pour exemple les sociétés BrainJuicer, Crmmetrix, Comscore, Insight Express.

[3] En France citons par exemple les sociétés Ipsos, Ifop ou encore TNS Sofres.

[4]
Dès le milieu des années 90, la disponibilité de multiples outils en ligne tels www.surveymonkey.com gratuits ou presque, faciles à
prendre en main ont contribué à « populariser » le tout.
[5]
Pour plus d’informations le lecteur peut se référer au guide Esomar sur les 26 questions qu’un acheteur d’études devrait poser à son
fournisseur de panel online (« 26 Questions To Help Research Buyers Of Online Samples » : http://www.esomar.org/index.php/26-
questions.html).
[6] Nous remercions vivement notre confrère Daniel Bô de l’institut d’études QualiQuanti pour la mise à disposition de son « Book des

études online » qui a permis d’illustrer et d’enrichir plus encore nos propos, en particulier, sur les access panels online et les études
qualitatives.
[7] Pour un tour du marché et des pratiques aux États-Unis, les lecteurs pourront se référer au rapport de Forrester sur le sujet :
http://www.forrester.com
[8] Irep : Institut de recherche et d’études publicitaires (www.irep.asso.fr) ; Cesp : Centre d’études des supports publicitaires
(www.cesp.org).
[9] Résultat issu de la base de données normées SiteCRM de la société crmmetrix : http://fr.crmmetrix.com

[10] Pour plus d’informations : www.journaldunet.com

[11]
Le « display » fait référence à l’ensemble des formations du type « bannières », et ne prend pas en compte les dépenses en « search »
des annonceurs (publicités sur mots clé sur Google par exemple) qui représentent toujours la majeure partie des investissements des
annonceurs.
[12] Pour plus d’informations sur la méthodologie de « life sampling » : www.safecount.net

[13] Pour exemple : http://fr.crmmetrix.com/produits/6d_campaign_360

[14]
Pour plus d’informations et consulter le rapport de l’IAB : http://www.iab.net
[15] Nous renvoyons le lecteur désireux d’approfondir le sujet vers le chapitre 3 de cet ouvrage : « Les médias sociaux ».

[16] De l’anglais « Connected Research ».

[17] Pour plus d’information ou pour lancer une session : www.branddelphi.com ou http://fr.crmmetrix.com

[18] L’ensemble de ces statistiques est mise à disposition de façon gratuite par Allociné sur le site www.allocinepro.fr

[19] Rapport Google du 17 août 2009, « On the Predictability of Search Terms »: http://googleresearch.blogspot.com

[20]
Voir en particulier sur le sujet les recherches du professeur Stéphane Gauvin de l’université Laval au Canada :
http://entreprisedigitale.typepad.com/main
[21] Conférence Esomar « Panel Research », Orlando, 28-30 octobre 2007.

[22] « Finding a Place for Market Research in a Big Data, Tech-Enabled World », Knowledge @ Wharton, 29 janvier 2014.

[23] Depuis juin 2007, il est possible de poser des questions aux membres de FaceBook via « FaceBook Polls ». Grâce à des mini sondages,
on peut poser des questions simples dont les réponses sont payantes. Leur coût varie de 0,10 $ à 1 $ plus un coût d’activation de 5 $. Pour
plus d’informations: http://www.techcrunch.com/2007/06/01/facebook-polls-launches-tonight-marketing-research-paradise/.
[24] Source IAB France (www.iabfrance.com).

[25] Interview de L.Florès, « Les études de demain seront une science, mais aussi un art », Nouvel Economiste, 31/10/08.
Chapitre
9 Technologies d’Internet et vie privée

Yves Adrien ROY


Maître de conférences IAE de Poitiers, laboratoire CEREGE

Objectifs

■ Comprendre les enjeux de la vie privée sur Internet.


■ Appréhender les technologies de tracking des internautes.
■ Analyse les usages émergents sur les smartphones et tablettes.

Sommaire

Section 1 Cadre d’analyse


Section 2 Usages du contexte étendu
Section 3 Outils de suivi de l’internaute
Section 4 Vie privée et réactions du mobinaute
« T’es où ? » : sorte d’interjection téléphonique qui a ponctué la décennie 2000-2010, principalement
dans les transports en commun. Mais les services de géolocalisation sociale (geosocial networking[1]),
parfois appelés Location-Based Social Network Services (Zhao, Lu, & Gupta, 2012) comme FourSquare,
Facebook Places… ont rendu caduque cette entrée en matière : soit l’individu, appelé ou appelant, veut
faire connaître où il est, auquel cas il a sans doute déjà procédé à un check-in avec son mobile, soit il ne
répondra que de façon évasive.
Plaçons-nous plutôt dans une optique marketing : nous avons a minima un vendeur et une cible,
l’internaute ou sa variante le mobinaute, et notre centre d’intérêt sera de savoir comment agir sur la forme
de l’interaction médiatisée dans l’intérêt de l’une ou l’autre partie, voire d’un intérêt mutuel. Le
marketing personnalisé (one-to-one marketing) n’est pas récent (Peppers & Rogers, 1993) mais il a
longtemps buté sur des difficultés d’ordre technique : comment connaître efficacement le consommateur et
comment le joindre de façon exclusive. Ces deux points ont trouvé leur solution lors de la décennie
écoulée, au-delà même de ce qui semblait possible lors des premières tentatives d’adaptation des
interfaces informatiques mobiles à leur contexte (Schilit, Adams, & Want, 1994).
Ce que nous traitons dans ce chapitre présente des similitudes avec ce qui est traité dans celui
concernant les systèmes de recommandation (recommender systems) : la recommandation est une forme
de personnalisation et une partie des techniques de collecte d’information que nous décrirons ici sont
employées par ces systèmes. De même, certaines des méthodes de calcul survolées dans cet autre
chapitre sont applicables au problème en cours : nous nous contenterons de nous y référer. Pour autant,
les mécanismes de recommandation sont plutôt axés sur les produits ou services (item centric), tandis que
nous adopterons ici une vision centrée sur l’utilisateur (user centric).
Il nous faut en premier définir les éléments qui interviennent dans la relation entre vendeur et utilisateur,
préciser quelques concepts et exclure quelques domaines connexes pour lesquelles la vision proposée ici
ne convient que partiellement. En particulier, nous ne traitons que ce qui fait intervenir de façon
discriminante les technologies de l’information (TI[2]). Puis nous verrons quelques exemples
d’applications de personnalisation utilisant les TI : aucune prétention à l’exhaustivité ici, simplement des
illustrations des concepts évoqués au préalable. Nous tracerons ensuite à grands traits les apports des TI
pour la collecte d’informations nécessaires à la qualification de l’utilisateur ainsi qu’à la construction
d’une offre personnalisée. Une annexe technique apportera plus de précisions à ceux des lecteurs qui
pourraient en tirer profit.
In fine, nous reverserons la perspective pour adopter les préoccupations de l’utilisateur à propos de
son intimité (privacy) en évoquant les risques encourus et en en illustrant certains, en voyant quelle
réponse réglementaire peut les contenir et en détaillant quelques mesures techniques envisageables, sans
en cacher le caractère souvent illusoire. Deux remarques avant de poursuivre :
Depuis la première édition de cet ouvrage, en 2011, les techniques présentées ici se sont
développées et généralisées et les usages sont devenus omniprésents, certains leur prédisant un
apport majeur à l’économie (Henttu, Izaretl, & Potere, 2012). En d’autres termes, « Les équipements
électroniques personnels voyagent avec nous, nous les portons et, bientôt, ils seront dans nous »
(Michael & Clarke, 2013, p216, traduction libre). Le volume imparti à ce chapitre oblige à le
limiter à la présentation d’un cadre général et de quelques illustrations, laissant le lecteur tirer parti
des références et liens pour approfondir si nécessaire.
Par ailleurs, ce chapitre emploie un nombre non négligeable de termes techniques : c’est inévitable
sauf à recourir à de longues périphrases. La plupart de ce jargon fait partie de la culture commune de
nos jours mais quelques précisions sont parfois nécessaires. Pour éviter de rompre le fil du propos,
nous avons choisi de reporter celles-ci en annexe. Dans ce qui suit, un terme souligné y trouve sa
définition : les éventuelles répétitions ne le sont pas.

Section 1 CADRE D’ANALYSE

Il n’est pas nécessaire de revenir sur les objectifs d’un marketing personnalisé ou sur les spécificités du
e-commerce, largement détaillés dans tout cet ouvrage. Nous nous plaçons résolument dans une optique
marchande, au moins indirectement, et en B to C, ce qui exclura plusieurs applications des mêmes
technologies à d’autres formes d’interactions. Les éléments de contextualisation de la situation impliquant
l’utilisateur seront détaillés ensuite, avant de décrire les outils dont dispose le vendeur pour en tirer parti,
qui nous conduirons au titre suivant, traitant d’exemples d’usage.

1 Domaines connexes
L’application probablement la plus prometteuse des techniques de localisation, contextualisation et
communication est l’Internet des Objets, M2M. Le nombre global d’objets connectés croît très rapidement
: toute palette d’une certaine valeur est équipée en GPS – GSM et assortie de capteurs adaptés à ses
fragilités, comme des enregistreurs de température pour les denrées périssables. C’est pourtant plus un
robot qu’un terminal au sens où nous le définissons plus bas, car son but premier n’est pas l’interaction
avec un humain. Un lien avec le marketing existe, par exemple via la fonction logistique, mais nous
préférons renvoyer le lecteur à une littérature plus spécialisée, par exemple (Perera, Zaslavsky, Christen,
& Georgakopoulos, 2014).
Les applications non marchandes ne manquent pas non plus : gestion de la ville, des déplacements, de
la santé, de la dépendance… Les liens avec l’e-commerce et l’e-marketing étant plus ténus, nous
choisissons de ne pas en traiter ; le lecteur pourra se reporter à (G9+ & Renaissance numérique, 2013)
pour un premier aperçu.
Le C to C fait un usage intensif de la géolocalisation et autres techniques de profilage ou
contextualisation : toutefois, en nous plaçant dans l’optique du fournisseur du service de mise en relation,
de ses prestataires et de ses affiliés, la différence d’approche avec une relation de type B to C n’apparaît
pas suffisante pour quelle fasse l’objet d’un développement spécifique.
L’analyse est différente pour le B to B. Si on trouve quelques propos prédisant une bonne rentabilité aux
services contextualisés dans ce domaine[3], plusieurs des concepts centraux dans ce chapitre, comme le
terminal, la localisation, le profil, l’individu… devraient être largement redéfinis pour conserver leur
pertinence.

2 Notion de contexte
Découvrons les éléments du contexte d’une connexion entre un utilisateur et un vendeur via un
scénario : la consultation d’un service de météorologie depuis les coordonnées (6,95199 Est, 45,44503
Nord), obtenues soit par GPS soit parce que la station de base de l’opérateur située à ce point a détecté
que la source du signal était très proche. Cette information est suffisante pour délivrer les prévisions
météo en Haute Tarentaise, pas pour cibler une communication efficace sans en préciser le contexte.
Tentons de compléter :
Le géocodage inverse ou géoréférencement nous situe sur la carte de la station de Val d’Isère, près
du sommet du Rocher de Bellevarde et de l’arrivée de nombreuses remontées mécaniques ; donc a
priori dans un contexte « sport ».
De décembre à avril, le contexte se précise en « ski » et en « randonnée » ou « VTT » en juillet-
août. En dehors de ces périodes, le contexte général se mue en « travaux publics ».
En février, vers 11 h 30, la probabilité d’avoir à faire à profil de skieur affamé est très élevée, ce
qui peut justifier une communication pour le restaurant d’altitude situé juste en contrebas. En
revanche, une offre spéciale avant 11 h 40 dans un bar du Front de neige ne concernera que les bons
skieurs[4].
Le même jour, à 7 heures du matin, le profil devient « pisteur », cible d’intérêt modeste.
Idem dans la journée si le terminal n’est pas un smartphone mais une tablette ou un ordinateur
portable : « employé », que ce soit de la STVI ou du restaurant.
Et, depuis un smartphone un peu ancien et avec un forfait bloqué, nous pourrions avoir un « enfant »,
sous la surveillance de ses parents ou d’un moniteur.
En revanche, s’il est possible d’identifier l’utilisateur par l’un des moyens décrits dans ce
chapitre et de constater la présence de ses « amis » d’un réseau social quelconque installés sur la
terrasse située à trois virages de là[5], les possibilités de monétisation deviennent considérables.
Sauf par temps de neige…
La notion de contexte pour les applications informatiques fixes ou mobiles a été définie et
opérationnalisée une première fois dans l’étude (Schilit et al., 1994) mais elle est un peu restrictive.
(Dongsong, Adipat, & Mowafi, 2009) comparent les définitions apparues ultérieurement et nous
adopterons une version légèrement modifiée de celle qu’ils proposent[6] : le contexte est toute information
immédiatement accessible, dont la présence éventuelle d’autres entités, qui va influencer la relation entre
l’utilisateur et le terminal chargé de diffuser un service à son intention, ainsi que modifier ses préférences
pour la forme et le fonds de ce service. Pour le vendeur du service, connaître le contexte d’utilisation
permet d’adapter le contenu délivré, tout en adaptant son apparence aux contraintes identifiées. Les
éléments de ce contexte comportent :
un device ou terminal à travers lequel le service est fourni, soit en mode autonome soit, le plus
souvent, couplé à des serveurs via un réseau informatique ;
les contraintes liées à ce dernier, comme la bande passante disponible ;
l’environnement physique, localisation, orientation, luminosité… ;
les autres entités proches, comme des terminaux secondaires, d’autres utilisateurs identifiés… ;
l’utilisateur, cible du service et en interaction avec son terminal ;
et l’activité supposée du premier, par exemple son degré d’attention (Schmidt, Beigl, & Gellersen,
1998).
La récupération des informations de contexte peut être, selon l’analyse de (Chihani, Bertin, & Crespi,
2011), basée sur les capteurs physiques du terminal et ses capacités de traitement en local ou centrée sur
la plateforme de création du service. De même, certains éléments comme la localisation physique seront
estimés en temps réel tandis que d’autres, dénommés logiques par (Dongsong et al., 2009), résultent
d’une accumulation préalable de données suivie d’un traitement ; les systèmes de recommandation sont de
ce dernier type.

3 Terminal
Traduire device par appareil comme le fait Google[7] masque la fonction de cette chose : servir
d’interface entre le monde numérique, constitué des équipements des opérateurs, du vendeur et de ses
prestataires et le monde analogique dans lequel se meut l’utilisateur. Autant alors reprendre un terme
informatique ancien et désignant précisément cette fonction. Le terminal d’autrefois était passif (dumb
terminal), c’est-à-dire sans capacité de traitement autonome et piloté intégralement par les systèmes
centralisés ; les plus anciens se souviendront du Minitel et tous des téléviseurs d’il y a 3 ans ou plus,
voire de la plupart des panneaux d’affichages basés sur la même technique. La notion de contexte devient
alors très succincte, plus adaptée à un marketing de masse.
Nous nous limiterons ici aux terminaux « intelligents » (smart devices). Pour mériter ce qualificatif, le
terminal doit posséder trois au moins des cinq éléments suivants :
une interface homme-machine ou IHM pour interagir avec l’utilisateur ;
la possibilité de réaliser des calculs en local ;
un espace de stockage local ;
la capacité de communiquer avec plusieurs autres équipements TI ;
celle d’interagir avec l’environnement immédiat, capteurs ou actuateurs. Donnons quelques
exemples et contre-exemples :
Une puce RFID est une forme primaire de d : c’est un capteur, à intégrer dans une solution plus
large. Un badge de télépéage, par exemple, n’est rien sans le système de lecture qui, à son tour,
ne répond que partiellement à notre définition.
Un feature phone est un terminal passif : l’absence de b et c font que la fonction d est limitée au
transport de la voix ou de textes à un opérateur unique.
Un système de navigation GPS, dans un véhicule, se contente d’écouter les signaux GPS, sans
aucune interaction réseau contrairement à l’AGPS des smartphones.
Tandis, qu’un automate programmable, dans un atelier, possède presque toutes nos
caractéristiques, malgré un intérêt marketing limité.
En revanche, certains panneaux d’affichage comportent maintenant une caméra permettant non
seulement de détecter la présence d’un prospect mais aussi son genre et autres caractéristiques,
ainsi que la possession d’un smartphone. Ce sont des terminaux exploitables.
Suit enfin tout ce qui ressemble à un ordinateur personnel : pour l’instant fixe, portable, console
de jeux, tablette, smartphone, smartwatch ou Google Glasses.
Une contextualisation efficace nécessite de déterminer le genre de terminal, ses capacités essentielles
comme la dimension d’affichage, son identité sur le réseau et, si possible, un identifiant unique et
pérenne.

4 Réseau, localisation, environnement


Éliminons les terminaux passifs et les objets non raccordés à un réseau. Nous traiterons de l’utilisateur
plus loin : il nous reste donc à déterminer les informations que le terminal peut générer de lui-même et
celles qui le seront par la plateforme de services, au sens de (Chihani et al., 2011). Le terminal peut
communiquer via le réseau au vendeur du service ce qu’il a collecté, sans nécessairement qu’il y ait
accord explicite de l’utilisateur, comme il peut récupérer les informations de la plateforme pour adapter
son mode de fonctionnement.
Le point d’accès au réseau (AP – Access Point) va nécessairement attribuer à tout terminal raccordé un
identifiant unique au monde : ceci est valable pour les réseaux fixes, la téléphonie cellulaire et les
communications de données en situation de mobilité. Cet identifiant est habituellement stable pour la
durée pendant laquelle le lien entre le réseau et le terminal n’est pas rompu. Il peut parfois changer en
cours de communication, comme l’adresse IP lorsque le terminal passe d’un AP à l’autre sur un réseau
Wifi par exemple ; ou, à l’opposé, être persistent sur une longue durée, comme le « numéro de
téléphone ». Cet identifiant et les coordonnées de l’AP sont connus à tout moment de l’opérateur du
réseau ainsi que du terminal qui peut les mettre à disposition de ses applications. Sous réserve de
quelques restrictions légales, elles le sont donc aussi pour le vendeur du service qui va pouvoir ainsi
suivre les échanges avec le terminal sur une certaine durée.
Connaitre l’identité de l’AP implique aussi une forme de géolocalisation : les emplacements physiques
des AP en téléphonie mobile sont une donnée publique, comme le sont ceux des équipements d’opérateurs
pour les raccordements fixes en ADSL. Nous verrons cependant dans la partie technique que la précision
ainsi obtenue n’est pas toujours suffisante pour des applications à forte valeur ajoutée. Passons
maintenant à ce que sait le terminal et qu’il peut communiquer.
Tout terminal mobile possède par construction au moins un identifiant unique : même si celui-ci n’est
pas nécessairement visible de l’opérateur de réseau, il peut l’être par une application et donc être
transmis, sous réserve ici des autorisations de l’application. C’est moins vrai pour les ordinateurs fixes
ou portables même si, dans le premier cas, la localisation est bien souvent suffisante. Le terminal, fixe ou
mobile, peut aussi déclarer sa marque, son type, la définition de son écran, les capacités de son
navigateur, l’existence ou non de périphériques tels qu’équipement sonore, microphone, caméra… tous
éléments exploitables en vue de personnaliser un service. Il peut surtout évaluer en temps réel le débit
effectif des communications, montantes de lui vers le service ou descendantes, et indiquer au service de
modifier le contenu diffusé, par exemple la définition d’une vidéo, pour tenir compte de ces contraintes.
Le terminal peut aussi connaître, via son réseau local fixe ou Wifi, ou via un réseau personnel comme
Bluetooth (Talasila, Curtmola, & Borcea, 2014), la proximité d’autres terminaux et, potentiellement,
d’autres utilisateurs. Étant souvent doté d’une caméra il peut procéder, seul ou assisté d’un service en
mode cloud, à la reconnaissance d’objets, de lieux, de personnes ; moins efficace, la captation sonore
n’en reste pas moins indiscrète. La mode du quantified self gagnant du terrain, le terminal peut se voir
adjoindre quelques capteurs, intégrés ou raccordés par un réseau personnel, mesurant les paramètres de
la physiologie de l’individu et de son activité, pour les lui restituer dans un premier temps, peut-être aussi
pour d’autres usages.
Enfin le terminal mobile sait aussi se situer dans l’espace selon 6 degrés de libertés, plus leurs
variations dans le temps : latitude, longitude et altitude d’abord, qui définissent sa géolocalisation
(geolocation) et ont permis la création de métiers du « où », le « business of where » de (Rockhold,
2001) : Location-based advertising, location-based marketing, location-based services. En ajoutant la
dynamique, c’est-à-dire vitesse, direction et changements d’allure, de nouvelles classes d’applications
deviennent possibles. Enfin, les trois paramètres d’orientation du terminal autour de son centre de gravité
sont plus facilement utilisés comme un élément de l’interface homme-machine : l’application interprète
les orientations et leurs changements comme autant d’intentions de l’utilisateur.
Il nous reste à évoquer deux derniers éléments de contexte du terminal ; la liste des applications
installées, ou l’ayant été, est en elle-même à la fois un moyen de compléter l’identification du terminal
mais aussi de tracer un début de profil générique de l’utilisateur. Et, par extension, l’historique des
déplacements du terminal et de son utilisation peut être employé de nombreuses manières, ce qu’a
démontré l’expérimentation Lausanne Data Collection Campaign.

REMARQ UE
Le LDCC (Lausanne Data Collection Campaign) est une campagne de collecte d’informations de géolocalisation de mobiles à grande
échelle, ayant eu lieu de 2009 à 2011 dans la ville suisse de Lausanne. Organisée par le Nokia Research Center en collaboration avec
l’Université de Lausanne et l’École Polytechnique Fédérale de la même ville, cette expérimentation a consisté à doter 200 volontaires
plutôt jeunes de smartphones avancés pour l’époque, des Nokia N95. Ces terminaux étaient équipés d’un logiciel de traçage de la
localisation de l’utilisateur et de son comportement en termes d’appels et d’envoi ou réception de SMS. Les données, étaient transférées à
intervalles réguliers par Wifi, anonymées puis mises à disposition de chercheurs, mandatés sur un sujet précis ou libre de leurs
investigations.[8]

5 Profil de l’utilisateur
Les premières tentatives d’exploitation des logs des sites Web marchands se limitaient bien souvent à
quelques notions d’un intérêt plutôt modeste, comme les hits ou pages vues, les visites ou visites
uniques… L’objectif est maintenant de déterminer l’identité précise de l’utilisateur qui interagit avec le
service, de façon à pouvoir déduire du croisement du contexte de l’interaction en cours et de la
connaissance de son historique ses goûts habituels, son activité présente, voire son état d’esprit et ce
qu’il est susceptible d’apprécier dans l’instant, voire ce qu’il fera dans les minutes qui suivent
(Do & Gatica-Perez, 2014). Tous les vendeurs n’ont pas les compétences nécessaires à l’obtention d’un
tel degré de précision mais les services de Web Analytics ne manquent pas.
Il convient toutefois de distinguer deux cas : la connexion en mode Web et le travail avec des
applications sur mobiles ou Apps. En mode Web, par défaut, le degré d’anonymat est élevé car le site ne
reçoit qu’une identification de session ; même si cette identification peut être sauvegardée d’une session à
l’autre sur un même site, seul le parcours habituel peut être reconstitué. En invitant l’utilisateur à créer un
compte, même limité à un simple pseudonyme, le vendeur gagne immédiatement la capacité de relier des
sessions en provenance de différents navigateurs ou de différents terminaux[9]. Si, comme c’est fréquent,
l’utilisateur tente de réutiliser son pseudonyme pour différents services, l’information qu’il est possible
de collecter s’enrichit.
Cela devient réellement efficace lorsque le vendeur peut associer la session avec une identité ayant un
vrai caractère personnel : il peut exiger, moyennant quelques services supplémentaires, la divulgation de
renseignements comme le lieu de résidence ou, très intrusif, la date de naissance. Mais ceci reste
déclaratif (self-asserted) et donc potentiellement biaisé : nous en restons encore à une forme de pseudo-
identité ou pseudonymity (Hansen et al., 2004). Si ces déclarations sont validées socialement, par les
« amis » de l’utilisateur sur un réseau social, elles deviennent plus crédibles ; c’est la justification du
social login ou social sign-in, le « Connectez-vous avec votre compte Facebook ». Étape ultime, si le
compte est associé à une adresse de livraison et des coordonnées bancaires, comme c’est le cas pour
Amazon ou PayPal, l’identité de l’utilisateur est vérifiée, il est « unique dans la foule » pour reprendre le
titre de (de Montjoye, Hidalgo, Verleysen, & Blondel, 2013). Il devient alors impossible pour
l’utilisateur de réfuter ses actions et le coût d’un retour à l’anonymat devient considérable.
Si le terminal lui-même est facilement identifiable et qu’il est raisonnable de supposer qu’il n’a qu’un
seul utilisateur régulier, la propagation d’une identification forte obtenue légitimement sur un site à
d’autres vendeurs qui ne disposent que de l’identifiant du terminal n’est qu’une simple question
contractuelle ; sauf dans l’Union Européenne, où ce genre de marché de données est très contraint. La
quasi-totalité des mobiles entre dans cette catégorie, tous ceux qui dépendent en réalité d’un Store, soient
les trois grandes familles du marché ; lequel Store réclame des données personnelles assez précises,
restant néanmoins déclaratives, et les valide socialement par un couplage avec des services de
communication ou de partage « offerts ».
Les smartphones ou autres objets portables sur soi (wearables) présentent même un avantage sur les
tablettes, pour le vendeur du moins, car ils sont presque toujours très proches physiquement de
l’utilisateur (de Montjoye et al., 2013), lequel est presque toujours unique. Et le processus
d’identification n’est pas limité aux échanges de type Web, car la plupart des Apps s’autorisent l’accès à
certaines informations contenues dans le terminal, ainsi qu’au réseau pour les échanger avec leur
concepteur, via d’autres protocoles que ceux du Web. Nous en reparlerons.
La construction d’un profil exploitable n’est plus alors qu’un processus en quatre étapes :
identification de l’utilisateur ;
captation d’informations de navigation ou d’usage d’applications, de localisation ou d’autres
éléments de contexte ;
stockage avec l’identifiant comme clé et enrichissement par échanges, si l’identifiant est partagé ;
modélisation du comportement. On notera à propos de cette dernière qu’elle fait le plus souvent
appel, comme dans (Do & Gatica-Perez, 2014), à deux niveaux distincts, calculés séparément et qui
sont associés ensuite pour en accroître le pouvoir prédictif :
Des modèles génériques d’une part, qui ne sont pas liés à l’utilisateur autrement que par un petit
nombre de caractéristiques qu’il partage avec un grand nombre de congénères, comme des données
sociodémographiques, de marque de terminal. Le premier avantage de ces modèles est qu’ils
permettent des prévisions dans une situation de « démarrage à froid » (cold start) (Schein, Popescul,
Ungar, & Pennock, 2002), c’est-à-dire quand l’utilisateur vient d’être identifié et que l’on ne dispose
que d’un historique réduit. Par ailleurs, ces modèles sont fiables et stables car validés sur des
volumes importants de données.
Des modèles propres à l’utilisateur et basés sur son comportement (Jai, Burns, & King, 2013). Ils
peuvent être plus précis à terme mais aussi plus volatils car dépendant des aléas de la vie courante.

6 L’écosystème du vendeur
Remarquons avant de passer aux exemples que la relation commerciale médiatisée par la plateforme de
services, l’infrastructure physique et le terminal est autrement plus complexe que le face-à-face entre un
vendeur et son client. Nous avons donné un cadre décrivant le rôle de chaque objet et nous préciserons
quelques-unes des technologies plus loin. Voyons d’abord les acteurs : peuvent être impliqués
directement dans cette relation les éditeurs de logiciels, du système d’exploitation, des applications, du
navigateur Web, le constructeur du terminal, les opérateurs de réseau, ceux de réseaux de contenu, le
vendeur du service, les régies publicitaires, les fournisseurs d’analyses et les courtiers en information.
L’éditeur du système d’exploitation (OS) du terminal a accès aux caractéristiques du terminal et à toutes
les informations stockées localement. Ce n’est que depuis une dizaine d’années que les trois grands que
sont Apple, Google et Microsoft ont mis en œuvre une stratégie tirant partie de cet avantage. Apple,
fidèle à son choix initial d’informatique propriétaire, a été pionnier, suivi par Google qui tentait de
protéger sa principale source de revenus. Microsoft, comme souvent en retard, a attendu la sortie de
Windows 8 pour lier étroitement le fonctionnement de son OS à l’existence d’un compte de services en
ligne, Graal de la personnalisation.
Que les trois éditeurs tentent de pousser leur propre navigateur d’abord sur leur OS puis, à défaut, sur
ceux des concurrents relève de la même logique : identifier l’utilisateur. Même la fondation Mozilla
s’essaie à cette stratégie avec son offre Sync et, si la galaxie Linux semble faire exception, elle ne
représente guère que moins de 1,5 % du nombre des clients du Web[10], Google Android et ses extensions
propriétaires exclus. En l’absence de connexion explicite l’utilisateur n’est certes pas identifiable
facilement mais la force du couplage entre le navigateur et l’OS du même éditeur est que la connexion aux
services de ce dernier devient implicite et permanente[11].
Les concepteurs d’extensions au navigateur ou d’Apps et les vendeurs de services en ligne ne
bénéficient pas des mêmes avantages : la protection entre sessions des navigateurs pour le mode Web, la
gestion des permissions des applications pour les terminaux mobiles et le passage obligé que constituent
les Stores pour ces dernières leur laissent moins de latitude pour accéder à des informations privilégiées.
Les opérateurs de réseaux et les services associés sont fréquemment soumis aux règles de secret de la
correspondance et, qu’ils le soient ou non, ont appris à différencier leur activité de contenant de la
gestion des contenus. La stratégie de convergence de Vivendi au tournant des années 2000 n’a pas été
couronnée de succès ; si Google veut devenir opérateur Internet avec son projet Loon[12], ce n’est que sur
un marché de niche. Opérateurs de téléphonie, FAI, opérateurs d’infrastructure, accélérateurs du Web
comme Akamai (CDN – Content Delivery Networks), hébergeurs et autres fournisseurs de cloud
computing peuvent fournir des informations de géolocalisation mais n’entrent pas plus avant dans la
fourniture de services dépendant du contexte. Nous verrons quelques exceptions à ce principe plus tard.
Enfin, le vendeur du service ne travaille pas seul mais au cœur d’un réseau de partenaires. Certains lui
fournissent les moyens de construire son offre et de la personnaliser : vendeurs de contenus, services de
recommandation et, plus généralement, firmes spécialisées en data mining qui vendent des informations
de qualification de l’utilisateur (Personal Information Brokers[13]). Les sociétés de Web Analytics
comme Xiti vont fournir des outils de mesure de performance du site ou de l’application, et d’autres
comme le français Criteo des outils de reciblage (retargeting) pour optimiser les taux de conversion.
L’offre sera enfin monétisée soit par de la publicité ciblée placée sur le site ou dans l’application par une
régie (adverstising network), la plus connue étant Google Adsense[14], soit en revendant des informations
nominatives dans les pays où une telle pratique est autorisée, c’est-à-dire à peu près le monde entier sauf
l’Union Européenne.

Section 2 USAGES DU CONTEXTE ÉTENDU

Voyons maintenant quelques exemples d’applications en insistant plus particulièrement sur celles à
destination des terminaux mobiles. Entre 2010 et 2014 le taux d’équipement en terminaux mobiles
intelligents a plus que doublé en Europe, rattrapant progressivement celui observé aux USA (GSMA
Intelligence & Boston Consulting Group, 2013), avec un volume de données échangées moitié moindre.
Les taux de croissance de 5 % l’an pour les données contre moins de 2 % pour la voix montrent
cependant que le smartphone et ses dérivés mobiles sont d’abord des terminaux informatiques, et parfois
aussi des téléphones. Ceci explique l’insistance placée sur les Apps dans la suite.

1 Historique et classes d’applications


Un des premiers manuels portant spécifiquement le titre Location-Based Services (LBS) remonte à près
de 10 ans (Schiller & Voisard, 2004), mais ce sont (Matthew, Sarker, & Varshney, 2004) qui ont élargi ce
concept aux autres éléments décrits dans la première section et popularisé le terme de Context-Aware
Services. Bien avant cela, des expérimentations du Xerox PARC (Schilit et al., 1994) avaient employé
des terminaux mobiles dont les caractéristiques feraient franchement sourire aujourd’hui mais qui
préfiguraient ce qui se généralise : elles adaptaient la réponse des applications aux questions « Où êtes-
vous, avec qui êtes-vous, de quelles ressources disposez-vous et comment ceci évolue-t-il[15] » ? Il ne
manque que le « Qui êtes-vous et qu’avez-vous fait jusque-là » pour que ce papier, qui cite déjà la
possibilité d’utiliser le GPS et les Context-Aware Systems, soit totalement d’actualité.
Dongsong et al. (2009) proposent une classification des applications mobiles en distinguant celles dont
le service rendu repose d’abord sur le contexte, comme le sont des applications de navigation, et celles
qui se contentent de personnaliser ce service en fonction du lieu ou de la proximité d’amis. Étendons un
peu cette taxonomie pour y inclure certains services accessibles d’un poste fixe et quelques catégories
non envisagées par les auteurs de cette étude. Nous aurons ainsi :
Des applications de fourniture de services à caractère géographique.
Les assistants personnels, catégorie en forte croissance, dont la dépendance à la géolocalisation est
forte.
Des mashups enrichissant les cartes d’informations thématiques, comme la présence de points
d’intérêt (PoI – Point of Interest). Nous pouvons y associer certains des outils de réalité augmentée.
Les systèmes géo-sociaux qui sont une variante du cas précédent.
Des services où la géolocalisation ne vient qu’en appui d’une offre existante mais l’enrichit au point
de constituer une rupture concurrentielle.
Des services dont le contenu proposé ou les conditions dépendent des éléments de contexte, à
commencer par des systèmes de tarification différentielle.
Les traditionnels outils de ciblage publicitaire, basés sur les techniques de recommandation.
Et une dernière catégorie d’applications dont le modèle d’affaire semble reposer intégralement sur
la collecte d’informations personnelles.
Oublions provisoirement ces dernières, dont l’analyse requiert des détails sur la gestion des
permissions des applications, reportés en section suivante. Voyons en revanche le rôle pivot des grandes
plateformes de services.

2 Plateformes d’intégration de services


C’est une ironie de l’histoire que, 45 ans après l’unbundling[16], le couplage fort entre plusieurs
catégories de TI soit redevenu la stratégie gagnante de ce domaine ; même le hardware, longtemps
considéré comme une simple commodité, est non seulement toujours présent chez Apple, qui ne l’a
presque jamais renié, mais fait son apparition chez de purs commerçants comme Amazon avec les Kindle,
des régies publicitaires comme Google avec les Nexus, ou d’éditeurs de logiciels comme Microsoft avec
ses Surface. Seul Facebook semble hésiter.
Le démantèlement des législations anti-trust avec la révolution conservatrice des années 1980, la
faiblesse persistance des consommateurs, la compréhension tardive des implications des TI par la justice
et des progrès techniques n’ayant pas encore démenti la loi de Moore font que le bundling, ou groupage,
redevient essentiel.

DÉFINITION
La loi de Moore. Gordon Moore, fondateur et alors CEO de la société Intel, avait prédit en 1969 que le nombre de transistors fondus sur
un même circuit intégré (ou puce) doublerait tous les 18 mois. Même si on annonce régulièrement que cette loi atteindra bientôt ses
limites, elle n’a fait l’objet que de déviations minimes depuis. On considère à tort que Moore parlait de puissance des machines : nombre
de transistors par puce et puissance de calcul sont certes liés mais de façon complexe.
Le même Moore avait d’ailleurs ajouté, et c’est moins connu, que le prix des usines nécessaires augmenterait en même proportion. Ceci
explique que, quand bien même le nombre de fondeurs est très faible et qu’Intel domine largement ce marché, le moindre retournement de
conjoncture suffit à placer l’essentiel de la profession dans le rouge.

La force de ce regroupement tient en particulier en ce qu’il permet de construire un accès privilégié aux
données à caractère personnel décrivant l’utilisateur des équipements et services. Tentons une analyse
forcément schématisée des pratiques des quelques grands du Web :
Laissons de côté la mise à disposition des entreprises de services de type cloud computing, très
développées chez Google, Amazon et Microsoft, moins chez les autres acteurs. Cette offre B to B,
très rentable, est plus un sous-produit des infrastructures mises en place pour construire les services
B to C, ainsi que des technologies développées pour ce faire.
La vente de terminaux n’est que rarement rentable, sauf chez Apple que l’iPod a sauvé au début des
années 2000. Il semble que Microsoft perde gros avec la Surface, ce qui ne l’a pas empêché de
racheter la division mobiles de Nokia, elle-même déficitaire.
Le terminal est là pour pousser l’OS, iOS chez Apple, Windows Phone, Android et bien peu
d’alternatives. Lequel OS, associé non seulement au terminal mais, souvent, à un utilisateur unique,
constitue la porte d’entrée vers la qualification de ce dernier. Facebook est encore absent de ce
segment, Amazon tente de l’investir avec son offre Fire, qui s’est récemment étendue aux
smartphones. Tizen de Samsung, Firefox OS de la fondation Mozilla sont l’illustration, même
modeste, du rôle pivot de l’OS pour d’autres acteurs.
Avec l’OS viennent le navigateur Internet, le kit de développement, visible seulement des
développeurs d’applications, et le Store, point de passage obligé pour installer leurs créations. Ce
dernier a trois fonctions : assurer une sécurité relative pour l’utilisateur, via une forme de filtrage
des applications malintentionnées, fournir à l’éditeur de l’OS des revenus réguliers, et faciliter la
création d’applications pour attirer de nouveaux utilisateurs. Microsoft est toujours à la peine sur ce
point. Enfin, et est-ce accessoire, la liste des applications installées est un élément de profilage non
négligeable, validé qui plus est par les paiements effectués.
Les autres constituants de ces plateformes peuvent être considérés aussi bien comme des produits
d’appel destinés à capturer puis fidéliser de nouveaux utilisateurs que comme des outils de profilage
encore plus puissants. Citons rapidement :
Les moteurs de recherche, Google dominant largement Microsoft Bing, et leurs compléments
comme les outils de suggestion (Google Suggest) et autres barres d’outils.
La cartographie : les déboires d’Apple sont connus, tandis que la stratégie de Microsoft de
mise à disposition des Here Maps de Nokia, en mode déconnecté et en parallèle avec Bing
Maps est peu compréhensible.
Les outils bureautiques en ligne, qui semblent plus être une offre dirigée vers les entreprises. À
preuve, ni Apple ni Amazon ne s’y risquent.
La messagerie : les vidéos Gmail Man[17] parlent d’elles-mêmes.
Les réseaux sociaux : Facebook est ici incontournable.
Cette dernière fonction illustre bien le deuxième rôle de ces services. Le réseau social Google+ reste
en effet confidentiel mais, alors que la firme avait interrompu sans hésiter des services pourtant
prometteurs comme Wave, Google+ semble destiné à durer en tant que pivot de la qualification de
l’utilisateur, par unification des identifiants : la dernière modification des conditions de confidentialité
publiée par Google en est la preuve comme l’est la barre de menus apparaissant en haut des pages
Google.
Nous allions oublier les assistants personnels : Apple Siri, Google Now et maintenant Microsoft
Cortana sont la forme ultime de convergence des services, et dont de convergence du profilage. Pris
indépendamment, les fonctionnalités semblent alléchantes : après tout, l’utilisateur est peut-être souvent
assez distrait ou préoccupé par son travail pour oublier de passer chercher son fils à l’école en rentrant à
son domicile. Mais, dans un article datant de plus d’une décennie, (Dobson & Fisher, 2003) forgeaient
déjà le terme de géo-esclavage (geoslavery) : tout en reconnaissant largement les bénéfices de la
géolocalisation, ils dénonçaient la capacité d’un maître à exercer un contrôle sur les déplacements de
l’individu comme des « risques sociaux sans précédent dans l’histoire humaine ». La technique ayant
évolué depuis, Michael & Clarke (2013) préfèrent le terme d’« überveillance », comparant même
l’éthique des affaires (business ethics) à un oxymore.

3 Applications contextualisées
Deux autres tendances lourdes ont marqué ces dernières années : l’effacement progressif des standards
« ouverts » et la vassalisation rapide des innovateurs. La première a été dénoncée par l’inventeur du
Web, Sir Tim Berners-Lee dans plusieurs interviews[18] : l’apparition des Apps fait progressivement
reculer le Web ordinaire, basé sur le protocole HTTP et le codage HTML. La recherche d’ergonomie
conduirait ainsi à la « mort du Web », pour reprendre les termes de (C. Anderson & Wolff, 2010), donc la
fin de son caractère universel au profit d’une ghettoïsation autour des grandes plateformes. Ce n’est
d’ailleurs pas limité au Web lui-même, à en juger par l’effacement progressif du SMS, standard
international d’échange de textes courts, au profit d’applications de clavardage (chat), comme WhatsApp,
dont la valeur ajoutée reste à démontrer mais qui se prêtent d’avantage au profilage.
L’autre est plus naturelle dans une économie ouverte : les grands acteurs laissent volontiers les petits
entrepreneurs inventer des modèles d’affaires, tout en contrôlant leur développement. Ils fournissent
quand même l’infrastructure, surtout dans le cas d’applications composites comme les mashups, assurent
la commercialisation via les stores, en mesurent le succès avec leurs services de Web analytics. Lorsque
le modèle s’avère pertinent, les grands acteurs ont le choix entre un rachat ou le développement d’un
service concurrent.

EXEMPLE
Timely est une application Android développée par des étudiants de l’École polytechnique fédérale de Zurich et commercialisée à
l’automne 2013. Il ne s’agit que d’une simple horloge, faisant aussi office de réveille-matin et de minuteur, dotée il est vrai de fonds
d’écran plutôt esthétiques. Quelques mois plus tard, en janvier 2014, l’application était rachetée par Google pour une somme non publiée,
rendue gratuite tout en voyant ses capacités de traçage légèrement augmentées.

La liste des services utilisant la géolocalisation ou d’autres fonctions contextuelle est donc très volatile
et nous n’en donnerons que quelques illustrations, en nous concentrant sur les Apps au détriment du Web.
Commençons par celles offrant nativement des services de localisation dans l’espace, souvent couplée
avec de la navigation entre points. En France, Mappy ou Michelin tentent de résister à la pression des
plateformes comme Google Maps, soit en proposant un mode non connecté, donc indépendant des
imperfections du réseau mobile, soit par une précision accrue ou des compléments d’information. Depuis
le rachat de Nokia par Microsoft, qui fournit maintenant les Here Maps, la première stratégie est devenue
délicate, tandis que Google StreetView peut gêner la seconde.
Le guidage peut se comprendre aussi en intérieur ou de façon indépendante de la localisation GPS :
(Lorenzi, Vaidya, Chun, Shafiq, & Atluri, 2014) décrivent ainsi un système de navigation dans les parcs
nationaux des USA utilisant des QR Codes (voir annexe) comme marqueurs, et l’associant à des
techniques de gamification pour redonner le goût aux citoyens de visiter ces parcs. De façon plus
générale, le GPS est inopérant en intérieur et nous verrons plus loin comment pallier cette défaillance.
Mais les applications de la localisation en intérieur sont nombreuses, comme le guidage dans les rayons
d’un hypermarché. (Hosbond & Skov, 2007) décrivent en détail le fonctionnement d’un chariot sensible
au contexte (context-aware shopping trolley), à une époque où les smartphones étaient rares : la
transcription en 2014 est immédiate.
Les applications de réalité augmentée superposent des informations thématiques à une image prise par
le mobile, pour donner à l’utilisateur des éléments d’interprétation de ce qu’il voit. Des musées
proposent ce genre de service, comme le Château de Versailles pour faciliter la compréhension de
l’organisation de ses célèbres jardins, là encore en y ajoutant des jeux[19]. La réalité augmentée n’est pas
toujours liée à la notion de géographie : les techniques de reconnaissance visuelle d’objets permettent de
l’employer aussi pour faciliter la tâche de techniciens de maintenance, et le couplage de l’image avec des
capteurs physiologiques peut donner lieu à la création d’applications de contrôle de sa propre santé (J.
Anderson & Rainie, 2014).
Plusieurs stratégies d’affaires utilisent les services géolocalisés comme un avantage concurrentiel ;
c’était déjà le cas du pionnier Craiglist lors de la décennie précédente. Cette société, qui éditait des
annonces classées sur le Web depuis 1995, fût l’une des premières à comprendre l’intérêt d’un mashup :
en superposant aux cartes de Google Maps et en superposant aux cartes des étiquettes renvoyant sur ses
propres listes, la compagnie a connu un succès rapide, bouleversant l’économie des journaux locaux
comme celle des agents immobiliers. Plus récemment, la compagnie de location de véhicules de tourisme
avec chauffeur Uber a rendu son modèle attractif en offrant ce que les taxis traditionnels ne proposaient
pas, des applications de géolocalisation mobile pour faciliter les transactions[20], générant indirectement
des troubles sociaux dans plusieurs pays. AirBnB, qui propose à des particuliers de louer une partie de
leur logement à des touristes de passage, utilise aussi largement la géolocalisation : comme pour Uber,
cette dernière n’est pas à la base du modèle d’affaire mais elle y contribue pour une part importante.
Il est possible de combiner les avantages de la géolocalisation et des réseaux sociaux, pour construire
des applications géosociales, comme le fameux FourSquare au tournant de la décennie. L’engouement
soudain pour cette application a suscité des suiveurs, comme Gowalla, absorbé très vite par Facebook
pour construire son offre Places.

EXEMPLE
L’application FourSquare avait introduit le concept de check-in, combinant géolocalisation et gamification : se déclarer comme présent
dans un lieu permettait d’accumuler des points, de recevoir des badges et, pour finir, de devenir mayor de ce lieu.
Une telle mode ne pouvait que soulever des détournements : PleaseRobMe proposait, de façon plutôt ironique, à des malandrins de
consulter la liste des domiciles dont le propriétaire venait d’effectuer un check-in à une certaine distance. Comme Twitter conserve ce
concept, PleaseRobMe a changé de cible. C’est la force des API que de combiner des données en provenance de plusieurs sources, dont
des grands fournisseurs comme Google Maps, pour construire un service innovant, fût-il du plus mauvais goût. Ainsi GirlsAround.me, cité
par (Keith, Thompson, Hale, Lowry, & Greer, 2013), mashup basé sur FourSquare et Facebook et dont l’intitulé seul suffit à déterminer
l’objectif ; cette application a été retirée de l’Apple Store dès 2012[21].

Ce modèle de partage de localisation pour le plaisir a vite perdu son intérêt : dès 2011, soit peu de
temps après l’acquisition de Gowalla, Facebook a replacé la géolocalisation comme un des éléments du
contexte global de l’utilisateur[22] au lieu d’un simple jeu. Google a suivi plus tard en renommant son
Places en My Business et, en 2014, FourSquare subsiste mais a lui aussi évolué, cette fois en un système
de recommandation collaborative. Parmi les services plus sérieux apparus dans l’intervalle, il faut citer
la réplique à l’interdiction de l’usage des détecteurs des radars de contrôle de vitesse dans nombre de
pays : le service Coyote, s’appuyant sur un terminal dédié, est maintenant concurrencé par l’application
mobile Waze. Cette dernière, n’utilisant que le smartphone et ses capteurs est certes plus dépendante de
la couverture 3G et, de façon amusante, réintroduit la gamification des débuts des applications
géosociales.

4 Personnalisation, recommandation, différentiation


Selon (Mobasher, Cooley, & Srivastava, 2000), la personnalisation des pages Web est très proche des
techniques de recommandation. Nous avons déjà abordé cette dernière sur un cas dans un autre
chapitre de cet ouvrage et un développement sur les arcanes du Web Usage Mining serait hors de propos.
Notons juste que ces techniques continuent à se développer : le calcul de distances entre séquences de
navigation décrites dans (Belk, Papatheocharous, Germanakos, & Samaras, 2013) en est un exemple. La
présentation de bannières personnalisées est elle-même similaire à la recommandation de produits
apparentés sur un site comme Amazon. Il subsiste quelques différences :
Le profil de l’utilisateur est plus riche car il comprend de nombreux éléments ne provenant pas du
site dont la page est affichée, ou de l’éditeur de l’App qui affiche une bannière.
Le choix de l’objet personnalisé à afficher n’est pas nécessairement le fait des équipes du site mais
bien plus souvent celui d’une régie spécialisée dans le ciblage comportemental (behavioral
targeting). La société française Criteo est un exemple de tels prestataires.
L’affichage peut être de nature variable, comme un placard publicitaire dans la vitrine d’un magasin
physique qui réagit à la présence d’un smartphone à proximité immédiate. Une autre société
française, Trencube, développe ce genre de solution, et a connu récemment une certaine notoriété
pour une utilisation inattendue de celle-ci[23].
La personnalisation peut dépasser celle du simple contenu et en arriver à une tarification
différentielle, que certains renomment discriminatoire (Such, Garcia-Fornes, & Botti, 2013). De telles
pratiques ne sont pas spécifiques des applications mobiles et de la géolocalisation mais plutôt du
profilage de l’utilisateur. (Spiekerman, 2006) rappelle l’affaire Amazon en 2000, époque à laquelle il a
été dévoilé que le vendeur pratiquait de façon masquée des tarifs différenciés sur des DVD, sans que les
critères de choix ne soient connus. Pour l’auteure, le sentiment résultant de l’injustice et la perte de
confiance dans le vendeur avaient obligé Amazon à prétexter un « simple test » et à rembourser le trop-
perçu, ce qui avait dissuadé les autres acteurs de procéder de même.
Pour un temps seulement : fin 2012, le Wall Street Journal épinglait quelques sites, dont le marchand
de fournitures de bureau Staples.com, pour tarification basée sur la géolocalisation (Valentino-Devries,
Singer-Wine, & Soltani, 2012). Selon leurs observations, le fait d’être localisé par les algorithmes du site
à moins de 20 miles d’un magasin physique d’OfficeMax ou d’Office Depot vous octroyait d’emblée un
prix réduit de 10 % par rapport à celui affiché chez vos collègues plus éloignés. L’étude de (Mikians,
Gyarmati, Erramilli, & Laoutaris, 2012) est mieux fondée scientifiquement. Un montage expérimental
astucieux a permis de collecter près de 80 000 prix de 600 produits consultés par des « personnalités »
diverses, un robot en fait. Des remises arbitraires de 50 % ne sont pas rares, comme des prix multipliés
par 4 pour des voyages.
Une autre forme de tarification différentielle est connue sous le nom de Pay as you drive[24], qui fait
appel directement à la géolocalisation : il s’agit de moduler le tarif d’une assurance-automobile plus
finement que ne le permettent les techniques usuelles de segmentation de la clientèle. Au lieu de supposer
qu’un jeune conducteur est nécessairement à risque, il devient facile avec des capteurs comme ceux
présents dans les smartphones de calculer le kilométrage parcouru, la vitesse, les lieux visités et le style
de conduite, plus ou moins heurté, ce qui conduit au Pay how you drive. Le système peut être basé sur le
smartphone ou, plus souvent, sur un boitier dédié. Plusieurs compagnies d’assurance dans le monde
proposent ce genre de tarifs, avec un mode de collecte d’informations plus ou moins intrusif : souvent,
seul le kilométrage et les lieux visités sont pris en compte. La CNIL avait interdit cette pratique en France
en 2005 avant de reculer mais les rares tentatives en Europe semblent mal acceptées par les assurés.
Les services et applications qui semblent n’exister que pour collecter de l’information ne sont pas
réellement des usages de l’information contextuelle au bénéfice de l’utilisateur. Nous reportons donc leur
étude dans la section suivante, au titre des permissions des applications.

Section 3 OUTILS DE SUIVI DE L’INTERNAUTE

Rappelons les objectifs que nous poursuivons pour maximiser l’efficacité de la personnalisation des
services offerts :
identifier le terminal, au moins de façon transitoire et, de préférence, de façon pérenne ;
déterminer sa position, sa vitesse, son orientation ;
savoir quels sont les objets actifs, dont les autres terminaux, situés à proximité ;
pouvoir suivre un internaute dans le temps, sur différents sites et depuis différents terminaux, même
s’il n’est identifié que par un pseudo ou un user ID affecté par un service de traçage comme Google
Analytics ;
connaître l’identité de cet internaute et pouvoir associer des données provenant de sources
multiples.
Nous ne verrons ici que quelques-unes des techniques utilisables, toutes légales et fréquemment
employées ; cette liste s’allonge régulièrement. Un cas très détaillé montrant la variété de techniques et
leur combinaison a été publié récemment[25] : (Center for Media Justice, 2013) décrit dans sa première
partie l’emploi généralisé par Wal-Mart, premier distributeur mondial, des outils de suivi du client en
ligne ou dans ses magasins. Le ton est ensuite un peu polémique mais toujours très bien documenté.

1 Identification par IP, logs


L’adresse IP est nécessairement visible de tous les serveurs interrogés pour que le renvoi des réponses
soit possible. Ceci concerne tous les terminaux, fixes ou mobiles dès lors qu’ils sont raccordés à un
réseau de données. Une visite sur le site de la Commission nationale informatique et libertés et le choix
de la fonction « Vos traces » donne, par exemple, les informations suivantes :
Source : Rubrique « vos traces », site www.cnil.fr
Figure 9.1 « Vos traces », site CNIL

Cette adresse est attribuée par le FAI ou l’opérateur du réseau, souvent de façon dynamique par
DHCP : si cette adresse change au moins en partie d’une session à l’autre, comme c’est le cas général
pour les pour les terminaux mobiles en 3G ou 4G, les capacités d’identification par ce moyen sont
réduites. Mais, pour les box ADSL, la tendance est à l’adressage fixe chez la plupart des FAI. En
analysant les logs des serveurs Web, il devient alors possible de suivre les actions successives en
provenance d’une même adresse IP et donc, peut-être, du même terminal.
De proche en proche, on peut espérer mieux cerner l’utilisateur. En apparence seulement : Proxad,
c’est-à-dire Free.fr, est assez aimable pour répondre à une requête DNS inverse en renvoyant un nom de
domaine partiellement masqué ici. La suite de lettre fbx suggère qu’il s’agit d’une freebox, donc un
routeur qui joue aussi le rôle de NAT, translation d’adresse. Il est possible d’identifier l’adresse
publique de la box et donc le domicile, mais ce dernier peut abriter plusieurs terminaux, dont certains de
passage. Ce système de NAT est employé dans la plupart des réseaux entreprises et l’usage de proxy par
certains utilisateurs méfiants produit le même résultat.
Les nouvelles fonctions de HTML5, dont le WebRTC qui commence à être utilisé par la vidéo,
permettent de reconstituer les adresses masquées par le NAT. Mais rien n’est fiable, et les tentatives
d’identification du poste et du navigateur par la simple signature de ce dernier (Eckersley, 2010) relèvent
plus du domaine de la recherche. La diffusion progressive d’IPv6, où le NAT disparaît et où chaque poste
bénéficie d’une adresse publique ne change que peu de choses à cette relative imprécision. Les
implémentations récentes du protocole n’utilisent plus comme les versions primitives l’adresse MAC du
terminal pour construire l’adresse IPv6 : le préfixe de cette dernière n’identifie donc plus que le domicile
ou l’entreprise sur le réseau duquel le terminal est raccordé.
Ceci n’empêche pas la géolocalisation, au moins approximative : la résolution DNS inverse reproduite
plus haut comprend le nom officiel du Nœud de Raccordement d’Abonnés auquel est attaché la box,
flouté ici ; sachant qu’un NRA dessert entre 500 et 5 000 abonnés ADSL, dans un rayon d’un ou deux
kilomètres, la précision est très correcte. Ce serait moins vrai dans une entreprise disposant de plusieurs
sites, et probablement aussi avec des mobiles, pour lesquels des solutions plus efficaces existent.
L’adresse IP et ce qui lui est associé ne sont cependant pas des données anodines : même
« généralisées » comme le pratique Google après quelques mois de rétention des logs, ou lors de
communication de ceux-ci à des tiers, les adresses IP amputées de leurs derniers chiffres peuvent être
souvent désanonymées (Toubiana & Nissenbaum, 2011), ce qui justifie leur classement comme données à
caractère personnel.

2 Localisation des mobiles


Chaque Access Point d’un réseau mobile pour a un identifiant unique définit par son propriétaire et qui
peut facilement servir à localiser, même de façon imprécise, un smartphone. Sur un mobile Android,
installez une application comme OpenSignal pour connaître les identifiants des AP les plus proches, dont
celui qui vous dessert effectivement : ainsi, être raccordé à CID/LAC 9193144/20401 signifie que vous
êtes à quelques kilomètres au nord-est de Poitiers, donc en banlieue proche. Mais la taille des cellules est
assez importante, de l’ordre de quelques kilomètres en rase campagne et de quelques centaines de mètres
en ville : c’est amplement suffisant pour des bannières personnalisées mais pas assez pour des vrais
services géolocalisés.
La triangulation entre plusieurs antennes, à la manière de la radiogoniométrie d’autrefois illustrée ci-
dessous, permet d’améliorer la précision à quelques dizaines de mètres. Il n’est plus indispensable de
recourir à plusieurs stations de base car les actuels eNodeB savent estimer à eux-seuls direction et
distance pour une précision équivalente, du moins dans les zones dénuées de réflexions importantes.
(Pfeiffer & Johnstone, 2003) donnent quelques illustrations de ce qui était techniquement possible il y a
une décennie. Parlant de terminaux intelligents, la localisation par GPS du terminal par lui-même
semblerait une évidence, car précise à quelques mètres près, si elle ne souffrait de deux défauts au
moins :
une consommation énergétique importante, qui limite l’autonomie des portables ;
une impossibilité de capter les signaux des satellites en intérieur, dans un hypermarché par exemple.
Il aura suffi de remarquer que les mobiles disposent tous d’une connectique Wifi, rarement désactivée,
pour construire un palliatif : même si le terminal ne se connecte pas explicitement à un réseau Wifi
existant, des phases de découverte et de négociation automatiques interviennent en permanence. En
quadrillant judicieusement un espace commercial par des bornes Wifi, (Martin, Vinyals, & Friedland,
2010) obtiennent une précision de localisation inférieure à 1,5 m.
Les mobiles dotés de capacités téléphoniques disposent de deux identifiants uniques : l’IMEI, qui est
propre à l’appareil lui-même, et l’IMSI pour la carte SIM, lequel est transcrit MSISDN (Mobile Station
ISDN Number) ou numéro de téléphone. Normalement, les opérateurs ne communiquent pas ces
informations mais elles peuvent être récupérées par certaines Apps. Avec une détection Wifi, l’adresse
MAC du terminal sert d’identifiant de secours. Une signature similaire, tout aussi unique et donnant
facilement le type de terminal, existe pour les communications Bluetooth : là encore, sans même que
l’appariement des deux terminaux Bluetooth ne soit autorisé, la phase de découverte et de négociation
suffit à lister les terminaux proches.

Source : CDMA 2000.


Figure 9.2 Triangulation GSM
3 Web beacons – balises de suivi
En mode de navigation sur le Web, l’outil de base est le Web beacon, ou Web bug : c’est une balise
permettant de savoir ce qui a été chargé par le navigateur. À l’origine c’était une image la plus petite
possible, un pixel de dimension 1 par 1, codée comme un fichier GIF transparent et insérée dans une page
HTML, soit directement dans le code affichable soit dans un script Javascript. En juillet 2014, la page
principale du site http://www.dunod.com contient selon un outil d’analyse au moins 4 balises, dont deux
sont reproduites partiellement ici.

Figure 9.3 Portion de la balise eStat chez Dunod


Aucune de ces deux balises n’est une image GIF mais le principe est préservé : il faut envoyer à un
service tiers une requête HTTP circonstanciée qui permettra à ce service de savoir que la page d’accueil
a été vue et de commencer ou de poursuivre le suivi de la session. La balise de Google Analytics appelle
un script stocké sur les serveurs de cette entité de Google Inc. L’autre provient d’une filiale de
TEDEMIS[26] spécialisée dans le reciblage publicitaire et, précisément, l’envoi de courriels
personnalisés après une visite.

Figure 9.4 Balise Google Analytics chez Dunod


C’est cette fois un iFrame, c’est-à-dire l’inclusion d’une page comme élément d’une autre, une
technique fréquente en HTML 4 mais qui l’est moins depuis le passage progressif des sites en HTML 5.
Ce même bloc de code contient aussi un commentaire de fin de bloc d’une balise Eulerian Analytics et un
autre de début de bloc de Médiamétrie-Estat, deux autres prestataires de Web Analytics. La base de
connaissances de l’IAB[27], une association professionnelle, contient quelques exemples de balises
comme :
Basile publicitaire : associé à une annonce particulière, permet de savoir si l’impression a bien eu
lieu, donc à quelle version de l’annonce l’internaute a été exposé.
Balise de conversion : modifiée dès que l’internaute a procédé à une conversion, c’est-à-dire a
acheté sur le site, ou s’est inscrit… Son absence dans la suite de la navigation devra entraîner un
reciblage (behavioral retargeting), c’est-à-dire une modification des annonces affichées pour tenter
de récupérer une opportunité de conversion.
Balise sécurisée : la navigation en mode sécurisé (SSL, adresses commençant par https :) devenant
plus populaire, il faut que les balises le soient elles-aussi, faute de quoi apparaît la boîte de
dialogue fatidique « Cette page contient des éléments non sécurisés. Voulez-vous les afficher ». Les
habitués de la programmation verront dans le code de la balise Google Analytics qu’une bascule
entre les deux modes est prévue d’emblée.
Balise composite ( piggybacked ) : balise incorporée à une page mais qui, lors de son impression,
va s’autoriser à en inviter d’autres, définies par le prestataire de service et non par le propriétaire
du site d’origine.
Certaines balises ne sont pas incluses dans le code HTML mais simplement dans la requête HTTP
appelant la page suivante. Ainsi, pour valider une action marketing par courriel proposant des
informations en ligne par vérification de leur consultation effective, il suffit de remplacer dans la
newsletter les liens normaux vers les pages par des versikons personnalisées, du genre
http://t.itnewsinfo.com/mc10_rd/YT0xNSZiPTM0ODEwJmM9ODc2NSZqPTQy… [400 caractères
supprimés] ou encore http://e-mail.informatiquenews.fr/t/j-l-ipejud-hhgyulyri-j/ [quelques caractères
remplacés]. Le lien modifié pointe alors qu’une application de Web analytics qui récupère le numéro de
campagne ou l’adresse de courriel de l’internaute, enregistre ce qui doit l’être, place un cookie dans le
navigateur et redirige vers la page visée.
Les moteurs de recherche comme Google ne procèdent pas autrement : soumettez une requête
quelconque puis, au lieu de cliquer sur ce qui vous apparaît, y compris en bas de l’écran, comme une
URL ordinaire, effectuez un copier-coller de l’adresse vers le bloc-notes. Vous verrez le contenu réel de
l’URL avec balise, comme [après suppression de nombreux caractères], http://www.google.fr/url?
sa=t&rct=j&q=&esrc=s&source=Web&cd=1&cad=rja&uact. Autrefois, seuls les liens sponsorisés
étaient modifiés de la sorte mais ce n’est plus le cas depuis 2012.

4 Cookies et identification de l’internaute


Les cookies[28] sont d’abord le moyen de pallier ce qui constitue à la fois la force et la faiblesse du
protocole HTTP, l’absence de mémoire. En théorie, deux requêtes successives du navigateur vers le
même site, par exemple celle pour le texte de la page et celle pour l’image de fonds, sont indépendantes
et ne peuvent être mises en correspondance. Pour restituer la notion de transaction, la première page
appelée demande au navigateur de stocker un tout petit bloc de texte, tandis que le site archive ce même
bloc. La page suivante sera en droit de demander avant chargement le contenu de ce cookie, s’il existe et
en fournissant son nom, faisant ainsi le lien avec la navigation précédente.
Les cookies, limités au site générateur, à un onglet du navigateur et effacés à la fermeture de celui-ci ne
présentent pas de risque majeur d’identification de l’internaute. Mais ce n’est pas toujours le cas.
Observons des cookies sur le site Google.fr :

Figure 9.5 Cookies du google.fr, 2014-07-09


La colonne Size monte qu’ils sont petits, une centaine de caractères au plus. Mais ils contreviennent
déjà à nos conditions d’innocuité : deux domaines sont en cause, google.fr et google.com. Il ne s’agit
certes pas réellement de cookies tiers, car la page d’origine contient des éléments en provenance des
deux sites et, si le navigateur est bien configuré, chaque site ne peut récupérer que ses propres cookies.
En revanche, les dates d’expiration sont éloignées : s’ils ne sont effacés à la clôture du navigateur, ce qui
nécessite un paramétrage spécifique, ces cookies pourront être réutilisés plus tard, permettant ainsi de
raccorder plusieurs sessions distinctes. Dans le cookie PREF, on trouve un champ ID= qui identifie la
session et un U= pour l’utilisateur unique, non nécessairement associé à une identité dans le monde réel.
(Toubiana & Nissenbaum, 2011) ont montré tout le bénéfice que l’on pouvait tirer du contenu de ce
simple cookie PREF.
La deuxième condition, limite à une seule session en cours, n’est pas facilement violée par les cookies.
Mais les objets stockés dans le Local Storage apparu avec HTML5, ou les Local Shared Objects de
l’extension Adobe Flash peuvent causer des soucis de sécurité plus importants.

5 Deep Packet Inspection


DPI est à l’origine une technique de sécurité consistant à filtrer les datagrammes IP traversant un pare-
feu d’entreprise non pas seulement sur le triplet adresse destination, adresse source et protocole (http,
smtp, etc.) mais sur le contenu-même de la charge utile : existence d’une pièce jointe, présence d’un
virus, requête contenant le mot Tian’anmen… Ce qui est acceptable dans un contexte de travail peut le
sembler un peu moins pour les particuliers dans un état de droit mais des exceptions légales existent,
comme les instructions judiciaires, des préoccupations de sécurité du réseau lui-même ou le respect du
droit d’auteur (Digital Millennium Copyright Act).
Ce filtrage est techniquement possible y compris à grande échelle, l’affaire PRISM l’a opportunément
rappelé (Greenwald, 2014). Et les fournisseurs d’accès d’Internet (FAI) le pratiquent pour leur propre
compte, généralement sous le prétexte de la sécurisation du réseau, parfois aussi pour réguler le trafic de
certains services à la baisse[29]. (Kuehn, 2013) évoque même la possibilité technique de remplacement de
contenu, par exemple une bannière publicitaire par une autre, technique qui a été récemment
diagnostiquée chez au moins deux opérateurs de téléphonie mobile, dont SFR[30].
Quelques sociétés de Web Analytics ont tenté d’utiliser cette technique à leur profit, en signant des
accords avec les FAI pour accéder à leurs équipements de filtrage. La société NebuAd avait utilisé cette
technique aux USA avant de fermer ses portes en 2010 face au retrait des ISP (Kuehn, 2013), Phorm est
au Royaume-Uni en butte à des pressions du Gouvernement et de la Commission Européenne et contrainte
à modifier ses méthodes, tout en prétendant sur son site « œuvrer pour un Internet plus sûr ». Ces
méthodes plutôt déplaisantes sont heureusement impossibles sur du trafic chiffré (https), sauf à utiliser
des techniques de hackers.

6 Services ou espions ?
Voyons maintenant une catégorie d’apps, plus répandue qu’il n’y paraît, dont la seule raison d’être est
la captation d’informations. Elle répond à un adage quelque peu trivial : « si c’est gratuit, vous êtes le
produit ». Trouver des exemples ne sera pas difficile, surtout sur les terminaux mobiles : il suffit de
s’intéresser aux permissions des apps.
Sur les trois principaux OS mobiles que sont Apple iOS, Google Android et Microsoft WindowsPhone,
chaque application installée réclame pour son usage l’accès à certaines ressources du terminal. Ainsi, une
application comme un navigateur Internet ou un client de messagerie aura besoin d’un accès réseau, et le
second profitera d’un accès en lecture à la liste des contacts enregistrés sur le téléphone. Une application
que nous reverrons à propos de la sécurisation du poste, Smarter Wi-fi Manager, ne demande que l’accès
à la localisation approximative via les antennes, ce dont elle se sert pour activer ou désactiver le Wi-Fi ;
mais il est vrai que son modèle d’affaires repose sur la vente simple.
Prenons maintenant, toujours sur le système Android, une application parmi d’autres dans la famille des
« lampes de poches », qui activent le flash du mobile de façon statique : l’application Super-Bright Led
Flash de Google Play Store indique quelques-unes des permissions revendiquées : l’accès à la fonction
de contrôle du flash est nécessaire par construction, mais à quoi peuvent bien être utiles l’obtention de la
liste des applications en cours d’exécution, la capacité de prendre des photos ou le contrôle du Wifi ? La
taille même de l’application, 5Mo, est une indication qu’elle contient nettement plus que les quelques
lignes de code indispensables au service rendu.
La Federal Trade Commission, dans ses conseils aux concepteurs d’application (FTC, 2013) leur
suggère que « s’ils n’ont pas un besoin impératif d’une information, le plus simple est de ne pas la
collecter[31] » mais ces recommandations n’ont aucun caractère coercitif. Les Stores font surtout respecter
la transparence des permissions, suggérée elle aussi dans ce rapport, mais ils n’interviennent sur leur
nécessité que de façon irrégulière. Notons d’ailleurs un changement subtil intervenu dans le
fonctionnement de Google Play. À chaque mise à jour de l’application, l’utilisateur est prévenu si les
permissions ont changé ; jusqu’il y a peu, les ajouts étaient mis en évidence par un bandeau « NEW »,
lequel a disparu depuis.
Pour les concepteurs soucieux d’accroître la variété des informations collectées sans paraître ignorer
les bonnes pratiques, l’ajout de « fonctionnalités » à la pertinence discutable est une voie fort pratique.
Le plus simple est souvent de s’adosser à une plateforme de services comme Facebook à travers de
fonctions de partage social, qui nécessitent très vite un accès aux contacts, à la localisation, au réseau…
Les éditeurs de jeux se sont fait une spécialité de ces extensions et King (Candy Crush Saga) n’est pas en
reste, alors même que son modèle d’affaires est le freemium.
Nous choisissons d’arrêter là cette liste d’outils mais il n’est guère difficile de la compléter.

Section 4 VIE PRIVÉE ET RÉACTIONS DU MOBINAUTE

On l’a vu, les moyens de collecte et de traitement de l’information potentiellement sensible permettant
de qualifier l’internaute et son comportement sont considérables. Il nous reste à étudier si et par quels
moyens une forme de vie privée peut être préservée. Privacy peut se traduire comme vie privée ou
intimité, ce qui n’est pas équivalent : d’une part la tranquillité, ou droit à être laissé seul[32], d’autre part
le contrôle sur ce qui doit être ou non divulgué. (Rochelandet, 2010) y ajoute l’autonomie individuelle, ou
indépendance par rapport à un contrôle externe, qui recoupe partiellement avec les deux premiers volets.
Nous verrons en premier que l’internaute n’est pas toujours aussi autonome qu’il le souhaiterait, abusé
qu’il est par ses sens et ses biais cognitifs. Puis, comment le législateur ou, à défaut, une forme de
responsabilité de la part des acteurs permettent de réguler les actions intrusives et d’en modérer les
aspects les plus préjudiciables. Enfin, par quels moyens certains internautes tentent de récupérer une
forme de contrôle sur ce qu’ils divulguent.

1 Faiblesses de l’internaute
Le consommateur de services basés sur le contexte, applications mobiles ou sites Web « intelligents »,
n’a souvent qu’une vision floue des informations qu’il met à disposition des vendeurs : soit qu’il n’ait pas
pris conscience du fonctionnement des applications, soit qu’il méconnaisse la précision des informations
collectées ou qu’il en minimise l’importance, soit qu’il pense avoir le contrôle sur ce qu’il divulgue.
Voyons-le sur deux exemples.
Commençons par la géolocalisation. Nous avons vu dans les exemples d’usage qu’un nombre
considérable d’applications mobiles obtiennent l’autorisation d’accéder à cette information, sans que la
nécessité pour l’utilisateur en soit claire. Dans une expérimentation fort astucieuse, (Fu, Yang, Shingte,
Lindqvist, & Gruteser, 2014) ont vérifié que les utilisateurs n’en avaient pas conscience.
Lorsqu’elles deviennent plus visibles et supposent une forme de consentement éclairé, les notifications
peuvent entraîner des effets pervers sous l’effet de l’illusion de contrôle comme nous allons le voir. Les
évolutions récentes de la directive européenne « Protection des données dans le secteur des
communications électroniques »[33] rendent illégal l’usage de cookies sans le consentement préalable des
utilisateurs. On voit donc apparaître progressivement des notifications plus ou moins discrètes sur les
sites européens ou extérieurs. Certaines sont très voyantes et appliquent le principe opt-in, comme celle-
ci, sur un site professionnel.
Nombre de sites, dont ceux de certains éditeurs français, n’appliquent pas encore cette règle. Mais la
plupart choisissent une logique opt-out et une certaine discrétion, comme le montre l’exemple de Google
reproduit ici, qui apparaît en bas de la première page vue.

Focus 9.1
Étude de Fu et al., 2014
Les auteurs ont demandé à des possesseurs de smartphones Android d’installer une application
construite pour l’occasion et de vaquer à leurs occupations pendant quatre semaines. La première
semaine, cette application ne faisait presque rien d’autre qu’enregistrer les demandes d’accès de
l’application en premier plan aux informations de localisation ; néanmoins, sur toutes les versions
récentes d’Android, une petite icône GPS clignote alors dans la barre de notification. Une petite
moitié de leur effectif a constitué un groupe de contrôle : après un rappel de l’existence de
l’application espion, la lecture d’un article du New York Times a servi de sensibilisation au
tracking mais le fonctionnement de l’espion est resté inchangé. Pour le groupe expérimental,
l’espion a commencé à afficher une notification en superposition transitoire de l’application en
premier plan, offrant à l’utilisateur des détails comme l’historique de ses demandes et la liste des
applications tout aussi indiscrètes.
À la fin de l’expérience, les individus des deux groupes ont été confrontés aux logs de l’espion. Ceux
du groupe de contrôle n’avaient pas changé leur comportement pendant la période et se déclaraient
stupéfaits par le comportement indiscret de leurs applications. La notification par défaut et les
avertissements de la presse sont donc inefficaces. À l’opposé, les membres du groupe expérimental
avaient déjà cessé d’utiliser certaines de leurs applications, les avaient parfois désinstallées et
remplacées par d’autres.
Ceci conforte les résultats d’une enquête du Crédoc citée dans un rapport récent de la CNIL (CNIL,
2012b) : fin 2011, à la question « Souhaiteriez-vous avoir la possibilité d’interdire la transmission de
votre localisation à des entreprises commerciales ? », 81 % des utilisateurs de mobiles répondaient
« oui ». Simplement, les solutions de traçage sont conçues pour rester en dessous du seuil de l’attention.
Au regard de l’étude (Fu et al., 2014) citée auparavant, il se peut fort que ce dernier genre de
notification soit inefficace car non réellement visible : est-ce délibéré ? (Acquisti, Adjerid, &
Brandimarte, 2013, p. 72) laissent entendre que ceci a moins pour but de sensibiliser l’utilisateur que de
le laisser seul face à ses responsabilités[34]. Leur affirmation repose sur une étude de 2012 réalisée par
deux des auteurs (Brandimarte, Acquisti, & Loewenstein, 2012).

Focus 9.2
Étude de Brandimarte et al., 2012
Elle combine les résultats de trois expérimentations menées sur des étudiants confrontés au choix de
divulguer ou non des informations. Ces données sont d’un degré de confidentialité variable, du banal
à l’intrusif, et ils ont toujours la possibilité de ne pas les renseigner. Pour les deux premières
expériences, ils sont placés dans la situation d’alimenter un réseau social en cours de création. Tout
d’abord, les étudiants donnent plus d’information, surtout sensibles, s’ils sont certains qu’elle sera
publiée que si elle n’a qu’une chance sur deux de l’être. La deuxième expérience ajoute un possible
élargissement de la publication de ces données et montre là encore que l’impression de contrôler
rend moins visible cette divulgation accrue.
La troisième expérience relate des réponses à une enquête assez intrusive : ils peuvent ne pas
répondre à toutes les questions mais aussi, selon les groupes, choisir avec une granularité plus ou
moins fine ce qui sera publié ou non. Dans cette étude, plus le contrôle de publication est fin, plus
les données sont renseignées et plus la publication est autorisée, faisant diminuer paradoxalement la
protection des données personnelles.
L’évolution récente des paramètres de confidentialité d’un réseau social comme Facebook répond
très exactement aux mécanismes mis en évidence par (Brandimarte et al., 2012) : en lui laissant la
possibilité de choisir plus finement qui pourra voir les éléments de son profil, Facebook incite
l’utilisateur à dévoiler plus d’information exploitable par la firme qu’il ne l’aurait souhaité.
Cette forme d’aveuglement est un aspect plus pernicieux de la « fracture numérique » (Digital
Divide), terme employé à l’origine pour distinguer les humains équipés de ceux qui ne le sont pas.
La prospective à 10 ans publiée par le Pew Internet Research Center (J. Anderson & Rainie, 2014)
et résultant de la consultation de nombreux experts relève que « les gens vont continuer, même à
contrecœur, à privilégier la facilité et les récompenses immédiates à leur intimité et que seul le haut
du panier pourra bénéficier de cette dernière1 » même si (Keith et al., 2013) observent au contraire,
sur un montage expérimental, que les utilisateurs, même les plus sensibles au bénéfice perçu des
services, en divulgent in fine moins qu’ils ne déclaraient vouloir le faire.
Une dernière réserve doit être émise concernant ces études : à en croire (Gao, Rohm, Sultan, & Pagani,
2013), l’attitude d’évitement du risque, ou prudence, n’a pas la même importance selon la culture de
l’utilisateur. Leur modèle, dérivé de la « théorie de l’action raisonnée », ajoute aux « prédicteurs » de
l’attitude envers le marketing mobile, elle-même « prédictrice » de l’adoption d’applications et autres
activités mobiles, une mesure du comportement innovateur de l’individu et une autre de sa réticence à
dévoiler des informations personnelles et à faire l’objet d’un profilage. Ce modèle est testé dans trois
régions du monde, Chine, USA et Europe de l’Ouest, sur un peu plus de 450 étudiants à chaque fois. La
plupart des coefficients sont stables entre les groupes sauf précisément celui du lien entre prudence et
attitude : il est non différent de 0 aux USA, significativement négatif en Chine, intermédiaire mais toujours
significatif en Europe. Ceci alors même que les internautes européens sont mieux protégés que leurs
homologues étasuniens, ce que nous allons voir immédiatement.
2 Protection par la régulation
Nous avons vu qu’il existe une asymétrie d’information manifeste, aux sens de (Akerlof, 1970), entre le
système des vendeurs et de leurs soutiens et l’utilisateur. Les excès inévitables de cette asymétrie
appellent à l’établissement d’une régulation, externe si elle provient des États, interne si elle résulte de
l’évolution des pratiques des vendeurs.
La régulation se focalise, lorsqu’elle existe, sur la notion de DCP (Données à Caractère Personnel) ou
PII (Personally Identifiable Informations) en anglais. Une DCP est un élément d’information qui, seul ou
en association avec d’autres aisément accessibles, permet d’identifier de façon unique un individu. La
documentation de la Commission nationale informatique et libertés (CNIL, 2012a) propose une gradation
du caractère identifiant d’une donnée : négligeable, comme les seuls prénoms et pays de résidence, faible
si l’on ajoute le nom, car certains sont rares, important en ajoutant la date de naissance, maximal avec
tout ou partie de l’adresse postale ou, dans notre cas, le DSLAM desservant en ADSL le domicile. C’est
selon ce principe qu’en 2011 la Cour de Justice de l’Union européenne a statué que l’adresse IP d’un
terminal était une donnée personnelle[35].
La France est un des premiers pays à s’être dotés d’une législation spécifique, en réaction aux excès de
sa propre administration : le projet SAFARI[36], lancé en 2013 et ayant fait l’objet d’une polémique en
1974, consistait à utiliser un identifiant unique, le NIR[37], pour toutes les bases de données
administratives à granularité individuelle, permettant ainsi des croisements entre fiscalité, santé,
famille… La loi « Informatiques et Libertés » de 1978 a instauré des règles plutôt strictes et confié à la
Commission nationale informatique et libertés (CNIL) le soin de les faire respecter. Internet n’était pas
encore répandu mais, depuis, le caractère illusoire d’une loi purement nationale est devenu évident.
L’union Européenne a progressivement construit un corpus sur ce sujet, stabilisé en 2002[38] mais
continuant à évoluer. Ces directives sont est plus tolérantes que le droit français de l’époque, en réponse
aux demandes des acteurs du secteur. Il a été transcrit peu après en droit local dans le cadre de la Loi
pour la confiance dans l’économie numérique (LCEN, 2004-575) qui corrige certains excès de la Loi de
1978. En dépit de cette relative libéralisation, l’efficacité de cette législation n’est pas négligeable.
(Goldfarb & Tucker, 2011) estiment ainsi qu’elle a fait chuter le bénéfice qu’il était possible d’attendre
des pratiques de tracking de 65 %.
Outre-Atlantique, la régulation est surtout affaire d’autorégulation, même si plusieurs législations
spécifiques proposent une protection de l’intimité aux mineurs, aux handicapés et aux utilisateurs de
services financiers. Nous avons déjà évoqué les publications de la Federal Trade Commission (FTC
Staff Report, 2009), reprises telles qu’elles par l’Interactive Advertising Bureau, une association
professionnelle. Cette dernière publie sur son site nombre de rapports à propos des bonnes pratiques et
de la conformité à ces dernières[39]. Ces règles se trouvaient déjà dans (Barnes, 2003) : 1, informer le
consommateur de la collecte, 2, lui donner le choix pour chaque usage, 3, donner l’accès pour
corrections, 4, conserver en sécurité, 5, se conformer aux principes FLIP (Fair Location Information
Practices) et être auditable. Compatibles en somme avec les directives de l’Union européenne. Mais, sur
la page consacrée à ses motifs, l’IAB place en premier la « lutte contre les excès de la réglementation ».
Rien d’étonnant alors que ce point semble figurer en bonne place dans les négociations en cours sur
l’accord transatlantique[40] (Transatlantic Trade and Investment Partnership).

3 Prise de conscience et comportements de résistance


L’utilisateur devrait considérer que la cession de ses données personnelles est une juste rémunération
des services que lui offrent Google et consorts, et ne pas tenter de se protéger outre mesure. Mais
n’oublions pas que ces sociétés ne sont pas réputées pour leur civisme : leur comportement de passager
clandestin (free rider) en matière fiscale[41] ou sociétale[42] n’incite pas à la mansuétude, plutôt à une
forme de réciprocité, pouvant conduire l’utilisateur mécontent à un comportement de résistance (Roux,
2007). Par ailleurs, les fuites répétées de données confidentielles favorisées par le laxisme des
collecteurs de ces informations, dont deux en quelques mois chez l’opérateur Orange[43], peuvent faire
craindre à l’utilisateur des dommages comme une usurpation d’identité.
Il y a peu de choses à faire pour les données personnelles déjà collectées, car le concept de « droit à
l’oubli » n’est ni stabilisé ni mis en place globalement : le renversement de la position de la Cour de
Justice de l’Union Européenne en l’espace d’un an, d’abord favorable à la société Google[44], puis
favorable au droit à l’oubli[45] montre une prise de conscience institutionnelle progressive mais qui ne
concerne guère que la partie publiée des informations collectées, minime au regard de celle qui est
utilisée pour le profilage.
La Commission nationale informatique et libertés met en ligne de nombreux rapports, aussi bien à
destination de l’utilisateur pour son comportement au quotidien (CNIL, 2010), complétés par une fiche
pratique expliquant comment essayer d’effacer des informations personnelles déjà dévoilées[46], qu’à
destination des professionnels pour les inciter à la mesure et à sécuriser l’accès à ces données (CNIL,
2012a). Et il convient de remarquer que ces dernières, si elles ne sont pas mises à jour, perdent
rapidement de leur valeur pour les actions marketing. Toute action de l’utilisateur en vue de limiter sa
surface d’exposition est donc un pas vers la récupération d’une part d’intimité.
Les internautes étasuniens, probablement les plus exposés, interrogés en juillet 2013 (Rainie, Kiesler,
Ruogu, & Madden, 2013), semblent commencer à prendre la mesure du danger encouru : 86 % ont pris au
moins une mesure de protection de leurs données, parfois très banale comme l’effacement des cookies et
de l’historique de leur navigateur, la suppression de commentaires déjà publiés en ligne, la restriction
d’acceptation des cookies tiers par le navigateur ou le renoncement à l’usage d’un site Web trop indiscret.
Moins d’un cinquième déclare avoir recouru à des mesures pourtant probablement plus efficaces, comme
les techniques de masquage de l’adresse du terminal, de déclaration d’une identité inexacte voire fausse
ou de recours à la cryptographie pour la messagerie.
Cette étude préfigure ce que nous avons dénommé fracture numérique pernicieuse : si la part des
internautes inquiets des traces qu’ils laissent est passée d’un tiers en 2009 à plus de la moitié en 2013,
près des deux tiers du total pensent qu’ils ne peuvent pas réellement lutter, d’autant qu’une proportion
similaire déclare dans (Fox & Rainie, 2014) qu’Internet est la technologie dont ils pourraient le moins se
passer. Et, ce qui rejoint la prospective (J. Anderson & Rainie, 2014), c’est la population de moins de 30
ans et d’un revenu inférieur à 75 000 $/an qui est à la fois la moins prudente et la plus affectée par les
attaques.

4 Parades techniques
Les révélations d’Edward Snowden sur les pratiques de la NSA, ayant valu le prix Pulitzer au
journaliste Glen Greenwald du Guardian (Greenwald, 2014), sont peut-être le début de ce que l’activiste
Susan George nomme « l’effet Dracula » : la mise en pleine lumière du vampire est la seule façon de le
faire disparaître. Rien d’étonnant alors que les grands du Web, à commencer par Google, aient été
prompts à protester sur les exigences gouvernementales, car leur divulgation a eu pour effet d’inquiéter
les citoyens et, par ricochet, de révéler leurs propres pratiques.
La sortie récente et le probable succès d’un smartphone sécurisé, le BlackPhone[47], dont le slogan
comporte le terme « ahead of advertising » ou « débarrassé de la publicité », est symptomatique. Ce
terminal, bien qu’animé par une variante du système d’exploitation Android, est incompatible avec le
Google Play Store et les applications de l’éditeur et ce n’est pas le fait du hasard. De même, ProtonMail,
un service de messagerie discret et chiffré lancé fin mai 2014 a vu les capacités prévues pour ses 6
premiers mois d’activité épuisées en à peine plus d’une journée, laissant bien des candidats dans l’attente
qui ont jusqu’à début juillet rassemblé 350 000 $ de dons. Cet engouement suscite donc des vocations
mais aussi quelques déconvenues : le service de SMS protégé d’origine française Perseus devait briller
par un système de chiffrement original et « à l’épreuve de la NSA[48] », lequel a été cassé facilement et
rapidement[49].
L’option « Do Not Track » des navigateurs, abondamment critiquée par les associations de
professionnels lors de son activation par défaut dans les nouvelles versions, n’est en pratique respectée
que par une faible partie des annonceurs, obligeant l’utilisateur à filtrer lui-même les balises. On ne
compte plus les extensions de navigateurs supposées protéger la navigation d’un traçage trop intrusif :
AdBlock et ses variantes ont longtemps été populaires mais sont maintenant soupçonnés de négocier le
non-blocage de marqueurs avec les publicitaires. Ghostery reprend le flambeau assez efficacement en
2014, même si l’existence d’un site frère destiné cette fois aux entreprises peut surprendre. L’Electronic
Frontier Foundation, organisation à but non lucratif qui critique ouvertement le modèle d’affaires des
éditeurs des outils précédent, propose un Privacy Badger supposé être plus performant. Les réglages de
ces différentes extensions ne sont pas simples pour l’internaute moyen qui, bien souvent, s’en tient aux
valeurs par défaut, c’est-à-dire aucun filtrage ou presque (Malandrino & Scarano, 2013).
Les internautes qui sont pistés non pas par des publicitaires mais par des états policiers, avec les
conséquences que l’on imagine, utilisent des techniques plus pointues de préservation de leur anonymat,
comme les re-mailers anonymes, les serveurs proxy situés dans des pays démocratiques, des réseaux
chiffrés comme TOR (The Onion Router). Rien de ceci n’est hélas totalement sûr, comme le rapporte
Imperva (2011), mais des sites liés à Reporters sans frontières (http://surveillance.rsf.org et
https:www.wefightcensorship.org) permettent de suivre les évolutions de cette lutte.

EN CONCLUSION
Terminons ici par quelques conseils de bon sens, sans vocation à l’exhaustivité :
Vos navigateurs devraient être paramétrés pour effacer tous les cookies, historique de
navigation et contenu du cache dès la fermeture de l’application. C’est très facile dans Internet
Explorer et Firefox mais il faut un peu chercher avec Google Chrome.
Profitez-en pour activer, si elle ne l’est pas, l’option « Do not track » et refuser les cookies
tiers.
Les réglages des navigateurs mobiles sont moins développés que ceux de leurs homologues sur
ordinateur : vous devrez donc effacer manuellement et périodiquement, dans le menu
Paramètres, ce qui doit l’être.
Attention : Adobe Flash Player maintient son propre cache de données, qui fait l’objet de
nombreuses attaques. Voyez la marche à suivre sur le site de l’éditeur, Adobe[50].
Certains moteurs de recherche sont moins indiscrets que ne l’est Google : IxQuick ou
DuckDuckGo en sont des exemples.
Vous n’avez jamais de raison valable de donner des informations personnelles sensibles
comme votre date ou votre lieu de naissance. Le vendeur ne s’en servira peut-être pas mais, en
cas de fuite de données, c’est l’élément indispensable aux usurpations d’identité. Si la saisie
de la date est imposée, le 6 juin 1944 est d’actualité, facile à mémoriser et elle vous permettra
de profiter de publicités pour des assurances obsèques.
De même, s’autoriser quelques fluctuations typographiques dans le patronyme ou l’adresse
n’est pas réellement déloyal ; mais pas non plus très efficace, connaissant la puissance des
algorithmes de dé-doublonnage (data cleansing).
Rooter son terminal, comme recommandé par Tim Berners-Lee[51], est, pour le paraphraser, la
seule manière de s’assurer qu’il ne serve pas des intérêts autres que le vôtre, par exemple de
contrôler ce que font réellement les apps. Consultez tout de même l’annexe technique pour
comprendre les risques d’une telle opération.
Vous pouvez aussi décider que, comme le déclare Vinton Cerf[52], « la vie privée est peut-être
une anomalie » et que « qu’il sera de plus en plus en plus difficile de la conserver ». La
deuxième proposition est peu discutable mais, pour ce qui est de la première, rappelez-vous
que M. Cerf, créateur en son temps des protocoles TCP/IP et donc d’un système décentralisé,
travaille désormais pour Google.
Annexe UN PEU DE JARGON

Cette annexe n’existe que pour vous éviter de recourir de façon excessive à votre moteur de recherche
favori. Toutefois, en raison des contraintes de volume, tout ceci est largement simplifié et un recours à
des sources plus complètes est conseillé.

1 B to C et consorts
Il convient parfois de distinguer les formes de commerce selon la nature des participants. En B to C
(Business to Consumer) nous avons la forme traditionnelle plaçant face-à-face un vendeur et un acheteur
particulier. Le B to B (Business to Business), l’acheteur devient un professionnel, et les modalités de
l’interaction changent. Le C to C traite des échanges entre particuliers mais, pour qu’ils nous concernent,
médiatisés par un service, par exemple Leboncoin.fr.
Le M2M ou Internet des objets est un peu isolé dans cette liste : pas directement de commerce ici,
simplement la communication ente objets « intelligents ».

2 Réseaux, protocoles, modèle OSI


On parle de réseau dès lors que deux terminaux « intelligents », ou généralement plus, dialoguent via un
équipement physique. Le modèle « Interconnexion de systèmes ouverts » ou OSI[53] donne un cadre
indicatif d’analyse du fonctionnement des réseaux. Il distingue 7 couches que nous pouvons regrouper en
trois blocs :
La partie matérielle, couches 1 et 2. C’est ici que l’on différencie l’Ethernet du réseau local,
l’ADSL du raccordement au réseau de l’opérateur et la nature de ce dernier, ATM ou autre. Mais
aussi les communications sans fil comme le Wifi, le BlueTooth… Cette partie matérielle et les
protocoles de bas niveau correspondants (gestion des accès) peuvent paraître de peu d’intérêt car
elle est invisible du reste du réseau et donc des sites marchands. En pratique, cependant, elle peut
fournir des informations de géolocalisation. Notamment, l’adresse MAC peut servir d’identifiant
unique.
La partie acheminement des données, couches 3 et 4 du modèle. La correspondance au modèle n’est
pas exacte mais il y a deux grandes écoles : les téléphonistes et les informaticiens. Les
téléphonistes sont adeptes d’un mode circuit : pour communiquer, on recherche le correspondant,
on établit un circuit physique ou virtuel, la bande passante nécessaire à ce dernier est réservée pour
la durée de la communication puis on ferme le circuit. Logiquement, la facturation se fait à la minute
et les protocoles sont limités à cette dernière et à la signalisation : signal d’appel, signal occupé,
comptage du temps… Les informaticiens veulent un mode paquets : les données sont regroupées en
petits blocs, envoyés sur le réseau et routés de proche en proche jusqu’à destination. Advienne que
pourra en cours de route et on profite du fait que les deux extrémités de la communication soient des
terminaux intelligents pour corriger les éventuelles erreurs. Ceci suppose des protocoles plus subtils
comme la suite TCP/IP (voir ce terme) et la tarification ne peut se faire qu’au volume transmis. Là
encore et quel que soit le mode retenu, nous pouvons récupérer des informations contextuelles fort
précises.
La partie applications, couches 5, 6 et surtout 7. Peu de choses à dire pour la téléphonie mais, pour
l’informatique, la couche 7 est en elle-même un monde à part entière en partie étudié dans la partie
centrale de ce chapitre.
En théorie, les couches sont indépendantes mais cela reste un vœu pieux. La « bataille » du deuxième
bloc tourne de façon irréversible vers les informaticiens mais avec une capacité de résistance des
téléphonistes à ne pas négliger, arc-boutés qu’ils sont sur leurs minutes. Sans trop verser dans la
technique, on peut se remémorer quelques phases de cette lutte :
le passage des paquets sous forme de pseudo-voix, avec les vieux modems analogiques ;
une technique de convergence, l’ATM : toujours utilisée comme base des connexions ADSL,
devenue moins rentable pour les communications à très haut débit ;
le transport de la voix (VoIP) ou de vidéoconférences (H.323) en mode paquets mais en conservant
une logique de signalisation de type circuit ;
la téléphonie sur IP (ToIP) et les autres fonctions multimédia en mode paquets.
Le monde de la mobilité n’est pas épargné par cette lutte : ce qui est dénommé actuellement 4G est en
mode paquets uniquement, donc non compatible avec la téléphonie mobile usuelle. Voyez l’encart
« Téléphonie cellulaire » pour plus de précisions.

3 Téléphonie cellulaire
Cette technique de communications sans fil a été créée pour résoudre un problème redoutable, celui de
la pénurie de fréquences radio disponibles. Poser deux fibres optiques côte à côte permet de doubler le
débit de liaisons fixes, tandis qu’il faut obligatoirement deux fréquences différentes et bien séparées pour
obtenir le même effet en sans-fil. La solution tient dans une logique cellulaire représentée dans le schéma
suivant :
Chaque point d’accès dénommé station de base et représenté par un petit carré, dessert les mobiles
dont il est le plus proche, en relayant les communications de et vers les mobiles sur le réseau fixe de
l’opérateur et, de là, soit vers le réseau téléphonique public pour la voix, soit vers l’Internet pour les
données. L’ensemble des points d’accès forme un pavage de la zone de couverture, que l’on espère sans
zones blanches. Si la zone à couvrir est divisée en 10 cellules, il est possible en théorie de desservir
jusqu’à 10 fois plus de terminaux qu’avec une cellule unique et cela présente l’avantage de réduire la
consommation énergétique du terminal. Les vrais pavages sont donc très irréguliers, la distance entre
points d’accès et donc la taille des cellules étant d’autant plus petite que la population attendue est
importante et fonction aussi des obstacles à la propagation des ondes radio. En campagne, on peut trouver
des cellules d’un rayon de quelques kilomètres, qui deviennent plus petites dans les zones denses. Il faut
alors gérer la position et les déplacements du mobile :
Savoir à quel point d’accès il est raccordé : c’est le rôle du Home Location Recorder, un serveur
spécialisé géré par l’opérateur.
Ne pas perdre la communication lors du passage d’une cellule à une autre, comme ce serait le cas en
Wifi : c’est pour cela que le terminal négocie en permanence avec plusieurs points d’accès.
Depuis la radiotéléphonie (1G), la téléphonie cellulaire a évolué par étapes, de façon souvent
incompatible dans les différentes régions du monde. Ainsi la 2G, toujours utile pour les zones très peu
denses, repose sur la technique GSM en Europe, CDMA aux USA. Les débits de données sont ridicules et
donc aucun service n’est digne d’être signalé, même après l’introduction de GPRS, première tentative de
connexion de données de mode paquets et non plus minutes. EDGE, ou 2,5G, apporte des débits
descendants – du site Web vers le terminal – pouvant aller jusqu’à 384 kbits/seconde, autorisant le relevé
de courriels mais peu de navigation. Cette technologie est bien souvent la seule disponible dans la
campagne française, les obligations des opérateurs ayant été fixées en termes de population desservie et
non de surfaces, réduisant le nombre de points d’accès désormais dénommés NodeB.
C’est ainsi que UMTS, ou 3G, couvre plus de 80 % de la population mais de loin pas tout le
territoire %. Les débits théoriques de 2Mbits/seconde à l’origine ont parfois triplé avec le passage en
3G+ (HSPA) ; en pratique, ils sont nettement réduits par la densité d’utilisateurs, la qualité des
équipements des opérateurs et les nombreux obstacles à la propagation des ondes. LTE, pour Long Term
Evolution, forme ce qui est annoncé comme 4G, 3.9G selon les puristes. Cette fois, les débits maximaux
annoncés sont proches de ceux de la fibre optique à domicile, soit plus de 100 Mbits/s. En pratique et en
fonction du contexte les débits sont comparables à ceux d’un très bon ADSL, voire plus, ou d’un réseau
Wifi d’ancienne génération ou un peu chargé. La diffusion de la 4G est progressive depuis 2010, sauf aux
USA où nombre d’opérateurs ont sauté l’étape 3G et sont donc paradoxalement en avance. Un aspect
surprenant de la 4G est qu’elle fonctionne en mode paquets exclusivement, étant donc non compatible
avec la téléphonie ; les terminaux, à la réception d’un appel, basculent donc en mode 2G ou 3G, ce qui
ralentit sensiblement le trafic IP.

4 TCP/IP
À peu près la seule pile de protocole qui subsiste à grande échelle pour les couches 3 et 4 du modèle
OSI. IP correspond à la couche 3, réseau et TCP et quelques cousins à la couche 4, transport.
IP (Internet Protocol) définit la structure des blocs d’information, ou datagrammes, qui peuvent
circuler sur le réseau : un datagramme va contenir un en-tête et une charge utile ( payload ). L’entête
permet l’acheminement du datagramme à travers un réseau complexe, via une série de routeurs. Pour
chaque datagramme reçu, le routeur examine d’abord l’adresse du terminal destinataire afin de déterminer
auquel de ses voisins immédiats il faut le transférer ; si le destinataire est sur son propre sous-réseau, la
livraison est immédiate. Il peut aussi détruire le datagramme en fonction de règles de filtrage ou si le
réseau de sortie est saturé, ou le mettre en file d’attente pour gérer les priorités des types de flux, faisant
par exemple passer les flux de voix sur IP (VoIP) avant le trafic Web. Ces blocs d’information sont
généralement petits, de quelques centaines d’octets en moyenne, et un bon routeur en traitera plusieurs
dizaines de millions par seconde ou d’avantage pour les modèles d’opérateurs (carrier class). La box
fournie par le FAI est elle-même un petit routeur.
L’adresse de l’expéditeur fait aussi partie du datagramme, pour permettre au serveur de renvoyer une
réponse : c’est elle qui joue un rôle important dans la qualification de l’internaute.
Il y a deux variantes d’IP : IPv4 est le plus ancien, et est caractérisé par des adresses codées sous la
forme a.b.c.d où chaque nombre est autorisé à varier dans la plage 1,254, les valeurs extrêmes 0 et 255
étant réservées à des usages particuliers. Les blocs d’adresses, ou classes, sont attribués aux opérateurs
Internet par l’ICANN. À leur tour, les opérateurs affectent les adresses disponibles à leurs clients soit de
façon permanente pour les entreprises, soit de façon transitoire (protocole DHCP) pour les clients
particuliers et les mobiles.
IPv6 est le remplaçant désigné, confidentiel depuis 20 ans mais en passe de s’imposer en raison de la
pénurie d’adresses IPv4. Outre de nombreuses améliorations, en particulier dans le domaine de la
sécurité, la partie la plus visible d’IPv6 est la nouvelle forme des adresses, comme le montre l’exemple
ci-dessous :

Exemple d’adresse IPv6


Le nombre d’adresses possibles sur le seul sous-réseau, ou préfixe, de l’IAE de Poitiers est alors égal
au carré du nombre total d’adresses de l’Internet v4. Chaque opérateur peut offrir à chacun de ses clients
fixes un préfixe de même longueur, même si tous ne le proposent pas ; ceux délivrés par Illiad (Free)
commencent par 2a01 : 0e0c… En juin 2014, aucun opérateur mobile ne propose d’IPv6 en France, alors
que c’est le cas aux USA depuis 2009.
La prise en compte d’IPv6 est un impératif pour un site marchand, faute de quoi il sera très vite
inaccessible des nouveaux utilisateurs des pays émergents, pour lesquels il n’existe plus de blocs IPv4
disponibles. Plusieurs grands sites comme Google, YouTube, Facebook, Wikipedia répondent
préférentiellement en IPv6, tandis que ce n’est pas le cas d’Amazon ou de Twitter, ni d’ailleurs de
Dunod. La cohabitation des deux protocoles durera sans doute encore quelques années mais le
développement de l’Internet des Objets rend la bascule inévitable, en mobile comme en fixe.
Pour la couche transport, on distingue TCP, UDP et quelques protocoles de service. TCP, pour Transfer
Control Protocol, définit les contrôles d’établissement du dialogue puis de bon acheminement des
paquets. TCP ralentit un peu le trafic, aussi lui préfère-t-on UDP, pour User Datagram Protocol, pour les
données moins sensibles aux erreurs mais pénalisées par des retards, comme la vidéo ou la voix ; les
datagrammes sont alors envoyés au fil de l’eau pratiquement sans contrôle. Le protocole du Web, HTTP,
repose sur TCP, comme la plupart des applications mobiles.

5 DHCP/NAT/proxy/pare-feu
Les concepts réunis ici le sont parce qu’ils peuvent, chacun dans son rôle, gêner la qualification de
l’internaute. DHCP (Dynamic Host Configuration Protocol, RFC 2131 & 2132) est avant tout une
commodité permettant d’éviter la nécessité de configuration manuelle du poste client, avec affectation
automatique d’une adresse IP, de l’adresse du routeur par défaut et autres paramètres utiles. Les adresses
de box ADSL sont attribuées de cette manière par le FAI les ayant distribuées, comme le sont celles des
postes clients du réseau domestique, cette fois par la box elle-même, celles des mobiles par l’opérateur
et, souvent, celles des postes d’entreprise par le système mis en place par l’administrateur local. Pour
tous ces postes clients, et à la distinction des serveurs, ces adresses sont transitoires, affectées pour une
durée précise dénommée bail ; si le poste est éteint puis rallumé, l’adresse IP change. Ce procédé,
coutumier en IPv4, a été reproduit en IPv6 (RFC 3315) mais il est remplacé efficacement par le NDP
(Neighbor Discovery Protocol) où l’adresse est composée du préfixe du réseau et soit de l’adresse MAC
du terminal (RFC 4862) soit, ce qui est plus discret, d’un numéro aléatoire (RFC 4941, activé par défaut
dans Microsoft Windows).
Le NAT (Network Address Translation) est un mécanisme de traduction d’adresses IPv4 fréquent sur
les routeurs d’entreprise et systématique sur les réseaux domestiques situés derrière une box : son but
premier est de pallier la pénurie d’adresses IPv4. Chaque poste du réseau local se voit affecter par
DHCP une adresse définie par la RFC 1918 : ces adresses, comme les 10.x.x.x ou les 192.168.x.x ne sont
jamais routées sur l’Internet public. Pour accéder aux ressources du Web, les postes monde extérieur, un
poste d’adresse 192.168.x.x devra donc passer par un système de translation ou un proxy. Le système de
translation ou NAT va intercepter le paquet envoyé par le client et le réexpédier au serveur destinataire
en remplaçant l’adresse de l’expéditeur par sa propre adresse et le port expéditeur par un port attribué de
façon unique au client, de façon à pouvoir transmettre sans erreur la réponse du serveur au vrai client. De
la sorte, le client reste inaccessible de l’extérieur sauf pour les réponses à ses propres questions et le
seul élément visible est l’adresse IP publique du NAT. Nombre d’entreprises y voient un instrument de
sécurisation de leur réseau, selon le concept de security by obscurity[54]. Bien que gênant pour
l’identification de l’internaute, ce sentiment de sécurité est souvent illusoire ; de plus, cela entraîne la
création d’un maillon faible (SPoF – Single Point of Failure). Pire, le remplacement de communications
UDP par des connexions TCP génère un net ralentissement des applications multimédia comme la vidéo.
Les adresses privées existent toujours en IPv6, avec le préfixe fe80 :: (RFC 3484) : elles permettent de
distinguer rapidement les communications locales et globale et de filtrer de façon appropriée. Le concept
de NAT existe aussi (RFC 4864) mais est considéré comme non nécessaire, voire nocif et à éviter, sans
pour autant que cela fasse l’unanimité[55].
Un proxy ou serveur mandataire va jouer le même rôle de masquage des adresses des postes du réseau
local, à ceci près qu’il ne propage pas tous les types de paquets TCP. On aura donc des proxy http, pour
le trafic Web, des mail proxys pour la messagerie… Étant spécialisés, ces proxys peuvent appliquer des
règles de filtrage adaptées aux protocoles en cause : existence et type de pièces jointes pour les courriels,
liste noire de sites Web, types de fichiers téléchargés, présence de virus… On parle de DPI pour Deep
Packet Inspection : au-delà du simple examen des adresses et ports source et destination, le contenu de la
charge utile (payload) est examiné et, si nécessaire, modifié.
Un pare-feu est un simple filtre de datagrammes IP, selon le contenu de l’entête. Il peut être intégré au
poste de travail, comme c’est le cas pour toutes les versions récentes de Windows ; ou installé sur le
réseau de façon à distinguer plusieurs zones dotées d’un niveau différent de sécurité. Certains pare-feu de
réseau combinent les fonctions présentées dans cette section et on parle alors d’Unified Threat
Management. Les systèmes d’exploitation de mobiles n’ont pas de pare-feu intégré : on trouve des
applications qui remplissent cette fonction efficacement mais qui nécessitent que le téléphone ait été au
préalable rooté.

6 Métriques Web
Tout serveur informatique maintient un historique de son activité dénommé log. Du temps de la marine à
voile, les informations capitales du navire étaient stockées dans une bûche (log) évidée placée sur le
pont : en cas de naufrage, il subsistait un petit espoir que ce log flotte et puisse être récupéré. Le log d’un
serveur Web liste toutes les requêtes HTTP qu’il reçoit selon soit le format standard NCSA, soit un
format étendu W3C.

Log de serveur HTTP, format NCSA


Ce log donne la date et heure, l’adresse IP du terminal du client, le nom de connexion si ce mode
d’identification (Basic access authentication) est encore utilisé, ce qui ne se fait plus guère, la
commande HTTP envoyée, soit GET pour récupérer un objet, soit POST. Chaque ligne correspond à un
hit : sachant qu’une page HTML est souvent constituée de centaines d’objets, ce comptage est
normalement de peu d’intérêt. On préférera se concentrer sur la page contenant ces objets, en comptant
donc les pages vues ou impressions ; mais les techniques de développement de la dernière décennie ont
compliqué les échanges, rendant cet indicateur souvent inopérant. En revanche, la section technique de ce
chapitre montre que le comptage de hits sur un objet particulier, dénommé Web bug ou Web beacon, peut
rendre des services.
Les visites sont déduites de la présence de nombreuses lignes semblant provenir du même terminal
dans un intervalle de temps assez bref. La translation d’adresses (NAT) entrave cette déduction, et a
conduit à l’usage de cookies qui remplace l’authentification basique. On espère alors identifier non
seulement un terminal mais même une session de navigation, ce qui permet de compter les visites
uniques, puis des temps moyens par visite et autres indicateurs. Les services de Web Analytics arrivent à
affiner la structure de ces données et à les réordonner sous forme de clickstreams, ou séquences de
navigation sur le site par visite unique.[56]

[1] Source : Wikipédia.

[2] L’Union européenne tente de pousser ICT pour technologies de l’information et de la communication. Le reste du monde parle d’IT

(Information Technology) et une comparaison sur Google Trends rend un jugement sans appel.
[3] http://www.examiner.com/article/location-based-services-b2b-offer-better-return.

[4] https://www.flickr.com/photos/mountainlight/5606497089/in/photostream/

[5] http://www.remontees-mecaniques.net/bdd/reportage-5042.html

[6]
« Any Real-Time Information or Entity That Influences the Interaction Between Mobile Device Users and Mobile Applications,
as well as Potentially Changes the Preferred Behavior of Those Applications », p29
[7] Règles de confidentialité, https://www.google.com/intl/fr/policies/privacy/key-terms

[8] Le site https://research.nokia.com/page/11367 décrit brièvement cette expérience, probablement une des plus importantes en Europe, et

liste les publications en ayant été tirées. Nous employons dans ce texte quelques résultats de (Do & Gatica-Perez, 2014) mais une
description plus détaillée du dispositif est donnée dans (Laurila et al., 2012).
[9] Selon le vocabulaire Google Analytics, on passe d’un client ID (cid) à un user ID (uid).

[10] Source : Wikipédia.

[11] Y compris dans Windows 8.1, du moins en mode Modern UI.

[12] Des ballons dirigeables pour raccordement Internet des pays pauvres, http://www.google.com/loon/.

[13] Voir le reportage Data Brokers dans l’émission 60’ de CBS News, http://www.cbsnews.com/news/the-data-brokers-selling-your-
personal-information/. Voir aussi l’une de ces firmes sur http://www.beenverified.com.
[14] http://www.googleadservices.com

[15]
« Where you are, who you are with, and what resources are nearby » (Schilit et al., 1994, p85) et, quelques lignes plus haut, « Such
context-aware systems adapts […] to changes to such thing over time ».
[16] Obligation faite à IMB, alors en situation d’hégémonie, de séparer dans sa facturation ce qui relevait du logiciel de la partie matérielle,
en vertu des lois anti-trust alors en vigueur aux USA. Cet épisode est considéré comme ayant permis la création de l’industrie des éditeurs
de logiciels.
[17] http://www.youtube.com/watch?v=ckZalvopRJQ&feature=kp.

[18] http://www.cnet.com/news/tim-berners-lee-on-its-25th-anniversary-the-web-still-needs-work-q-a/.

[19] http://www.01net.com/editorial/604740/visitez-les-jardins-du-chateau-de-versailles-smartphone-en-main/.

[20] http://www.lemonde.fr/economie/article/2013/02/18/des-start-up-a-l-assaut-des-taxis_1834155_3234.html.

[21] Le site correspondant n’affiche plus qu’une page de garde. Cf. http://www.examiner.com/article/girls-around-me-as-a-mirror-of-social-

networking.
[22] http://www.lemondeinformatique.fr/actualites/lire-facebook-abandonne-places-mais-pas-la-geolocalisation-34476.html.

[23] http://www.lepoint.fr/societe/un-systeme-infaillible-pour-compter-les-manifestants-01-05-2014-1818319_23.php.

[24] http://www.club-assureur.com/fr/assurance-auto-pay-as-you-drive-la-controverse.

[25] Librement chargeable sur http://centerformediajustice.org/wp-content/files/WALMART_PRIVACY_.pdf.

[26] http://www.emailretargeting.com/.

[27] Interactive Advertising Bureau (http://www.iab.net/wiki)

[28] Cette partie s’inspire des sites http://www.allaboutcookies.org/ et http://cookiepedia.co.uk/classify-cookies.

[29] Controverses à propos de la neutralité du Net, Cf. http://korben.info/fai-la-strategie-du-pourrissement.html


[30] http://reflets.info/sfr-modifie-le-source-html-des-pages-que-vous-visitez-en-3g/

[31]
Traduction libre de If you don’t have a specific need for the information, don’t collect it in the first place (p. 6).
[32] “Right to be left alone”, in S.D. Warren, L.D. Brandeis, « The right to privacy », Harward Law Review 4 (5) (1890) 193–220.

[33]
http://europa.eu/legislation_summaries/information_society/legislative_framework/l24120_fr.htm
[34] Worse, they might become a case of « responsibilization »—a situation in which individuals are « rendered responsible for a

task which previously would have been the duty of another … or would not have been recognized as a responsibility at all. »
[35] Scarlet Extended vs SABAM, http://eur-lex.europa.eu

[36]
http://www.cil.cnrs.fr
[37] Numéro d’inscription au répertoire, souvent dénommé numéro de Sécurité sociale.

[38] « Directive 95/46/CE » puis « Directive 2002/58/CE du Parlement européen et du Conseil du 12 juillet 2002 concernant le traitement des

données à caractère personnel et la protection de la vie privée dans le secteur des communications électroniques ».
[39] http://www.iab.net/guidelines/compliance_programs.

[40] http://ec.europa.eu/trade/policy/in-focus/ttip/.

[41] Cf. « Google, Amazon, Apple : l’OCDE lance l’offensive », Le Figaro Économie, 21/01/2013.

[42] Cf. « San Francisco », Courrier International, 13/03/2014.

[43] http://www.zdnet.fr/actualites/nouveau-vol-de-donnees-personnelles-pour-les-clients-orange-39800783.htm

[44] Cf. http://www.zdnet.fr/actualites/le-droit-a-l-oubli-nie-victoire-pour-google-ou-aiguillon-pour-l-europe-39791827.htm

[45] http://pro.clubic.com/entreprises/google/actualite-702071-google-moteur-recherche-droit-oubli.html.

[46] Cf. http://www.cnil.fr.

[47]
https://www.blackphone.ch
[48] http://www.clubic.com/antivirus-securite-informatique/actualite-585290-sms-perseus-application-android-messages-indechiffrables.html.

[49] Présentation informelle au SSTIC’14, Symposium sur la sécurité des technologies de l’information et des communications, Rennes,
juin 2014 (https://www.sstic.org/2014/actes/), cf. Hervé Schauer Consultants, Lettre n°119, juillet 2014.
[50] http://forums.adobe.com/message/4278569

[51] http://www.zdnet.com/apps-no-root-your-device-serves-others-berners-lee-7000010661/

[52] http://www.businessinsider.com/google-vinton-cerf-declares-an-end-to-privacy-2013-11

[53] Norme ISO/IEC 7498-1 : 1994, cf. http://www.iso.org/iso/fr/catalogue_detail.htm?csnumber=20269

[54] Source : Wikipédia.

[55] http://ipv6friday.org/blog/2011/12/ipv6-nat/

[56] http://www.lemondeinformatique.fr/actualites/lire-des-malwares-derobent-des-millions-de-donnees-des-caisses-de-target-56253.html
Glossaire

Accéléromètre : micro-capteur destiné à mesurer l’accélération subie par le mobile selon


chacune des trois dimensions de l’espace. La plus importante des accélérations mesurées
est celle liée à la force de gravitation exercée par la Terre. C’est sa mesure qui permet sur
les ordiphones récents de réorienter l’affichage en mode portrait ou paysage selon la
façon dont le mobile est pris en main. En théorie, un système comprenant une masse
attachée à 6 ressorts pourrait constituer un bon accéléromètre mais des raisons de
miniaturisation lui font préférer d’autres technologies.

API (Application Programming Interface) : ensemble de procédures informatiques


permettant à un logiciel d’appeler des fonctions proposées par un autre logiciel. Sur le
Web, le fournisseur d’API est une autre société que l’utilisateur d’API et propose ce
service soit de façon ouverte soit sur une base contractuelle. Google, Facebook, Twitter et
d’autres proposent des API. Il est ainsi facile de concevoir un petit programme qui
récupère les 1000 derniers tweets pour un hashtag donné pour faire une analyse
textuelle ; autrefois c’était grand ouvert, maintenant il faut fournir un identifiant Twitter.

Apps : terme désignant les applications plus ou moins complexes conçues à destination
des terminaux mobiles puis, par extension, aux environnements assez fermés comme
Chrome OS ou l’IHM Modern UI de Windows 8. Les Apps sont disponibles sur un Store.

DNS (Domain Name System) : protocole réalisant la correspondance entre un nom de


domaine, comme www.dunod.com, et l’adresse IP correspondante, 195.81.225.57 lors du
test. Permet aussi une recherche inversée, comme illustrée dans la section sur la
localisation d’un poste raccordé en ADSL.

Feature phone : téléphone mobile limité a priori à sa fonction nominale, à savoir


téléphoner. Cela n’empêche pas la communication de données en dehors de la voix
comme les SMS. La capacité d’utiliser les services GPRS ou d’émettre ou de recevoir des
MMS constitue le trait d’union entre feature phones et smartphones.

FAI (Fournisseur d’Accès Internet), pour ISP (Internet Service Provider). C’est le
prestataire qui assure la liaison entre votre réseau domestique ou d’entreprise et le reste de
l’Internet. Il peut être propriétaire de la liaison physique, câble, fibre ou paire
téléphonique qui vous sépare de son Point de Présence (PoP) le plus proche, ou la louer à
un autre opérateur. Il est seul responsable de cette liaison, des services offerts et des
adresses IP fournies. On parle habituellement de FAI pour l’Internet fixe ou les réseaux
Wifi publics et d’opérateurs pour le cellulaire.

IHM – Interface homme-machine. Traduit par HCI, Human-Computer interface ou


simplement UI pour User Interface : comment permettre à l’utilisateur d’une application
de dialoguer avec cette dernière. L’insistance sur la qualité, l’utilisabilité (usability) et
l’ergonomie de cette IHM font qu’il devient fréquent de traduire ceci par « expérience
utilisateur ».

MAC (Media Access Control) : l’adresse MAC est définie au niveau 2 du modèle OSI et
est attribuée par construction à l’interface réseau du terminal. Elle est obligatoirement
unique sur le réseau, généralement unique au monde et habituellement non modifiable,
du moins par le profane. 63:22:C1:CF:9D:27 est une adresse MAC valide, bien
qu’imaginée, définie sur 96 bits. Les premiers chiffres alphanumériques désignent le
constructeur de l’interface et donc, souvent, celui du terminal.

Magnétomètre : capteur permettant de mesurer le champ magnétique dans lequel le


terminal est plongé. Une boussole est un magnétomètre rustique. Dans un environnement
ordinaire, le magnétomètre va détecter l’orientation du terminal selon les points
cardinaux. En milieu industriel, la présence de masses métalliques et de bobinages gène
cette fonction.

Mashup : application Web ou app mobile dont la réalisation repose sur l’assemblage des
fonctionnalités de deux ou plusieurs applications préexistantes. Un des premiers exemples
fut la superposition des coordonnées de maisons à vendre du site Craig’s List sur les
cartes de Google Maps. Une telle construction suppose que les concepteurs des
applications servant de briques autorisent un tel usage et aient fourni les éléments
techniques (API) nécessaires pour ce faire. C’est le cas avec Google Maps, que l’on
retrouve dans une proportion importante de mashups.

NFC (Near Field Contact) : mode de transmission de données à très courte distance,
typiquement quelques centimètres, par ondes radiofréquences. C’est le principe du «
passe Navigo » de la RATP, avec une carte passive sans contact. Depuis le milieu des
années 2000, au Japon, la plupart des ordiphones incorporent une puce NFC qui permet
un dialogue très rapide avec des dispositifs comme portillons d’accès, terminaux de
paiement… En Europe, la diffusion de ces outils se généralise, mais lentement.

NRA (Nœud de Raccordement d’Abonnés). Dénommé familièrement « central


téléphonique », c’est le local où les paires téléphoniques en provenance des domiciles
desservis sont raccordés aux équipements actifs du réseau de téléphoie fixe et aux
DSLAM ADSL.
Ordiphone : version francisée de l’anglais smartphone, soit la combinaison d’un PDA et
d’un feature phone.

OS (Operating System) : système d’exploitation. L’OS est le logiciel sans lequel le


terminal n’est assemblage de plastiques et métaux divers. Toutes les applications sont
développées avec les kits de développement liées à l’OS et se servent de ce dernier pour
toutes leurs actions.

PDA (Personal Digital Assistant) : selon la liste de caractéristiques de la sous-section


« Terminal » du texte, un PDA est très semblable à un ordinateur si ce n’est qu’il est
mobile, limité tant en calcul qu’en stockage et parfois seulement doté de fonctions de
communication. Objet des années 1990 et 2000, à l’origine des premiers travaux de
services géolocalisés, absorbé par les smartphones.

QR-Code, ou Flash-Code, ou Tag 2D : généralisation du concept du code à barres, sous


forme d’un petit rectangle composé de carrés noir et de carrés blancs codant ce qui doit
l’être. Soit une information apposée sur un objet ou une affiche, que l’ordiphone lira puis
transformera en information exploitable par une application, soit à l’inverse une étiquette
reçue puis affichée à l’écran, et qui sera lue par un automate quelconque, par exemple
pour autoriser un accès. Le QR-Code situé à gauche conduit l’utilisateur sur la page
d’accueil du site de l’éditeur Dunod.
Port : petite portion d’un datagramme UDP ou d’un paquet TCP qui précise à
quelle application le datagramme doit être transmis, assorti comme pour les
adresses IP d’un port de retour. En destination, le port 53 UDP s’adresse à un
serveur DNS, tandis que le port 80 TCP vise un serveur http (Web) en clair et le 443 TCP
le même serveur mais en mode chiffré SSL – TLS.

RFC (Request for Comments) : joue sur l’Internet le rôle d’une norme technique,
représentant le consensus obtenu par l’IETF (Internet Engineering Task Force) auprès
des parties prenantes. Le style en est très contraint, pour éviter toute ambiguïté qui
pourrait conduire à des mises en œuvre incompatibles.

Rooter : les systèmes d’exploitation des trois grands éditeurs fonctionnent en mode
protégé, empêchant l’utilisateur de réaliser certaines actions techniques, au prétexte de
questions de sécurité. Pour installer des applications de gestion fine des droits, comme un
pare-feu local, il faut faire sauter cette protection en remplaçant une petite portion du
système d’exploitation. Dans les mondes Android et Windows Phone, on parle de mode
root en référence à l’administrateur des machines Unix et Linux. Chez Apple, ceci
s’appelle jailbreak ou évasion, tout un programme. Cela rend caduque la garantie
constructeur dans tous les cas. De plus, toute mise à jour de l’OS renvoie à la situation
initiale.

SMS (Short Message Service) : message textuel court transmis en détournant les
protocoles de signalisation qui complètent le transport de la voix chez les téléphonistes
mobiles, le GSM en Europe. Ce message est techniquement limité à 160 caractères, dont
140 utiles ; c’est cette valeur qui a servi à définir la taille des messages Twitter. L’opérateur
SFR avait déposé la marque commerciale texto mais, depuis 2009, ce terme est devenu
générique.

SPoF (Single Point of Failure) : point unique de défaillance. On désigne par ce terme un
équipement ou un logiciel à travers lequel doivent transiter toutes les informations, et
donc dont la défaillance entraîne un arrêt complet de toutes les opérations concernées.
C’est précisément dans l’idée de faire disparaître ces SPoF que la plupart des protocoles
de l’Internet ont été conçus, avec plus ou moins de bonheur.

SSL (Secure Sockets Layer) auquel a succédé TLS (Transport Layer Security) : cf. RFC
2246 & 4347. Mode de communication chiffré entre client et serveur. L’entête du
datagramme reste en clair mais le reste ne peut être analysé en cours d’acheminement.

Store : site Web de diffusion d’applications (Apps) proposées par de multiples


concepteurs ou éditeurs mais contrôlées par une unique société qui propose, moyennant
une dîme, promotion au vendeur et assurance-qualité à l’acheteur. Les Stores sont
habituellement tenus par les éditeurs des OS des terminaux.
Bibliographie

Chapitre 1
ABBATE J. (1999). Inventing the Internet, Cambridge, MIT Press.
ABBATE J. (2010). « Privatizing the Internet: Competing Visions and Chaotic Events, 1987–1995 », IEEE
Annals of the History of Computing, vol. 32, n° 1, pp. 10-22.
ANDERSON C. (2009). La longue traîne, Pearson Education, 2e ed.
ANDERSON C. (2009). Free!, Pearson.
BARBA C., ALARCON P., GRATADOUR J-R., ISAAC H., OUALID P., VOLLE P. (2011). « Le commerce
électronique: évolution ou révolution? », Entreprises et Histoire, 64, p. 167-182.
BERNERS-LEE T. (2000). Weaving the Web, Harper Business.
BOMSEL O. (2010). L’économie immatérielle. Industries et marchés d’expérience, Gallimard.
BOMSEL O. (2007). Gratuit ! Du déploiement de l’économie numérique, Gallimard (Folio Actuel n°
128).
BRETON P. (2000). Le Culte de l’Internet. Une menace pour le lien social ?, La Découverte.
BROUSSEAU E. et CURIEN N. (2007). Internet and Digital Economics, Cambridge University Press.
BRUNTON F. (2013). Spam, A Shadow History of the Internet, Cambridge, MIT Press.
CASTELLS M. (2001). La société en réseaux, Fayard.
CASTELLS M. (2002). La galaxie Internet, Fayard.
CECERRE G., ROCHELANDET F. (2012). « Modèles d’affaires numériques, exploitation des données
personnelles et performances des sites web : une évaluation empirique », Revue Française de
Gestion, vol. 38, 224, 111-124.
CERUZZI P. (2012). « Aux origines américaines de l’Internet : projets militaires, intérêts commerciaux,
désirs de communauté », Le Temps des Médias, n° 18, pp. 15-28.
CRAIN M., « The Revolution will be commercialized: finance, public policy, and the construction of
internet advertising », Thèse soutenue en 2013 à l’Université d’Illinois, USA.
CURIEN N. et MAXWELL W. (2011). La neutralité d’internet. La Découverte.
DELL M. (2000). Le modèle direct. Une stratégie révolutionnaire, Maxima.
DOMINGUEZ G. (2009). « Business models des places de marché électroniques : une taxonomie pour
décrypter leurs enjeux », Systèmes d’Information et Management, 14(2). 39-64.
FAUCILHON J. (2010) Rêveurs, marchands, pirates : que reste-t-il du rêve de l’Internet ?, Le Passager
Clandestin.
FLICHY P. (2001). L’imaginaire d’Internet, La Découverte.
FLICHY P. (1999). « Internet ou la communauté scientifique idéale », in « Internet un nouveau mode de
communication ? », Réseaux, n° 97, vol. 17, pp. 77-120.
GALLEZOT G. et SIMONNOT B. (2009). L’entonnoir. Google sous la loupe des sciences de l’information
et de la communication, C&F Editions.
GAO J., SHENG B., CHANG L. et SHIM S. (2002). « Online Advertising – Taxonomy and Engineering
Perspectives », accessible en ligne à http://www.engr.sjsu.edu
GRISET P. (2010). « L’émergence d’Internet, entre imaginaire universel et réalités américaines », Le
débat, n° 160, p. 133-150.
HAGEL J., ARMSTRONG A. G. (1999). Bénéfices sur le net, Ed. d’Organisation.
ISAAC H., VOLLE P. (2014). E-commerce : de la stratégie à la mise en œuvre opérationnelle, 3e éd,
Pearson Education.
KOTLER (2005). Le marketing selon Kotler – ou comment créer, conquérir et dominer le marché,
Pearson Education.
LASICA J. D., 2006, Darknet : La guerre d’Hollywood contre la génération digitale, M21 éditions.
LEMOINE J. F. (2010). « Les recherches en e-marketing : état des lieux et perspectives », Management et
Avenir, n° 32, pp. 109-112.
LENDREVIE J., LÉVY J. et LINDON D. (2009). Mercator : Théories et nouvelles pratiques du marketing,
Dunod.
LÉVY P. (2000). World Philosophie, Le champ médiologique, Odile Jacob.
LICKLIDER J. C. R., TAYLOR ROBERT W. (1968). « The Computer as a Communication Device », reprinted
from Science and Technology, April.
MALIN E. et PÉNARD T. (2010). Économie du numérique et de l’Internet, Vuibert.
MASSIT-FOLLÉA F. et DELMAS R. (coord). (2002). « La gouvernance d’internet », Les Cahiers du
Numérique, vol. 3, 2.
MASSIT-FOLLÉA F. (2012). « La gouvernance de l’Internet. Une internationalisation inachevée », Le
Temps des Médias, n° 18, pp. 29-40.
MASSIT-FOLLÉA F., MÉADEL C. et MONNOYER-SMITH L. (2012). Normative Experience in Internet
Politics, Presses des Mines.
MASUTTI C. et PALOQUE-BERGES C. (dir.) (2013), Histoires et cultures du libre, Framasoft.
MCLUHAN M. (1968). Pour comprendre les média – les prolongements technologiques de l’homme,
Mame/Seuil.
MORIN-DESAILLY C. (2013). « L’Union européenne, colonie du monde numérique ? », Rapport
d’information n° 443 (2012-2013) fait au nom de la commission des affaires européennes.
MUSIANI F., SCHAFER V. et LE CROSNIER H. (2013). « Net neutrality as an Internet Governance Issue: The
Globalization of an American-Born Debate », Revue française d’études américaines, pp. 47-63.
MUSIANI F. (2012). Nains sans géants. Architecture décentralisée et services Internet, Presses des
Mines.
NAUGHTON J. (1999). A brief history of the future. The origins of the Internet, Londres, Weidenfeld &
Nicolson.
NEGROPONTE N. (1995). L’homme numérique, Robert Laffont.
OCQUETEAU F., VENTRE D. (2011). Contrôles et surveillances dans le Cyberespace, Documentation
française.
PALOQUE-BERGES C. (2012). « La mémoire culturelle d’Internet : le folklore de Usenet », Le Temps des
Médias, dossier « Internet dans l’histoire, Histoire de l’Internet », n° 18, pp. 111-123.
PRAS B. (2012). « Entreprise et vie privée: le « privacy paradox » et comment le dépasser ? », Revue
Française de Gestion, vol. 5, n° 224, pp. 87-94.
PROULX S. (2004). La révolution Internet en question, Québec Amérique.
REBILLARD F. (2012). « La genèse de l’offre commerciale grand public en France (1995-1996) : entre
fourniture d’accès à l’Internet et services en ligne « propriétaires », Le Temps des médias, n° 18,
pp. 65-75.
SCHAFER V. (2012a). « Internet et avant ? », in Letonturier, É. Les réseaux, CNRS Editions, pp. 73-84.
SCHAFER V. (2012b). La France en réseaux (années 1960-1980), Nuvis.
SCHAFER V., Le Crosnier H. (2011). La neutralité de l’Internet, un enjeu de communication, CNRS.
SCHILLER D. (2009). Digital Capitalism: Networking the Global Market System, Cambridge, MIT
Press.
SERRES A. (2000). Aux sources d’internet: l’émergence d’Arpanet, Thèse de Doctorat en Sciences de
l’Information et de la Communication, Université Rennes 2, http://tel.archives-ouvertes.fr/tel-
00312005/
STENGER T., COUTANT A. (2013). « Les sites de réseaux sociaux professionnels au service du marketing :
le cas Viadeo », Communication & Organisation, 43, pp. 283-289.
STENGER T. (2011). « Internet, e-marketing et e-commerce », in Stenger T. et Bourliataux-Lajoinie S., E-
marketing & E-commerce – Concepts, outils, pratiques, Dunod, pp. 9-38.
THIERRY B., SCHAFER V. (2012). Le Minitel, l’enfance numérique de la France, Nuvis.
TURNER F. (2013) Aux sources de l’utopie numérique : De la contre-culture à la cyberculture, Stewart
Brand, un homme d’influence, C&F Editions.
VERNETTE E., DUBOIS P. L. (2001). « Contributions et pistes pour la recherche en « E-marketing » –
editorial », Recherche et Applications en Marketing, vol. 16, 3, pp. 1-8.
VOLLE P. (2011). Marketing : comprendre l’origine historique, MBA Marketing, Editions
d’Organisation, Eyrolles, pp. 23-45.
WIENER N. (1962). Cybernétique et Société, Union Générale d’édition.
WOLTON D. (1999). Internet et après ? Une théorie critique des nouveaux médias, Flammarion.

Chapitre 2
ALLARD L., BLONDIAU O. (2007). 2.O ? Culture Numérique, Cultures Expressives, Médiamorphoses, n
° 21.
ALLOING C. (2013). Processus de veille par infomédiation sociale pour construire l’e-réputation d’une
organisation – Approche par agents-facilitateurs appliquée à la DSIC de La Poste. Thèse de Doctorat,
Université de Poitiers.
AMINE A., SITZ L., (2007). Émergence et structuration des communautés de marque en ligne, Décisions
Marketing, n° 46, pp. 63-75.
ARNOULD E. J. et WALLENDORF M. (1994). Market-oriented ethnography: interpretation building and
marketing strategy formulation, Journal of Marketing Research, 31, November, pp. 484-504.
BADOT O., CARRIER C., COVA B., DESJEUX D., FILSER M., (2009): « L’ethnomarketing : un élargissement
de la recherche en comportement du consommateur à l’ethnologie » ; Recherche et Applications en
Marketing, vol. 24, n° 1/2009, 13, pp. 93-111.
BALAGUÉ C., DEVALCK K. (2013). « Using Blogs for Soliciting Consumer Feedback: The Role of
Directive Questioning Versus No Questioning », Journal of Interactive Marketing 27, pp. 62-73.
BENAVENT C. (2011). « Management de la relation client à l’ère digitale », in Stenger T., Bourliataux-
Lajoinie S. (coord.). E-marketing & E-commerce – Concepts, outils, pratiques, Dunod, pp. 39-62.
BENGHOZI P.-J. (2006). « Communauté virtuelle : structuration sociale ou outil de gestion ? »,
Entreprises et Histoires, n° 43, juin, pp. 67-81.
BERNARD Y. (2004). La netnographie : une nouvelle méthode d’enquête qualitative basée sur les
communautés virtuelles de consommation, Décisions Marketing, 36, 49-62.
BERNHOFF, J. AND LI C. (2008). « Harnessing the Power of the Oh-So-Social Web », MIT Sloan
Management Review, Vol. 49, n° 3, pp. 36-42.
BOULLIER D. (2012b). « L’attention : un bien rare en quête de mesures », Sciences de la société, 87,
pp. 129-145.
BOUQUILLION P., MATTHEWS J. T. (2010). Le web collaboratif. Mutations des industries de la culture et
de la communication, PUG.
BOURDAA M. (2013). « Le transmedia storytelling », Terminal, 112.
BOYD D., CRAWFORD K. (2012). « Critical Questions for Big Data: Provocations for a Cultural,
Technological, and Scholarly Phenomenon », Information, Communication & Society, 15, pp. 662-
679.
BOYD D., ELLISON N. (2007). « Social Network Sites: Definition, History, and Scholarship », Journal of
Computer-Mediated Communication, vol. 13, n° 1.
BOYD, DANAH (2008). Taken Out of Context – American Teen Sociality in Networked Publics, Doctoral
Dissertation, University of California, Berkeley: School of Information.
BRETON P. (2000). Le culte de l’Internet. Une menace pour le lien social ?, La Découverte.
BROWN, J., BRODERICK, A. J., et LEE, N. (2007). « Word of mouth communication within online
communities: Conceptualizing the online social network ». Journal of Interactive Marketing,
21(3):2-20.
CARDON D. (2008). Le design de la visibilité. Un essai de cartographie du web 2.0, Réseaux, 152/6,
pp. 93-137.
CASTELLANO S. & DUTOT V. (2013). Une analyse de l’e-réputation par analogie ou contraste avec la
reputation: une approche par les medias sociaux. Revue Française du Marketing, 23, 3/5, pp. 35-51.
CASTELEYN J., MOTTART A. et RUTTEN K. (2009). How to use Facebook in your market research,
International Journal of Market Research, 51, 4, pp. 439-447.
CHO C.-H, CHEON H. J. (2004). Why do people avoid advertising on the Internet, Journal of
Advertising, 33, 4, pp. 89-97.
COCHOY F. (2004). La captation des publics. C’est pour mieux te séduire, mon client… Toulouse,
Presses universitaires du Mirail.
COOKE, M., AND BUCKLEY, N. (2008). Web 2.0, Social Networks and the Future of Market Research.
International Journal of. Market Research 50(2), 2008, pp. 267-292.
COUTANT A., STENGER T. (2010). « Processus identitaire et ordre de l’interaction sur les réseaux
socionumériques », Les enjeux de l’information et de la communication, août, pp. 45-64.
COUTANT A., STENGER T. T. (2011). « Activités ordinaires et mise en scène de soi sur les réseaux
socionumériques », Réél-Virtuel, 2, (en ligne).
COUTANT A., STENGER T. (2012). « Les médias sociaux : une histoire de participation », Le Temps des
médias, 1, 18, avril, pp. 76-86.
COVA B. (1995). Au-delà du marché : quand le lien importe plus que le bien, L’Harmattan.
COVA B., SHANKAR A. et KOZINETS R. V. (2007). Consumer Tribes: Theory, Practice and Prospects,
Oxford, Elsevier.
DE CERTEAU M. (1980). L’invention du quotidien, t 1, Les arts de faire, UGE.
DELLAROCAS C. (2003). « The Digitization of Word-of-Mouth: Promise and Challenges of Online
Reputation Systems », Management Science, vol. 10, n° 49, pp. 1407-1424.
DEIGHTON J., FADER P., HAENLEIN M., KAPLAN A. M., LIBAI B., MULLER E. (2011). « Médias sociaux et
entreprise, une route pleine de défis : Commentaires invités », Recherche et Applications en
Marketing, 26, 3, pp. 117-124.
DESBIEY O. (2011). « Utiliser les médias sociaux pour réaliser une veille productive : Twitter un réseau
pas comme les autres », Hermès, CNRS Editions, n°59.
DESJEUX D. (1997). L’ethnomarketing, une approche anthropologique de la consommation : entre
fertilisation croisée et purification scientifique, Revue UTINAM, 21-22 (Mars), L’Harmattan, pp. 111-
147.
DUMAZERT J.-P. et LEMOINE L. (2010). Relation client et mondes virtuels : quelles variables culturelles
explicatives de la performance de la fonction commerciale sur les MMOGs ?, Management et
Avenir, 31, 1, pp. 190-208.
DUTOT V. (2013). A New Strategy for Customer Engagement: How Do French Firms Use Social CRM?
International Business Research, Vol 6., n° 9, pp. 54-67.
FALKINGER J. (2007). « Attention economies », Journal of Economic Theory, n° 133, pp. 266-274.
FLICHY P. (2001). L’imaginaire d’Internet, La Découverte.
FÜLLER J., MÜHLBACHER H., MATZLER K., JAWECKI G. (2010). « Consumer Empowerment Through Internet-
Based Co-creation », Journal of Management Information Systems, vol. 26, n° 3, pp. 71–102.
Füller J. G., Jawecki G. et Mühlbacher H. (2007). Innovation creation by online basketball
communities, Journal of Business Research, 60, 1, pp. 60–71.
Füller J., Jawecki G., Mühlbacher H. (2007). Développement de produits et services en coopération
avec des communautés en ligne, Décisions Marketing, 48, pp. 47-58.
GENSOLLEN M. (2006). « Des réseaux aux communautés : la transformation des marchés et des
hiérarchies », in Proulx S., Poissant L. et Sénécal M. (dir)., Communautés virtuelles : penser et agir
en réseau, Presses de l’Université de Laval, pp. 107-132.
GENSLER S., VÖLCKNER F., LIU-THOMPKINS Y., WIERTZ C. (2013). Managing brands in the social media
environment, Journal of Interactive Marketing, vol. 27, Issue 4, Nov., p. 242-256.
GIESLER M. et POHLMANN M. (2003). The anthropology of file sharing: consuming Napster as a gift,
Advances in Consumer Research, 30, pp. 273-279.
GODES D. et D. MAYZLIN. (2004). Using online conversations to study word-of-mouth communication,
Marketing Science, 23, 4, pp. 545-60.
GREENBERG P. (2010). The impact of CRM 2.0 on customer insight. Journal of Business & Industrial
Marketing, 25(6), 410–419.
HAENLEIN M., KAPLAN A. M. (2009). « Les magasins de marques phares dans les mondes virtuels :
l’impact de l’exposition au magasin virtuel sur l’attitude envers la marque et l’intention d’achat dans
la vie réelle », Recherche et Applications en Marketing, vol. 24, n° 3, pp. 57-80.
HEINDERYCKX F. (2011). « Obama 2008 : l’inflexion numérique », Hermès, Ed. CNRS, n° 59.
HELME-GUIZON A., MAGBONI F. (2013). « Les marques sont les amies sur Facebook : vers une typologie
de fans basée sur la relation à la marque et le sentiment d’appartenance », Revue Française du
Marketing, 243, 3/5, pp. 23-34.
HENNIG-THURAU, T., MALTHOUSE, E. C., FRIEGE, C., GENSLER, S., LOBSCHAT, L., RANGASWAMY, A., & SKIERA,
B. (2010). The Impact of New Media on Customer Relationships. Journal of Service Research,
13(3), pp. 311–330.
HETZEL P. (2004). Le marketing relationnel, PUF.
HINE C. (2005). Virtual methods. Issues in Social Research on the Internet, Berg.
HINE C. (2000). Virtual Ethnography (2000), London, Sage.
HOFFMAN D., NOVAK T., STEIN R. (2013). « The digital consumer », in The Routledge Digital
Consumption, Routledge, pp. 28-38.
ITO M., dir. (2010). Hanging Out, Messing Around, and Geeking Out: Kids Living and Learning with
New Media. The MIT Press.
JENKINS H. (2006). Convergence Culture: Where Old and New Media Collide, New York University
Press.
JENKINS H. (2006). Fans, Bloggers, and Gamers: Exploring Participatory Culture, New York
University Press.
JONES, B., TEMPERLEY, J., & LIMA, A. (2009). Corporate reputation in the era of Web 2.0: the case of
Primark. Journal of Marketing Management, 25, 9-10, 927-939.
KAPFERER J-N. (1987). Rumeurs. Le plus vieux média du monde, Seuil.
KAPLAN A. M., HAENLEIN M. (2011). « Editorial – Les médias sociaux sont définitivement devenus une
réalité », Recherche et Applications en Marketing, 26, 3, pp. 3-5.
KELLY L., KERR G. et DRENNAN J. (2010). Avoidance of advertising in social networking sites : the
teenage perspective, Journal of Interactive Advertising, 10, 2, pp. 16-27.
KESSOUS E., MELLET K., ZOUINAR M. (2010). « L’économie de l’attention : entre protection des
ressources cognitives et extraction de la valeur », Sociologie du Travail, 52, pp. 359-373.
KIM, A. J., & KO, E. (2011). Do social media marketing activities enhance customer equity? An
empirical study of luxury fashion brand. Journal of Business Research, 65, 10, pp. 1480-1486.
KOZINETS R. V. (2009). Netnography – doing ethnography research online, Sage.
KOZINETS R. V., HEMETSBERGER A., SCHAU H. J. (2008). « The Wisdom of Consumer Crowds. Collective
Innovation in the Age of Networked Marketing », Journal of Macromarketing, vol. 28, n° 4, pp. 339-
354.
KOZINETS R. V., VALCK (DE) K., WOJNICKI A. C., WILNER S. J. S. (2010). « Networked Narratives:
UnderstandingWord-of-Mouth Marketing in Online Communities », Journal of Marketing, vol. 74,
pp. 71–89.
KOZINETS R. V. (2002). « The Field Behind the Screen: Using Netnography for Marketing Research in
Online Communities », Journal of Marketing Research, 39, February, pp. 61-72.
LANCELOT-MILTGEN C. (2011). « Vie privée et marketing. Étude de la décision de fournir des données
personnelles dans un cadre commercial », Réseaux, 167, pp. 131-166.
LAROCHE M., HABIBI M. R., & RICHARD M-O. (2013). To be or not to be on social media: How brand
loyalty is affected by social media?. International Journal of Information Management, 33, pp. 76-
82.
LE CAM F. (2010). « Histoires et filiations du terme ‘weblog’ (1992-2003). Perspectives pour penser
l’histoire de certaines pratiques sur le web », Les Enjeux de l’Informaton et de la Communication,
avril.
LELONG B., GAYOSO E. (2010). « Innovation avec l’usager et plateformes collaboratives. Des modes
d’engagement hétérogènes », Réseaux, 164, pp. 97-126.
LEVY P. (1994). L’intelligence collective. Pour une anthropologie du cyberespace, La Découverte.
MAC ALEXANDER J. H., SCHOUTEN J. W., KOENIG H. F. (2002). « Building brand community », Journal of
Marketing, vol. 66, n° 1, pp. 38-54.
MANARA C., et ROQUILLY C. (2011). Le risque d’érosion du capital-marque sur les médias sociaux :
efficacité et limites des instruments juridiques, Recherche et Applications Marketing, 26, 3, pp. 93-
115.
MATTELART, A. (1999). Histoire de l’utopie planétaire. De la cité prophétique à la société globale, La
découverte.
MÉSANGEAU J. (2014). « Articuler graphes et représentations d’utilisateurs d’un réseau
socionumérique », Sciences de la société, 91.
METIU A. (2008). « L’ethnographie virtuelle : reconstituer le contexte des interactions en ligne »,
Libellio d’AEGIS, vol. 4, n°1, pp. 39-43.
MELLET K. (2009). « Aux sources du marketing viral », Réseaux, vol. 27, n°157/158, pp. 267-292.
MOINET N., Deschamps C. (2011). La boite à outils de l’intelligence économique, Dunod.
MUNIZ A. M. J., HAMER L. O. (2001). « Us versus them: oppositional brand loyalty and the cola wars »,
Advances in Consumer Research, n° 28, pp. 355-361.
MUNIZ A. M. J., O’GUINN T. C. (2001). « Brand community », Journal of Consumer Research, vol. 27,
n° 4, pp. 412-432.
MUNIZ A.M. JR. et SCHAU H.J. (2005). Religiosity in the abandoned Apple Newton brand community,
Journal of Consumer Research, 31, 4, pp. 737–47.
O’REILLY, T. pp. (2005). « What is Web 2.0 ? », en ligne : http://www.oreillynet.com
PARMENTIER G., ROLLAND S. (2009). « Les consommateurs des mondes virtuels : construction identitaire
et expérience de consommation dans Second Life », Recherches et Applications en Marketing, vol.
24, n° 3, pp. 43-55.
PASQUIER D. (2014). « Évaluations profanes. Le jugement en ligne », Réseaux, 183.
PETERS K., CHEN Y., KAPLAN A. M., OGNIBENI B., PAUWELS K. (2013). Social Media Metrics — A
Framework and Guidelines for Managing Social Media, Journal of Interactive Marketing, Vol. 27,
Issue 4, Nov., pp. 281-298.
POYNTER, R. (2008). « Facebook: the Future of Networking with Customers », International Journal of
Market Research, 50 (1).
PROULX S., POISSANT L., SÉNÉCAL M. (2006). Communautés virtuelles : penser et agir en réseau, Laval,
Presses Université Laval.
RAÏES K., GAVARD-PERRET M-L. (2012). « Intention de fidélité à la marque des participants à une
communauté virtuelle de marque : le rôle dual de l’engagement », Recherche et Applications en
Marketing, 26, 3, pp. 23-44.
RAMPNOUX O., LA VILLE (DE) I. (2011). « À quoi tu joues sur Facebook », Hermès, CNRS Editions, n
° 59.
REBILLARD F. (2007). Le web 2.0 en perspective, L’Harmattan.
RHEINGOLD H. (1993). The Virtual Community: Homestanding on the Electronic Frontier, Addislon-
Wesley.
SCHAU, H. J., & GILLY, M. C. (2003). We Are What We Post? Self-Presentation in Personal Webspace.
Journal of Consumer Research, 30, pp. 385–404.
SCHAU H. J., MUÑIZ A. M., ARNOULD J. (2009). « How Brand Community Practices Create Value »,
Journal of Marketing, vol. 73, pp. 30–51.
SIMON H. (1971). « Designing Organizations for an Information-Rich World », In Greenberger Martin,
Computers, Communication, and the Public Interest, Baltimore, The Johns Hopkins Press.
SINGH S., SONNENBURG S. (2012). Brand Performances in Social Media, Journal of Interactive
Marketing, vol. 26, 4, pp. 189-197.
SPIGGLE S. (1994). Analysis and interpretation of qualitative data in consumer research, Journal of
Consumer Research, 21, 3, 491-503.
STENGER T. (2011). « La prescription ordinaire : dynamique de l’action collective sur réseaux
socionumériques », Hermès, CNRS Editions, n° 59.
STENGER T. (2014). « Social media and online reputation management as practice », International
Journal of Technology and Human Interaction, vol. 10.
STENGER T., COUTANT A. (2009). « La prescription ordinaire de la consommation sur les réseaux
socionumériques : De la sociabilité en ligne à la consommation ? », 14e Journées de Recherche en
Marketing de Bourgogne, Dijon, 12-12 novembre [en ligne].
STENGER T., COUTANT A. (2010). « Les réseaux sociaux numériques : des discours de promotion à la
définition d’un objet et d’une méthodologie de recherche », Hermes – Journal of Language and
Communication Studies, 44, february [en ligne]
STENGER T., COUTANT A. (coord.), (2011). « Les réseaux socionumériques », Hermès, CNRS Editions, n
° 59.
STENGER T., COUTANT A. (2011). « Community management : Cheval de Troie marketing pour le web
social ? », 79e congrès de l’ACFAS – Web social, communautés virtuelles et consommation, 11 mai,
Université de Sherbrooke.
STENGER T., COUTANT A. (2013). « Médias sociaux : clarification et cartographie – Pour une approche
sociotechnique », Décisions Marketing, 70, pp. 107-117.
STENGER T., COUTANT A. (2013). « Les sites de réseaux sociaux professionnels au service du marketing :
le cas Viadeo », Communication & Organisation, 43, pp. 283-289.
SUROWIECKI J. (2008). La Sagesse des foules, Jean-Claude Lattès.
TAPSCOTT D, WILLIAMS A. D. (2006). Wikinomics: How Mass Collaboration Changes Everything,
Portfolio: New York.
TCHUENTE D. et al. (2011). « Pour une approche interdisciplinaire des TIC : le cas des réseaux
socionumériques », Document Numérique, vol. 14, 1, pp. 31-57.
THOMPSON C. J. (1997). Interpreting consumers : a hermeneutical framework for deriving marketing
insights from the texts of consumers’ consumption stories, Journal of Marketing Research, 34,
November, pp. 438-455.
TÖNNIES F. (1922). Communauté et société. Catégories fondamentales de la sociologie pure, Presses
universitaires de France.
TRAINOR, K. J. (2012). Relating Social Media Technologies to performance: a capabilities-based
perspective, Journal of Personal Selling & Sales Management, 32(3), pp. 317–331.
TURKLE S. (1996). Les enfants de l’ordinateur, Denoël.
VERNETTE E., TISSIER-DESBORDES E. (2012). « Editorial : Le repérage marketing des influenceurs dans
les réseaux sociaux : des dangers de l’ignorance aux risques de l’à peu près… », Décisions
Marketing, 67, pp. 5-9.
VOLLE P. (2012). Stratégie clients : Points de vue d’experts sur le management de la relation client,
Pearson.
VON HIPPEL E. (2001). « Innovations by users communities : learning from open-source softwares »,
Sloan Management Review, n° 42, pp. 82-86.
WOLF K., ARCHER C. (2012). « Shifting online: An exploratory study into PR consultants’ attitude
towards new media », PLATFORM: Journal of Media and Communication, 4(1), 91103.

Chapitre 3
BARRETO. (2012). « Inclusão digital: uma análise de dados a partir de redes bayesianas», in: CGI.
Comité de Gestion de l’Internet (CGI) – « Survey on the Use of Information and Communication
Technologies – Households and Enterpreises 2012 ». http://www.cetic.br/publicacoes/2012/tic-
domicilios-2012.pdf
GUZZI. (2010). « Web e participação: a democracia no século XXI ». São Paulo: Senac.
HOFSTEDE, « International Studies of Management & Organization », Vol. 10, n° . 4, Organizations and
Societies (Winter, 1980/1981), pp. 15-41.
Holbrook, HIRSHMANN. (1982). « The experiential aspects of consumption: consumer fantasies, feeling
and fun », Journal of Consumer Research, vol. 9, n° 2, pp. 1-9.
Instituto de Pesquisa Econômica Aplicada. (2010). « Análise e recomendações para as políticas
públicas de massificação de acesso à internet em banda larga ». Comunicado Ipea no. 46. Brasília :
Ipea.
KITOVA O. V. (2013). « Evolution of Internet marketing and social media ». Marketing And Marketing
Research, n° 6, pp. 482-483.
KOTLYAROV I. D. (2011). « Models of consumer behavior ». Modern Economy: Problems and Solutions.
n° 4. pp. 71-82.
KRAYNOV A.L. (2013). « Influence of e-commerce on Russian economy ». Economy: Yesterday, Today
and tomorrow. n° 3-4, pp. 55-68.
NERI. (2011). « A Nova Classe Média: o lado brilhante da base da pirâmide ». São Paulo: Saraiva.
NERI. (2012). « Mapa da Inclusão Digital ». Rio de Janeiro : FGV.http://www.cps.fgv.br/cps/telefonica/
PINHO. (2011). « Sociedade da informação, capitalismo e sociedade civil: reflexões sobre política,
Internet e democracia na realidade brasileira ». IN: RAE, vol. 51, nº 1, jan./fev. pp. 22-38.
STRAUB, LOCH, EVARISTO, KARAHANNA, STRITE, (2002). « Toward a theory based measurement of culture »,
Journal of Global Information Management, 10 (1).
TYCHKOVA T. V. (2008). « Information Culture and Personality ». Saratov: New wind, 84 p.
TYCHKOVA T. V. (2010). « Particularity of information education humanities students. Russian Scientific
and Practical », Conference « Information technology in comprehensive education ». Saratov,
pp. 172-176.
ZEMSKOVA A. V. (2013). « Determinants of the shopping on the internet », Internet marketing, n° 5,
pp. 302-307.

Chapitre 4
BAGOZZI R. (1975). « Marketing as exchange », Journal of Marketing, vol. 39, pp. 32-39
BAUMOL, W. J, BOWEN W. G. (1966), Performing Arts: The Economic Dilemma, The Twentieth Century
Fund.
BERRY M. J. A. (2001) Data Mining Techniques: For Marketing, Sales, and Customer Relationship
Management, Wiley.
Davis, F. D., Bagozzi, R. P., Warshaw, P. R. (1989) « User Acceptance of Computer Technology: A
Comparison of Two Theoretical Models ». Management Science, 35, 1989, pp. 982-1003.
FUCHS, C., PRANDELLI E., SCHREIER M. (2010). « The Psychological Effects of Empowerment Strategies
on Consumers’ Product Demand. ». Journal of Marketing. 74, n° 1, pp. 65-79.
GIBSON, J. J. (1979). The Ecological Approach to Visual Perception. Houghton Mifflin.
GODIN, S. (1999). Permission Marketing: Turning Strangers into Friends, and Friends into
Customers. Simon & Schuster.
GRÖNROOS C. (1994). « From Marketing Mix to Relationship Marketing: Towards a Paradigm Shift in
Marketing », Management Decision, 32-2.
KAPLAN D. (2010) Informatique, libertés, identités, Fyp-Fing.
MORGAN, N., REGO, L. (2006). « The Value of Different Customer Satisfaction and Loyalty Metrics in
Predicting Business Performance ». Marketing Science, 25(5), pp. 426-439.
NEWMAN M., D. WATTS, A.-L. BARABÁSI (2006). The Structure and Dynamics of Networks, Princeton
University Press.
NORMAN, D. A. (1988). The Psychology of Everyday Things. Basic Books.
REICHHELD, Frederick F. (1996). The Loyalty Effect, Harvard Business School Press (Revised 2001).
REINARTZ, W., THOMAS, J., & KUMAR, V. (2005). « Balancing Acquisition and Retention Resources to
Maximize Customer Profitability ». Journal of Marketing, 69(1), pp. 63-79.
RICCI F., ROKACH L., SHAPIRA B., KANTOR P. B. (2010) Recommender Systems Handbook, Springer.
RUST, R. T., ZEITHAML V. A., LEMON K. N., (2000) Driving Customer Equity: How Customer Lifetime
Value is Reshaping Corporate Strategy, The Free Press
STROUD, N. J O M I N I (2010) « Polarization and Partisan Selective Exposure », Journal of
Communication, Sep, vol. 60, Issue 3, pp. 556-576.
SUROWIECKI, J. (2004). The Wisdom of Crowds: Why the Many Are Smarter Than the Few and How
Collective Wisdom Shapes Business, Economies, Societies and Nations Little, Brown.
TORKEL K. (2009). The overflowing brain: information overload and the limits of working memory,
Oxford University Press.
VARIAN A. et SHAPIRO (1998). « Information Rules A Strategic Guide to the Network Economy », Havard
Business Press.
WATTS D., PERETTI J. (2007). « Viral Marketing for the Real World », Harvard Business Review, May.
WATTS D., PERETTI J.(2007). « Viral Marketing for the Real World. », Harvard Business Review.
WU, JIMING et LEDERER, Albert (2009). « A meta-analysis of the rôle of Environnement-based
Voluntariness in Information Technology Acceptance », MIS Quaterly, vol. 33, N02 pp. 419-432.
Chapitre 5
ANDERSON, C. (2008). The End of Theory: The Data Deluge Makes the Scientific Method Obsolete.
Wired, 3.
Antéblian B., Filser M. et Roederer C. (2013). « L’expérience du consommateur dans le commerce de
détail. Une revue de littérature », Recherche et Applications Marketing, Numéro Spécial Shopping
Experience et E-shopping Experience, 28, 3, pp. 84-113.
ARIELY, D., LYNCH, J. G. Jr., and APARICIO, M. IV (2004) « Learning by Collaborative and Individual-
Based Recommendation Agents », Journal of Consumer Psychology, 14, 1&2, pp. 81-94.
BADOT O. et LEMOINE J-F. (2013), Editorial : du paradigme dichotomique de l’expérience d’achat au
paradigme ubiquitaire, Recherche et Applications en Marketing, 28, 3, pp. 3-13.
BART Y., VENKATESH S., FAREENA S., GLEN L. U. (2005). « Are the Drivers and Role of Online Trust the
Same for All Web Sites and Consumers? A Large-Scale Exploratory Empirical Study », Journal of
Marketing, Oct., 69, 4, pp. 133-152.
BELK R. W., LLAMAS R. (Ed.), The Routledge companion to digital consumption, Routledge.
BELVAUX B. (2006), « Du E-commerce au multi-canal. Les différentes implications d’internet dans le
processus d’achat du consommateur », Recherche Française du Marketing, 209, 4/5, Octobre,
pp. 49-68.
BERGER, J., SCHWARTZ, E. M. (2011). « What drives immediate and ongoing word of mouth? » Journal of
Marketing Research, 48(5), 869-880.
BERGER J., MILKMAN K. L. (2012). « What makes online content viral ? », Journal of Marketing
Research, 49 (2), pp. 192-205.
BERGER, J., IYENGAR R. (2013). « Communication Channels and Word of Mouth: How the Medium
Shapes the Message », Journal of Consumer Research, 40, 3, pp. 567-579.
BERTRANDIAS, L., VERNETTE, É. (2012). « Que valent les communications interpersonnelles ? Calibrage
interpersonnel des connaissances et sélection des sources de conseil », Recherche et Applications en
marketing, 27(1), pp. 33-57.
BRESSOLLES, G. (2006). « La qualité de service électronique : NetQual. Proposition d’une échelle de
mesure appliquée aux sites marchands et effets modérateurs », Recherche et Applications en
Marketing, 21 (3), pp. 19-45.
CHAKRAVARTY A., LIU Y., MAZUMDAR T. (2010). « The Differential Effects of Online Word-of-Mouth and
Critics’ Reviews on Pre-release Movie Evaluation », Journal of Interactive Marketing, 24, 3, 185.
CHEVALIER, J. A. et MAYZLIN D. (2006). « The Effect of Word of Mouth on Sales: Online Book
Reviews », Journal of Marketing Research, 43(3): 345-354.
DANAHER P. J., WILSON I. W. et DAVIS R. A. (2003). « A comparison of online and offline consumer
brand loyalty », Marketing Science, 22, 4, pp. 461-476.
DARKE P. R., BENEDICKTUS R. L., BRADY M.K. (2013). « Consumer (dis)trust online, in Belk R. W.,
Llamas R. (Ed.) », The Routledge companion to digital consumption, Routledge, pp. 404-414.
DEGERATU A. M., RANGASWAMY A., WUB J. (2000). « Consumer choice behavior in online and traditional
supermarkets: The effects of brand name, price, and other search attributes », International journal
of Research in Marketing, 17, pp. 55-78.
DELLAROCAS C. (2003). « The digitization of word of mouth : promise and challenges of online feedback
mechanisms », Management Science, vol. 49, october, pp. 1407-1424.
DELLAROCAS Chrysantos et RITU Narayan (2006). « Statistical measure of a population’s propensity to
engage in post-purchase online word-of-mouth », Statistical Science, vol. 21, february, pp. 277-285.
DHAR V., CHANG E. A. (2009). « Does Chatter Matter? The Impact of User-Generated Content on Music
Sales », Journal of Interactive Marketing, nov., vol. 23, 4, 300.
DIEHL, K., KORNISH, L. J., and LYNCH, J. G. Jr. (2003). « Smart Agents: When Lower Search Costs for
Quality Information Increase Price Sensitivity », Journal of Consumer Research, 30, 1, pp. 56-71.
FLAVIAN C., GUINALIU M. et GURREA R. (2005). « The role played by perceived usability, satisfaction and
consumer trust on website loyalty », Information & Management, 43, pp. 1-14.
GALLEN C. et CASES A-S. (2007). « Le rôle du risque perçu et de l’expérience dans l’achat de vin en
ligne », Décisions Marketing, 45, janvier-mars, pp. 56-74.
GARNIER, M. et PONCIN I. (2013). « L’avatar en marketing : synthèse, cadre intégrateur et perspectives »,
Recherche et Applications en Marketing, 28 (1), pp. 92-123.
GODES D. et MAYZLIN D. (2004). « Using online conversations to study word-of-mouth communication »,
Marketing Science, vol. 23, April, pp. 545-560.
GOLDBERG, D. E., NICHOLS, D., OKI, B. M., & TERRY, D. (1992). Using collaborative filtering to weave
an information tapestry. Communications of the ACM, 35(12), pp. 61-70.
GOLDSMITH R. E. et HOROWITZ D. (2006). « Measuring Motivations for Online Opinion Seeking. »,
Journal of Interactive Advertising, 6, 2, pp. 1-16.
GUPTA A., SU B-C. et WALTER Z. (2004). « An empirical study of consumer switching from traditional to
electronic channels: A purchase-decision process perspective », International Journal of Electronic
Commerce, 8, 3, pp. 131-161.
HÄUBL, G., et MURRAY, K. B. (2006). « Double agents: Assessing the role of electronic product
recommendation systems ». MIT Sloan Management Review, 47 (3), pp. 8-12.
HÄUBL, G., & MURRAY, K. B. (2003). « Preference construction and persistence in digital marketplaces:
The role of electronic recommendation agents ». Journal of Consumer Psychology, 13 (1), pp. 75-
91.
HÄUBL, G., et TRIFTS, V. (2000). « Consumer Decision Making in Online Shopping Environments: The
Effects of Interactive Decision Aids, » Marketing Science, 19, 1, pp. 4-21.
HATCHUEL A. (2010). « Activité marchande et Prescription : A quoi sert la notion de marché ? », in
Hatchuel et al., L’activité marchande sans le marché ? Colloque de Cerisy, pp. 159-179.
HATCHUEL A. (1995). « Les marchés à prescripteurs », in Verin H. et Jacob A., L’inscription sociale du
marché, L’Harmattan, pp. 205-225.
HEITZ-SPAHN S. et FILSER M. (2014). « La place de l’enseigne dans les trajectoires d’achat des clients en
contexte multi-canaux », Décisions Marketing, 74, avril-mai, pp. 21-36.
HENNIG-THURAU T., GWINNER K. P., WALSH G., GREMLER D. G. (2004). « Electronic word-of-mouth via
consumer-opinion platforms: What motivates consumers to articulate themselves on the Internet? »,
Journal of Interactive Marketing; Winter; 18, 1; pp 38-53.
HERLOCKER, J. L., KONSTAN, J. A., TERVEEN, L. G., & RIEDL, J. T. (2004). « Evaluating Collaborative
Filtering Recommender Systems ». ACM Transactions on Information Systems, 22(1), pp. 5-53.
HOFFMAN D. L., NOVAK T. P. (1996). « Marketing in Hypermedia Computer-Mediated Environments:
conceptual foundations », Journal of Marketing, July, pp. 50-68.
HOFFMAN D. L., NOVAK T. P. (2009). « Flow online: Lessons learned and future prospects », Journal of
Interactive Marketing, 23, 1, February, pp. 23-34.
HOLZWARTH, M., JANISZEWSKI, C., NEUMANN, M. M. (2006). « The influence of avatars on online
consumer shopping behavior », Journal of Marketing, 70 (4), pp. 19–36.
ISAAC H. et VOLLE P. (2014), E-commerce – De la stratégie à la mise en œuvre opérationnelle,
Pearson, 3e éd.
JANNACH, D., ZANKER, M., FELFERNIG, A., & FRIEDRICH, G. (2010). Recommender Systems: An
Introduction. Cambridge University Press.
KOZINETS R. V., DE VALCK K., WOJNICKI A. C. et Wilner Sarah J. S. (2010). « Networked Narratives:
Understanding Word-of-Mouth Marketing in Online Communities », Journal of Marketing, 74,
March, pp. 71-89.
LAZARSFELD P, BERELSON B., GAUDET H. (1944). The People’s Choice. How the Voter Makes up his
Mind in a Presidential Campaign, New York, Columbia University Press.
LEMOINE J-F., NOTEBAERT J-F. (2011). « Agent virtuel et confiance des internautes vis-à-vis d’un site
web », Décisions Marketing, 61, pp. 47-53.
LINDEN, G. D., SMITH, B., & YORK, J. (2003). Amazon.com Recommendations: Item-to-Item
Collaborative Filtering. IEEE Internet Computing, 7(1), pp. 76-80.
LOVETT, M., PERES, R., SHACHAR, R. (2013). On brands and word-of-mouth. Journal of Marketing
Research, 1(47), pp. 17-29.
LYNCH J. G., ARIELY D. (2000). « Wine online: search costs and competition on price, quality, and
distribution », Marketing Science, 19, 1.
MATHWICK C. et RIGDON E. (2004). « Play, Flow and the Oline Search Experience », Journal of
Consumer Research, 31, 2, pp. 324-332.
MICHAUD-TRÉVINAL A., STENGER T., (2014a). « Toward a Conceptualization of the Online Shopping
Experience », Journal of Retailing and Consumer Services, 21, 3, pp. 314-326.
MICHAUD-TRÉVINAL A., STENGER T., (2014b). « L’expérience de shopping en ligne chez les jeunes de 18-
20 ans. », in Stenger T., Digital natives et consommation, EMS.
MURRAY, H. (2009). « Personalization without interrogation: Towards more effective interactions
between consumers and feature-based recommendation agents », Journal of Interactive Marketing,
23 (2), pp. 138-146.
PAPADOPOULOU P., PANAGIOTIS K., DRAKOULIS M. (2003). « Designing Electronic Commerce Environments
on Trust-Building Principles », Systèmes d’Information et Management, vol. 8, n° 3.
RATCHFORD B. T., MYUNG-SOO L., DEBABRATA T. (2003), « The Impact of the Internet on Information
Search for Automobiles », Journal of Marketing Research, 40 (May), pp. 193-209.
RESNICK, P., & VARIAN, H. R. (1997). Recommender Systems. Communications of the ACM, 40(3), pp.
56-58.
RICCI, F., ROCKACH, L., & SHAPIRA, B. (EDs.). (2011). Recommender Systems Handbook: Springer.
ROEDERER C. (2012). « Contribution à l’expérience de consommation : émergence des dimensions de
l’expérience au travers des récits de vie » Recherche et Applications Marketing, 27, 3, pp. 81-95.
SEN S. et LERMAN D. (2007). « Why are you telling me this? An examination into negative consumer
reviews on the Web », Journal of Interactive Marketing, 21, 4, p. 76.
SENECAL, S., and NANTEL, J. (2004). « The Influence of Online Product Recommendations on Consumers’
Online Choices », Journal of Retailing, 80, pp. 159-169.
SHANKAR V., SMITH A. K., RANGASWAMY A. (2003). « Customer satisfaction and loyalty in online and
offline environments », International Journal of Research in Marketing, 20, pp. 153-175.
SMITH D., SATYA M. and SIVAKUMAR K. (2005). « Online Peer and Editorial Recommendations, Trust, and
Choice in Virtual Markets » Journal of Interactive Marketing, 19 (3), pp. 15–37.
STENGER T. (2007). « Prescription et interactivité dans l’achat en ligne », Revue Française de Gestion,
n°172, avril, pp. 131-144.
STENGER T. (2006). « La prescription dans le commerce en ligne : proposition d’un cadre conceptuel
issu de la vente de vin par Internet », Revue Française du Marketing, n° 209, octobre, pp. 71-85.
STENGER T. (2006). « Origines et évolutions de l’interactivité dans la littérature Marketing : de
l’information à l’aide à la décision », XXIIe Congrès de l’Association française de Marketing, 11-12
mai, Nantes.
STEYER A., GARCIA-BARDIDIA R. et QUESTER P. (2007). « Modélisation de la structure sociale des groupes
de discussion sur Internet : implications pour le contrôle du marketing viral », Recherche et
Applications en Marketing, 22, 3, pp. 29-44.
TUFFÉRY, S. (2012). Data Mining et statistique décisionnelle. L’intelligence des données, 4e éd.,
Technip.
VERNETTE E., FLORES L. (2004). « Communiquer avec les leaders d’opinion en marketing. Comment et
avec quels médias ? », Décisions Marketing, 35, pp. 23-37.
VOLLE P. (2000). « Du marketing des points de vente à celui des sites marchands : spécificités,
opportunités et questions de recherche », Revue Française du Marketing, 177/178, pp. 83-100.
WAN Y, FASLI M. (coord.), (2010). « Special Issue: Comparison-shopping and related recommender
intelligent agents », Journal of Electronic Commerce Research, vol. 11, n° 3.
WATTS D., DODDS P. S. (2007). Influentials, Networks, and Public Opinion Formation, Journal
Consumer Research, 34, pp. 441-458.
WEISS, S. M., INDURKHYA, N., ZHANG, T., & DAMERAU, F. J. (2005). Text Mining: Predictive Methods for
Analyzing Unstructured Information, 2e éd. Springer.
XIAO, B., & BENBASAT, I. (2007). « E-commerce product recommendation agents: use, characteristics,
and impact ». MIS Quarterly, 31(1), pp. 137-209.

Chapitre 6
BOURLIATAUX-LAJOINIE S. (2000). « Marketing et Internet : le cas de l’e-publicité », Revue Française de
Gestion, 2000.
FULGONI, GIAN (2013). « Big Data: Friend or Foe of Digital Advertising? Five Ways Marketers Should
Use Digital Big Data to Their Advantage. », Journal of Advertising Research. Dec 2013, vol. 53
Issue 4, pp. 372-376.
HALL B. F. (2004). « On Measuring The Power of Communications », Journal of Advertising Research,
vol. 44 Issue 2, pp. 181-187.
HARRISON D. (2010). « Overlays Can Get Users’ Attention More Subtly Than Intrusive Pop-Ups », New
Media Age, March 2010, p. 13.
HUSSHERR F.X. et ROSANVALLON J. (2001). Tirer profit d’Internet, le 6e média et plus encore, Dunod.
HUSSHERR F.X., BALAGUE C. et ROSANVALLON J. (2007)., Dix ans d’aventure Internet, une révolution à
venir, Jacob-Duvernet.
JACKSON T.W. (2007). « Personalisation and CRM » Journal of Database Marketing & Customer
Strategy Management, Oct. 2007, Vol. 15 Issue 1, pp. 24-36.
JEONG Y. et KING C. M. (2010). « Impacts of Website Context Relevance on Banner Advertisement
Effectiveness », Journal of Promotion Management, 2010, vol. 16 Issue 3, pp. 247-264.
LOHTIA R., DONTHU N. et YAVEROGLU I. (2007). « Evaluating The Efficiency of Internet Banner
Advertisements », Journal of Business Research, Apr. 2007, vol. 60 Issue 4, pp. 365-370.
MCCOYS., EVERARD A., POLAK P. et GALLETA D.F. (2007). « The Effects of Online Advertising »,
Communications of the ACM, Mar. 2007, vol. 50 Issue 3, pp. 84-88.
MÖLLER J. et EISEND M. (2010). « Cultural and Individual Antecedents of Banner Advertising
Effectiveness », Journal of International Marketing, 2010, vol. 18, N° 2, pp. 80-98.
PERUGINI S. (2010). « Personalization by Website Transformation : Theory and Practice », Information
Processing & Management, May 2010, vol. 46 Issue 3, pp. 284-294.
TAYLOR F. et HAE-KYONG B. (2006). « Use and Effectiveness of Billboards », Journal of Advertising,
2006, vol. 35 Issue 4, pp. 21-34.
TERLUTTER, R., CAPELLA, ML. (2013). « The Gamification of Advertising: Analysis and Research
Directions of In-Game Advertising, Advergames, and Advertising in Social Network Games. »,
Journal of Advertising. 2013, vol. 42, Issue 2/3, pp. 95-112. 18p
TIANYI J. et TUZHILIN A. (2009). « Improving Personalization Solutions through Optimal Segmentation of
Customer Bases », IEEE Transactions on Knowledge & Data Engineering, Mar. 2009, vol. 21 Issue 3,
pp. 305-320.
ZACKARIASSON P., WÅHLIN N. et WILSON L. (2010). « Virtual Identities and Market Segmentation in
Marketing in and Through Massively Multiplayer Online Games (MMOGs) », Services Marketing
Quarterly, vol. 31, Issue 3, pp. 275-295.

Chapitre 7
BOLTANSKI L., THÉVENOT L. (1991). De la justification. Les économies de la grandeur, Gallimard.
BOURLIATAUX-LAJOINIE S., STENGER T. (2011), « Nommer et référencer un site Web marchand », in T.
Stenger et S. Bourliataux-Lajoinie (dir.), E-marketing et e-commerce : concepts, outils, pratiques,
Dunod, 2011, pp. 187-214.
CARDON D. (2013) « Dans l’esprit du PageRank. Une enquête sur l’algorithme de Google », Réseaux, n°
177, pp. 63-95.
DESBIEY O. (2011). « La veille technologique à l’ère des médias sociaux : content de ce que génèrent
les utilisateurs : le cas Twitter », Hermès, n° 59, pp. 147-149.
DOMENGET J-C., MICHEL J-L. (2014). « Le métier de référenceur est-il pérenne et légitime en
communication ? », in V. Lépine et M. D. David, Entre réflexif et prescriptif : analyse des dispositifs
d’apprentissage et de formation des communicateurs, Les Cahiers du Resiproc, n° 2.
FARCHY J., MEADEL, C., « Moteurs de recherche et référencement : chassez le naturel », Hermès, n° 66,
2013, pp. 147-154.
HAON C., PATEL, C. (2011). « Création de trafic, expérience de navigation et performance commerciale :
que nous apprennent les 500 plus importants sites marchands américains », Systèmes d’information
et management, vol. 16, n° 4, pp. 9-36.
IHADJADENE M., CHAUDIRON S. (2008). « Quelles analyses de l’usage des moteurs de recherche »,
Questions de communication, 14, pp. 17-32.
ISCKIA T. (1999). « Les techniques de référencement et de promotion d’un site Web », Systèmes
d’information et management, vol. 4, n° 3, pp. 53-70.
SIMONNOT B. (dir.) (2008). « Moteurs de recherche : usages et enjeux », Questions de communication,
14.
SIMONNOT B., GALLEZOT G. (dir.) (2009). L’entonnoir: Google sous la loupe des sciences de
l’information et de la communication. C&F Éditions.

Chapitre 8
BALTAS, G. (2003). « Determinants of Internet Advertising Effectiveness: An Empirical Study »,
International Journal of Market Research, 45 (4), pp. 505-513.
BHAT, S., BEVANS M., et SENGUPTA S. (2002). « Measuring Users’ Web Activity to Evaluate and Enhance
Advertising Effectiveness », Journal of Advertising, 31 (3), pp. 97-106.
BELVAUX B. et FLORÈS L. (2010). « L’utilisation des « proxies » du web pour la prédiction des marchés.
Une application au marché cinématographique. » Décisions Marketing, 57, pp. 9-18.
BERNARD Y. (2004). « La netnographie : une nouvelle méthode d’enquête qualitative basée sur les
communautés virtuelles de consommation. » Décisions Marketing, 36, pp. 49-62.
BÔ D (2009). Le Book des études Online 2009, livre blanc QualiQuanti.
BOUCHER A. (2009). Ergonomie Web : pour des sites web efficaces, Eyrolles.
BRESSOUD E., CARRICANO M. (2009). « Le bruit et le buzz: quelle pertinence pour l’analyse de données
secondaires de l’internet ? », Actes du Congrès de l’Association Française du Marketing, Londres,
14-15 mai 2009.
BUGHIN J., LIVINGSTON J. et MARWAHA S. (2011). Seizing the potential of ‘big data’, McKinsey Quarterly,
October.
DAHAN E., SRINIVASAN (2000). « The predictive power of Internet-based product concept testing using
visual depiction and animation », Journal of Product Innovation Management, 20, 17, pp. 99-109.
DAHAN E., HAUSER J. R. (2001). « The Virtual Customer », Journal of Product Innovation Management,
19, 5, (September), 332-354 Day G. (1994), « The capabilities of market driven organizations »,
Journal of Marketing, 58, 4 (October), pp. 37-52.
DAVENPORT T. (2013). « How P&G Presents Data to Decision-Makers », HBR Blog.
DAVENPORT T. et PATIL D. J. (2014). « Data Scientist: The Sexiest Job of the 21st Century », Harvard
Business Review, October, pp. 70-76.
DEUTSKENS E., DE RUYTER K., WETZELS M. et OOSTERWELD P. (2003). « Response rate and response
quality of Internet-based surveys: an experimental study », Marketing Letters, 15, 1, pp. 21-36.
DHOLAKIA, U., MORWITZ V. (2002). « The scope and persistence of mere-measurement effects: evidence
from a field-study of customer satisfaction measurement », Journal of Consumer Research, 29 Sept,
pp. 159-167.
DION D. (2007). « Les apports de l’anthropologie visuelle à l’étude des comportements de
consommation », Recherche et Applications Marketing, 22, 1, pp. 61-78.
DRÈZE, X. et HUSSHERR F.-X. (2003). « Internet advertising: Is anybody watching? », Journal of
Interactive Marketing, 17, 4, pp. 8-23.
ESOMAR. (2012), Guidelines for Conducting Mobile Research, Esomar World Research Codes and
Guidelines, October.
FLORÈS, L. (2003). « Technology can help us improve our value proposition », Esomar News Brief, Feb.
FLORÈS L. (2005A). « Générer des nouvelles idées grâce à Internet : un exemple d’application pour le
repositionnement d’un produit », Revue Française du Marketing, Septembre. 4/5(204), pp. 57-69.
FLORÈS L., VOLLE P. (2005B), « Potentiel relationnel et Impact du site de marque sur la performance
marketing, Décisions Marketing, 40, Oct-Déc, pp. 39-50.
FLORÈS L. (2008a). « Web 2.0 : des études de marché ayant du répondant ! » Décisions Marketing, 50,
pp. 79-82.
FLORÈS L. (2008B). « Web 2.0 et études de marché : vers une nouvelle génération d’études de
marché ? » Revue Française de Marketing, 220, 5/5, pp. 7-16.
FULLER, J., JAWECKI, G., MUHLBACHER, H. (2007), « Développement de produits et services en
coopération avec des communautés en ligne », Décisions Marketing, 48, Octobre-Décembre, pp. 47-
58.
GALAN J. P., VERNETTE E. (2000). « Vers une 4e génération : les études de marché on-line », Décisions
Marketing, pp. 19-52.
GAUZENTE C. (2010). « The Intention to Click on Sponsored Ads – A Study of the Role of Prior
Knowledge and of Consumer Profile », Journal of Retailing and Consumer Services, 17-6, pp. 457-
63.
GOLDBERG, D. E. (2002), The Design of Innovation: Lessons from and for Competent Genetic
Algorithms, MA: Kluwer Academic Publishers.
GROVER V., TENG J., SEGARS A. H., FIEDLER K., (1998). The influence of information technology diffusion
and business process change on perceived productivity: the IS executive’s perspective, Information
and Management, 34, 3, pp. 141-159.
HOLLIS N. (2005). Ten years of learning of how online advertising builds brands, Journal of
Advertising Research, June, pp. 255-268.
KAPLAN A. M., HAENLEIN M., (2010). Users of the world, unite! The challenges and opportunities of
social media, Business Horizons, 53, Issue 1, pp. 59-68.
KOZINETZ R.V. (2002). The Field behind the screen: using netnography for marketing research in online
communities, Journal of Marketing Research, 39, February, pp. 61-72.
MANFREDA K.L., BOSNJAK M., BERZELAK J., HAAS I. et VEHOVAR V. (2008). Web surveys versus other
survey modes: A meta-analysis comparing response rates, International Journal of Market
Research, 2008, 50 Issue 1, pp. 79-104.
MCAFEE A., et BRYNJOLFSSON E. (2012). Big Data: the management revolution, Harvard Business
Review, October.
PAVLOU, P. A. et STEWART D. W. (2000). « Measuring the Effects and Effectiveness of Interactive
Advertising: A Research Agenda », Journal of Interactive Advertising, 1 (1), 1-22.
PENTLAND A. S. (2103). « The Data Driven Society », Scientific American, 79, October, pp. 78-83.
SCHILLEWAERT N., DE RUYCK T. et VERHAEGHE A. (2009). ‘Connected research’. How market research can
get the most out semantic web waves, International Journal of Market Research, 51, 1, pp. 11-27.
TOUBIA O., HAUSER J. R., DUNCAN I. SIMESTER (2004). Polyhedral Methods for Adaptive Choice-Based
Conjoint Analysis, Journal of Marketing Research, 41, 1, pp. 116-131.
TOUBIA O. et FLORÈS L. (2007). Adaptive Idea Screening with consumers, Marketing Science, 26, 3,
pp. 1–19.
WARREN J. et MALO N. (2010). Web analytics, Mesurer le succès et maximiser les profits de votre site
web, Eyrolles.
WEE T. T. T. (2001). The use of marketing research and intelligence in strategic planning : key issues
and future trends, Marketing Intelligence & Plannning, 19, 4, pp. 245-253.
WITTES SCHLACK J., et JENNINGS M. (2007). « From Research to Relationship: Using Communities to
Gain Entree Into Customer Conversations », Communispace White Paper, Boston.

Chapitre 9
ACQUISTI A., ADJERID I., & BRANDIMARTE, L. (2013). Gone in 15 Seconds: The Limits of Privacy
Transparency and Control. IEEE Security & Privacy, pp. 73-74.
ANDERSON C., & WOLFF M. (2010). The Web Is Dead. Long Live the Internet. Wired, 1-11.
ANDERSON J., & RAINIE L. (2014). Digital Life in 2025 (pp. 61). Washington, DC: Pew Internet &
American Life.
BARNES S. J. (2003). Location-Based Services. e-Service Journal, 2(3), 59-70.
BELK M., PAPATHEOCHAROUS E., GERMANAKOS P., & SAMARAS G. (2013). « Modeling users on the World
Wide Web based on cognitive factors, navigation behavior and clustering techniques », Journal of
Systems and Software, 86(12), pp. 2995-3012.
CENTER FOR MEDIA JUSTICE. (2013). « Consumers, Big Data, and Online Tracking in the Retail Industry:
A Case Study of Walmart » (pp. 30). Oakland, CA: Center for Media Justice.
DE MONTJOYE Y.-A., HIDALGO, C. A., VERLEYSEN, M., & BLONDEL, V. D. (2013). « Unique in the Crowd:
The privacy bounds of human mobility ». Scientific Reports, 3, 1-5. doi:10.1038/srep01376
DO T. M. T., & GATICA-PEREZ, D. (2014). « Where and what: Using smartphones to predict next
locations and applications in daily life ». Pervasive and Mobile Computing, 12(0), pp. 79-91.
DOBSON J. E., & FISHER P. F. (2003). Geoslavery. IEEE Technology & Society Magazine, 22(1), 47.
DONGSONG Z., ADIPAT B., & MOWAFI Y. (2009). « User-Centered Context-Aware Mobile Applications –
The Next Generation of Personal Mobile Computing », Communications of the Association for
Information Systems, 24, pp. 27-46.
FOX S., & RAINIE L. (2014). The Web at 25 in the U.S. Pew Internet & American Life.
FTC. (2013). Marketing Your Mobile App: Get It Right From the Start, Federal Trade Commission,
pp. 1-8.
FTC Staff Report. (2009). « Self-Regulatory Principles For Online Behavioral Advertising: Tracking,
Targeting, & Technology », Federal Trade Commission pp. 1-55.
FU, H., YANG, Y., SHINGTE, N., LINDQVIST, J., & GRUTESER, M. (2014). A Field Study of Run-Time
Location Access Disclosures on Android Smartphones. Paper presented at the USEC’14, Workshop
on Usable Security, San Diego, CA. http://www.usecap.org/usec14.html
G9+, & RENAISSANCE NUMÉRIQUE. (2013). « Les nouveaux eldorados de l’economie connectée » (pp. 54).
Paris: Institut G9+.
GAO T., ROHM A. J., SULTAN F., & PAGANI M. (2013). « Consumers un-tethered: A three-market empirical
study of consumers’ mobile marketing acceptance. », Journal of Business Research, 66(12),
pp. 2536-2544.
GOLDFARB A., & TUCKER, C. E. (2011). « Economic and Business Dimensions Online Advertising,
Behavioral Targeting, and Privacy. », Communications of the ACM, 54(5), 25-27.
GREENWALD G. (2014). No Place to Hide: Edward Snowden, the NSA, and the U.S. Surveillance State.
NY: Metropolitan Books.
GSMA Intelligence, & Boston Consulting Group. (2013). Mobile Economy Europe 2013, GSMA, p.
136.
HANSEN M., BERLICH P., CAMENISCH, J., CLAUß, S., PFITZMANN, A., & WAIDNER, M. (2004). « Privacy-
enhancing identity management. », Information Security Technical Report, 9(1), pp. 35-44.
HENTTU H., IZARETL J.-M., & POTERE D. (2012). « Geospatial Services: A $1.6 Trillion Growth Engine
for the U.S. Economy » MA: Boston Consulting Group.
HOSBOND J. H., & SKOV, M. B. (2007). « Micro mobility marketing: Two cases on location-based
supermarket shopping trolleys. », Journal of Targeting, Measurement & Analysis for Marketing,
16(1), 68-77.
IMPERVA (2011). Web Application Attack Report, Redwood Shores.
JAI T.-M., BURNS L. D., & KING N. J. (2013). « The effect of behavioral tracking practices on
consumers’ shopping evaluations and repurchase intention toward trusted online retailers. »,
Computers in Human Behavior, 29(3), pp. 901-909.
KEITH M. J., THOMPSON, S. C., HALE, J., LOWRY, P. B., & GREER, C. (2013). « Information disclosure on
mobile devices: Re-examining privacy calculus with actual user behavior. » International Journal of
Human-Computer Studies, 71(12), pp. 1163-1173.
KUEHN A. (2013). « Cookies versus clams: clashing tracking technologies and online privacy. », Info,
15(6), pp. 19-31.
LAURILA J. K., GATICA-PEREZ D., AAD, I., BLOM J., BORNET O., DO T. M. T., MIETTINEN M. (2012). « The
Mobile Data Challenge: Big Data for Mobile Computing Research ». Lausanne: Nokia Reseach
Center.
LORENZI D., VAIDYA J., CHUN S., SHAFIQ B., & ATLURI, V. (2014). « Enhancing the government service
experience through QR codes on mobile platforms. », Government Information Quarterly, 31(1), 6-
16.
MALANDRINO D., & SCARANO V. (2013). « Privacy leakage on the Web: Diffusion and countermeasures. »,
Computer Networks, 57(14), 2833-2855.
MARTIN E., VINYALS O., & FRIEDLAND G. (2010). Precise Indoor Localization Using Smart Phones.
Paper presented at the MM’10, Firenze.
MATTHEW J., SARKER, S., & VARSHNEY, U. (2004). « M-Commerce Services: Promises and Challenges. »,
Communications of the AIS, 2004(14), pp. 1-11.
MICHAEL K., & CLARKE, R. (2013). « Location and tracking of mobile devices: Überveillance stalks the
streets. », Computer Law & Security Review, 29(3), » pp. 216-228.
MIKIANS, J., GYARMATI, L., ERRAMILLI, V., & LAOUTARIS, N. (2012, october 29–30, 2012). Detecting price
and search discrimination on the Internet. Paper presented at the Hotnets, 12, Seattle, WA.
MOBASHER B., COOLEY, R., & SRIVASTAVA, J. (2000). « Automatic Personalization Based on Web Usage
Mining. », Communications of the ACM, 43(8), pp. 142-151.
PEPPERS, D., & ROGERS, M. (1993). The One to One Future – Building Relationships One Customer at
a Time: Doubleday.
PERERA C., ZASLAVSKY, A., CHRISTEN, P., & GEORGAKOPOULOS, D. (2014). « Context Aware Computing for
The Internet of Things: A Survey. », Communications Surveys & Tutorials, IEEE, 16(1), pp. 414-
454.
PFEIFFER E. W., & JOHNSTONE, B. (2003). WhereWare. Technology Review, 106(7), pp. 46-52.
RAINIE L., KIESLER, S., RUOGU, K., & MADDEN, M. (2013). « Anonymity, Privacy, and Security Online. »,
Washington, Pew Internet & American Life.
ROCHELANDET F. (2010). Économie des données personnelles et de la vie privée. La Découverte.
ROCKHOLD J. (2001). « The Business of Where », Wireless Review, 18(18), 14.
SCHILIT B., ADAMS, N., & WANT, R. (1994). Context-Aware Computing Applications. Paper presented at
the Proceedings of the 1994 First Workshop on Mobile Computing Systems and Applications.
SCHILLER J., & VOISARD, A. (Eds.). (2004). Location-Based Services: Morgan Kaufmann.
SCHMIDT A., BEIGL, M., & GELLERSEN, H.-W. (1998). « There is more to Context than Location »,
Computers & Graphics, 23, pp. 893-901.
SUCH J. M., GARCIA-FORNES A., & BOTTI, V. (2013). « Automated buyer profiling control based on human
privacy attitudes. », Electronic Commerce Research and Applications, 12(6), pp. 386-396.
TALASILA, M., CURTMOLA, R., & BORCEA, C. (2014). « Collaborative Bluetooth-based location
authentication on smart phones. », Pervasive and Mobile Computing(0).
TOUBIANA V., & NISSENBAUM, H. (2011). Analysis of Google Logs Retention Policies. Journal of Privacy
and Confidentiality, 3(1), pp. 3-26.
VALENTINO-DEVRIES J., SINGER-WINE J., & SOLTANI, A. (2012). « Websites Vary Prices, Deals Based on
Users’ Information. », The Wall Street Journal, 7.
ZHAO, L., LU, Y., & GUPTA, S. (2012). « Disclosure Intention of Location-Related Information in
Location-Based Social Network Services. », International Journal of Electronic Commerce, 16(4),
pp. 53-90.

Webographie
Institutions et associations
Association française pour le nommage Internet en coopération (AFNIC) : www.afnic.fr
Association de l’économie numérique (ACSEL) : www.acsel.asso.fr
Commission nationale de l’informatique et des libertés (CNIL) : www.cnil.fr
Fédération du e-commerce et de la vente à distance (FEVA) : www.fevad.com
Fondation Internet Nouvelle Génération (FING) : www.fing.org
Internet Engineering Task Force (IETF): www.ietf.org
Internet Corporation for Assigned Names and Numbers (ICANN): www.icann.org
Internet Governance Forum (IGF): http://www.intgovforum.org/cms/
International Telecommunication Union (ITU) : http://www.itu.int
Internet Society : www.isoc.org
Secrétariat d’Etat chargé de la Prospective et du Développement de l’Economie Numérique :
http://www.prospective-numerique.gouv.fr/
World Wilde Web Consortium (W3C): www.W3.org

Statistiques et presse spécialisée
ComScore : www.comscore.com et http://www.comscore.com/fre pour une version partielle en
français
InternetActu : www.internetactu.net
InternetWorldStats : http://www.internetworldstats.com
Journal du Net : http://www.journaldunet.com/chiffres-cles.shtml
Médiamétrie : http://www.mediametrie.fr et en particulier http://www.mediametrie.fr/internet avec
Mediamétrie eStat, l’Observatoire des usages Internet et le panel Médiamétrie/Netratings
Nielsen : site français http://fr.nielsen.com/site/index.shtml ; voir en particulier Nielsen NetRatings
TNS Sofres : http://www.tns-sofres.com et en particulier http://www.tns-sofres.com/expertises-
sectorielles/e-business/
Union Internationale des Télécommunications : http://www.itu.int/en/ITU-
D/Statistics/Pages/stat/default.aspx
MANAGEMENT SUP

MARKETING-COMMUNICATION
10 Cas de Marketing, 2013
C. GARCIA, J.-L. MARTINEZ
Comportements du consommateur, 3e éd., 2012
D. DARPY, C. PINSON
e-publicité, 2011
J.-M. DECAUDIN, J. DIGOUT
e-marketing & e-commerce, 2011
OUVRAGE COLLECTIF
Le marketing de l’innovation, 2e éd., 2011
E. LE NAGARD-ASSAYAG, D. MANCEAU, C. PINSON
Le Marketing participatif 2.0, 2011
R. DIVARD
Le Marketing 3.0, 2011
S. MAYOL
Market, 4e éd., 2009
B. PRAS, E. ROUX, Y. EVRARD
Market-Driven Management, 2012
J.-J. LAMBIN, I. SCHUILING
Marketing, 6e, 2010
D. LINDON, F. JALLAT
Marketings contextuels, 2008
M. HLADY RISPAL
Marketing des services, 2014
P. GABRIEL, R. DIVARD, M. LE GALL-ELY, I. PRIM ALLAZ
Marketing direct, 3e éd., 2005
D. DESMET
Marketing Research, 2006
A. JOLIBERT, P. JOURDAN
Marketing stratégique et opérationnel, 9e édition, 2014
J.-J. LAMBIN, C. DE MOERLOOSE
Marketing : 10 Cases Studies, 2013
C. GARCIA, J.-L. MARTINEZ
Index

A
access panels généralistes [1]
Access Panels Online [1]
advergames [1]
affiliation [1]

B
BAIDU [1]
bannière vidéo [1]
bannières [1]
bêta de Morgernztein [1]
big data [1]
billboard [1]
bouclier d’or [1], [2]
Brésil [1], [2]
BRIC [1]

C
call-back [1]
capping [1]
Chine [1], [2]
CMS [1]
codes QR [1]
CPC [1]
CPM [1]

D
device [1]
display [1]
duplicate content [1]
E
étude qualitative online [1]
étude quantitative online [1]
expend banner [1]
eye-tracking [1]

F
feature phone [1]
fichier XML [1]
fichiers CSS [1]
flash transparent [1]

G
géolocalisation [1]
Google Adwords [1]
GRP [1]

H
hors display [1]
HTML5 [1]
Huawei [1]

I
Inde [1], [2]
indicateurs de trafic sur le site [1]
indicateurs publicitaires [1]
in-game advertising [1]
in-text [1]
interface homme-machine ou IHM [1]

L
liens croisés [1]
logs [1]
M
mesure de la répétition [1]

N
netlinking [1], [2]
netnographie [1], [2]

O
one to few [1]
one to one [1]
out of the box [1]

P
panel ciblé ou spécialisé [1]
panel représentatif [1]
pavé [1]
pop-up [1]
publicité intrusive [1]
puce RFID [1]

R
recommender system [1]
Russie [1], [2]

S
SEA [1]
SEM [1]
SEO [1]
SERP [1]
skyscraper [1]
Slide-in [1]
streaming [1]

T
TaoBao [1]
taux de clics [1]
taux de couverture [1]

W
Webométrie [1]

Y
Yandex [1]

Z
ZTE xolo [1]

Vous aimerez peut-être aussi