Vous êtes sur la page 1sur 782

By

4$
$|
\/|
By
4$
$|
\/|
By
4$
$|
\/|
Sommaire
Avant-propos

Introduction

Première partie. Réflexions préalables à l'étude


Chapitre 1. Cadrage de l’étude

Chapitre 2. Études préparatoires

Chapitre 3. Projet d’étude \/|


$|
4$

Deuxième partie. Approche qualitative


By

Chapitre 4. Investigation par entretien individuel

Chapitre 5. Investigation par interactions en groupe

Chapitre 6. Investigation par observation

Chapitre 7. Techniques de recherche et d’interprétation du sens

Troisième partie. Approche quantitative


Chapitre 8. Échantillonnage

Chapitre 9. Construction du questionnaire

Chapitre 10. Administration du questionnaire

Chapitre 11. Analyses de base


Chapitre 12. Tests statistiques

Chapitre 13. Analyses d’association et de dépendance

Chapitre 14. Analyses multivariées

Chapitre 15. Expérimentation et modélisation en marketing

Conclusions et recommandations
Présentation du rapport d’étude et mise en œuvre

Annexes
Bibliographie générale

Index
\/|
$|
4$
By
Avant-propos
Positionnement
Le positionnement n’a pas varié depuis la première édition de cet ouvrage, parue en 1995 : être le
manuel de référence des étudiants qui suivent un cursus marketing faisant appel aux études de
marché, tout en étant le support indispensable des professionnels des études.
Le domaine couvert est vaste et complexe. Pour traiter le sujet, trois approches étaient
envisageables :
• L’approche du généraliste, centrée sur une description rapide des principales techniques.
• L’approche du spécialiste, fondée sur une présentation approfondie des méthodes indispensables à
une bonne maîtrise du domaine.
• L’approche du chercheur, reposant sur une analyse exhaustive et minutieuse des outils et
\/|
démarches d’études disponibles à ce jour.
$|
Nous avons délibérément opté pour une perspective de spécialiste, pour combler le vide qui existe
4$

entre les ouvrages d’introduction aux études de marché, forcément sommaires, et ceux orientés vers
la recherche, plus proches de préoccupations académiques.
By

Nous y avons ajouté un regard pragmatique : faire une étude de marché, c’est nécessairement
réaliser des compromis, compte tenu du budget, de la pression du temps et des exigences du client.
Nous nous attacherons à dégager les points forts et les limites des techniques, à formuler des
recommandations simples pour faciliter leur mise en œuvre. Nous souhaitons aussi faciliter
l’appropriation des résultats par les clients en montrant, pas à pas, comment formuler un bon projet
et comment interpréter les résultats d’une étude de marché.

Objectifs
Notre objectif majeur est de donner au lecteur un bagage méthodologique solide et une maîtrise
réelle du domaine des études, de façon à :
• Être capable de choisir la technique d’étude la plus adéquate, selon la nature du problème posé et
en fonction du coût et des difficultés de mise en œuvre.
• Pouvoir réaliser de bout en bout une démarche complète d’étude, depuis l’identification du
problème, en passant par la collecte et le traitement des données, jusqu’à la présentation et la mise
en œuvre du rapport d’étude.
• Savoir négocier avec un institut d’études de marché, bien gérer l’appel d’offres et comprendre les
recommandations formulées.
Notre volonté est d’atteindre ces objectifs en gardant un langage accessible au plus grand nombre,
mais sans transiger sur la nécessaire rigueur qui s’impose pour toute démarche d’étude sérieuse.

Cibles visées
À qui est plus particulièrement destiné cet ouvrage ? Notre positionnement le destine
prioritairement à trois types de publics :
• Les élèves des écoles de management et les étudiants des universités/IAE.
• Les chargés d’études en entreprise ou en institut.
• Les managers Marketing d’entreprise ou d’administration et les acheteurs d’études.

Une quatrième édition actualisée pour suivre l’évolution du marché des études
La troisième édition de ce manuel datait de 2012. Si nous ne souhaitons pas inonder le marché en
proposant de trop fréquentes mises à jour, plus proches d’un suivi de modes passagères que d’un
véritable progrès dans l’appréhension ou la compréhension des marchés et des comportements
d’achat, il est clair que, depuis cette date, l’environnement marketing et le monde des études ont
encore évolué. La pénétration de plus en plus massive d’Internet et des réseaux sociaux en ligne
obligent à remettre en cause certaines méthodes. Par ailleurs, de nouveaux instruments d’étude et de
\/|
nouvelles technologies digitales sont apparus. Enfin, les préoccupations en matière de coûts et les
$|
exigences des managers, confrontés à l’immédiateté et à l’urgence de la décision, modifient les
4$

enjeux pour les chargés d’études.


L’ambition de cette quatrième édition consiste à rendre compte de l’ensemble des évolutions du
By

métier et du contexte, tout en respectant le positionnement initial de l’ouvrage. Les modifications


apportées sont d’une double nature :
• Sur la forme, nous avons repris l’ensemble des chapitres afin de rendre encore plus accessibles
les passages les plus techniques. De nombreux exemples et études de cas ont été ajoutés ou
complétés.
• Sur le fond, nous avons mis à jour tous les chapitres comprenant des éléments soumis à la
pression du temps et à l’évolution des techniques, notamment l’ensemble des données relatives au
marché des études.
Introduction
Lundi, 8 heures 30. M. Moyen s’informe des nouvelles du jour.
Quoi de neuf ce matin ? « 50 % des Français trempent leurs tartines le matin dans le café au lait »,
« La cote de popularité du Premier ministre a baissé de 3 points », « 32 kilos de nourriture et
15 litres de boissons sont stockés en moyenne par chaque Français », « L’indice CAC 40 évolue
entre 3 000 et 5 000 points selon les prévisions économiques ». Que faut-il penser de tout cela ?

Lundi, 10 heures 30. Une journée de Mme Moyenne.


Mme Moyenne, citoyenne inconnue mais « représentative de la population française âgée de plus de
18 ans » est vaguement irritée par la troisième lettre de relance du « questionnaire-concours » de la
société BVI-MILSEN ; d’autant que le prochain coup de sonnette n’est pas un vendeur
\/|
d’aspirateurs, mais un enquêteur de l’institut IDSOS pour « le » sondage du jour (« Rassurez-vous,
il n’y en a que pour 5 minutes ») ; heureusement tout cela a été interrompu par le coup de téléphone
$|
du cabinet d’étude SUPERKANTOR qui a 8 questions à poser à tous les possesseurs de clé à
4$

molette en carbure de titane... Comment peut-on éviter tout cela ?


By

Enquêtes, sondages d’opinion, questionnaires, panels, baromètres...


Largement popularisés et utilisés par les médias, tous ces termes font partie du vocabulaire de base
des études de marché. D’abord désorienté par la multiplicité des appellations, le profane est
ensuite rapidement saturé par l’avalanche de résultats d’études ésotériques diffusés par les
télévisions, journaux et radios. Que faut-il penser de tout ce tintamarre ?
Qu’est-ce qu’une étude de marché ? Sont-elles sérieuses ? Quand faut-il en entreprendre une ?
Peuvent-elles se tromper ? Combien coûtent-elles ? Comment réaliser une étude sérieuse ? C’est à
ce genre de questions que cet ouvrage tente de répondre, au fur et à mesure de ses divers chapitres.

Qu’est-ce qu’une étude de marché ?


Parmi les questions précédentes, il en est une à laquelle nous devons répondre sans tarder, pour
cerner le périmètre de cet ouvrage : qu’est-ce qu’une étude de marché ? L’ESOMAR propose la
définition suivante :
« Les études de marché ont pour objectif d’analyser les marchés de produits et de services de toute
nature. Elles consistent en particulier à étudier de façon systématique le comportement, les attitudes
et les opinions des personnes physiques et morales(1). »
Les études d’opinion, souvent dénommées à tort « sondages d’opinion », ne sont donc qu’une
variété d’étude, où le marché mesuré est celui de l’opinion d’un public sur un sujet d’ordre
politique, socioculturel ou moral. En d’autres termes, le mot marché doit être accepté dans un sens
très large ; il englobe tout aussi bien des produits ou des services, gratuits ou payants, que des
jugements de valeur propres à l’individu.
Bien qu’en apparence assez variables, la plupart des énoncés proposés s’accordent finalement sur
la mise en relief de trois éléments caractéristiques que nous retiendrons comme définition. Une
étude de marché, c’est :
1 – un objectif, centré sur la compréhension et la résolution d’un problème de nature marketing,
2 – le choix raisonné d’une ou de plusieurs techniques de collecte et d’analyse, cohérentes par
rapport à l’objectif,
3 – une valeur ajoutée, concrétisée par la production et l’analyse d’informations utiles pour réduire
les risques de décisions ultérieures.

Le parcours d’obstacles du chargé d’études


Pour résoudre correctement le problème formulé au départ, c’est-à-dire atteindre l’objectif, le
responsable de l’étude doit suivre un itinéraire rigoureux. Le déroulement des opérations est rythmé
en quatre grandes étapes que l’on peut schématiser ainsi :
\/|
$|
– Étape 1 : Réflexions préalables à l’étude, pour comprendre la véritable nature du problème posé
par le demandeur de l’étude, et pour choisir la démarche d’étude la plus adéquate.
4$

– Étape 2 : Collecte et rassemblement des informations nécessaires pour résoudre le problème,


By

opération dénommée par les professionnels « terrain de l’étude ».


– Étape 3 : Analyse des données recueillies afin d’étayer les futures conclusions.
– Étape 4 : Rédaction du rapport d’étude pour dégager les informations majeures et, le cas échéant,
proposer des recommandations sur les décisions à prendre.

Plan de l’ouvrage
Dans un souci pédagogique, l’ouvrage se structurera à la fois autour de ces quatre grandes étapes, et
adoptera la dichotomie utilisée par les professionnels qui distinguent la démarche qualitative et la
démarche quantitative lors de la phase de terrain et d’analyse des données. Le plan adopté est
retracé dans la figure de la page suivante qui servira de trame à ce livre.

Les réflexions préalables à l’étude


Le chargé d’études commence par démêler le problème posé par le demandeur, pour en cerner la
véritable nature (chapitre 1). Puis il fait le point sur les informations déjà disponibles et les analyse
afin d’affiner son jugement (chapitre 2). Alors seulement le projet d’étude, véritable plan de
manœuvre, est rédigé. Ce document précise notamment la démarche de la future étude qui, selon la
nature du problème initial, opte pour une démarche qualitative ou quantitative et, parfois, combine
les deux (chapitre 3).

La démarche d’étude qualitative


Les techniques d’investigation qualitatives sont suffisamment spécifiques, tant dans leur façon de
recueillir les informations que dans l’analyse des données, pour que la plupart des instituts d’études
indiquent s’ils se considèrent comme spécialistes de cette approche. Nous les avons organisées en
quatre pôles, en indiquant pour chacune d’entre eux comment réaliser le terrain et analyser les
informations collectées. Nous traiterons d’abord les multiples formes de l’investigation
individuelle (chapitre 4) ; puis les différentes investigations fondées sur les interactions de groupe
(chapitre 5) et les investigations faisant appel à l’observation (chapitre 6). Nous terminerons par
les techniques visant à rechercher et à interpréter le sens d’un comportement de consommation
(chapitre 7).

\/|
$|
4$
By
Les quatre grandes phases d’une étude de marché

\/|
$|
4$
By

La démarche d’étude quantitative


Deuxième grande famille d’études, l’approche quantitative repose sur une méthodologie plus
structurée et rigide que sa concurrente qualitative. Les phases de terrain et d’analyse des données
sont plus facilement séparables. Les techniques quantitatives reposent sur un plan d’échantillonnage
(chapitre 8), sur la rédaction d’un questionnaire, véritable clé de voûte de cette démarche
(chapitre 9), et sur l’administration sur le terrain de ce questionnaire (chapitre 10). L’analyse des
données s’appuie sur une vaste panoplie d’outils statistiques. Les plus simples décrivent les
informations à partir de calculs de fréquences ou de moyenne (chapitre 11). Les tests statistiques,
techniques plus performantes, permettent de savoir si des différences apparentes sont réelles ou
probablement dues au fait du hasard (chapitre 12). Les analyses de régression et de corrélation
simples vérifient l’existence de relations significatives entre deux variables (chapitre 13). Les
analyses multivariées, telles que l’analyse factorielle, la régression multiple, la typologie prennent
simultanément en compte plusieurs variables pour tenter de dégager une structure commune dans les
données ou pour établir des relations de dépendance entre divers groupes de variables
(chapitre 14). Nous terminerons en élargissant notre périmètre aux méthodes qui relèvent de la
recherche marketing et qui font largement appel à l’expérimentation et à la modélisation (mesures
conjointes, plans d’expérience, analyse de variance, modèle d’équations structurelles) : ce sera
l’objet du chapitre 15.

Conclusions, rapport d’étude


Au fur et à mesure de l’avancement des traitements des données, le chargé d’études dégage
progressivement des éléments de réponse aux questions qui ont motivé l’investigation. La synthèse
de ces analyses forme l’ossature du rapport remis au demandeur du travail ; ce document,
généralement présenté par oral, doit clairement préparer et servir de base aux futures décisions
managériales (conclusions et recommandations).
\/|
Annexes téléchargeables
$|
La page dédiée à l’ouvrage du site Vuibert.fr offre au lecteur peu familier avec les principes de
4$

calculs statistiques, un guide statistique et un panorama des principales lois de distribution d’une
variable. Les corrigés des tests de connaissance y sont également proposés.
By
Première partie

Réflexions préalables à l'étude


Cette première partie de l’ouvrage, consacrée à la présentation des réflexions et des travaux
préalables au démarrage de l’étude, se fonde sur trois étapes séquentielles : la formulation du
problème (chapitre 1), les études préparatoires (chapitre 2) et le projet d’étude (chapitre 3).
Le novice sous-estime généralement l’importance de ces phases préparatoires, au détriment des
opérations de collecte et d’analyse des informations. Pourtant, le chargé d’études confirmé sait, par
expérience, que ces trois étapes sont déterminantes pour la réussite globale du processus.

\/|
$|
4$
By
By
4$
$|
\/|
Chapitre 1

Cadrage de l’étude
Dynamitez vos certitudes...
A. SOLÉ

Cadrer une étude c’est définir correctement le périmètre des investigations. Cela commence par une
analyse minutieuse du problème posé, puis, le cas échéant, par une reformulation. En effet, selon un
adage bien connu, un problème bien formulé est déjà à moitié résolu. Si tel est bien le cas, ce
chapitre montre au lecteur pourquoi bon nombre de problèmes ne sont finalement pas résolus de
manière satisfaisante...
Le chargé d’études néophyte est parfois surpris par la manière dont le problème est posé par le
\/|
manager : exprimé de manière vague, en quelques lignes, ou, au contraire, développé de manière
$|
excessive, embrassant des pans entiers de stratégie marketing. De manière surprenante, lors des
4$

discussions préliminaires, des suggestions concernant les résultats attendus sont parfois énoncées.
Nous verrons au cours de ce chapitre les raisons pour lesquelles la compréhension du problème,
By

puis la définition des objectifs de l’étude ne sont pas si faciles à réaliser. Comme le montre la
figure 1.1., nous réaliserons cela en deux temps : analyse du problème à résoudre, puis
compréhension de l’objectif de l’étude.
Figure 1.1. Plan du chapitre

\/|
$|
4$

I. Analyse du problème à résoudre


L’étude de marché met trois partenaires en présence : le demandeur, le réalisateur et l’utilisateur
By

des résultats.
– Le demandeur est généralement un dirigeant ou un cadre d’une organisation : entreprise,
administration, collectivité territoriale, association, syndicat, etc.
– Le réalisateur, appelé chargé d’études, est membre de l’organisation ou appartient à un institut
extérieur qui se voit confier l’étude. C’est l’expert technique, à la fois architecte, puisqu’il dessine
le plan de l’étude (la méthodologie), et conducteur de travaux, parce qu’il supervise chaque étape
de sa réalisation. Il faut ajouter que celui-ci peut, à son tour, sous-traiter une part de l’étude à un ou
plusieurs prestataires extérieurs : la réalisation du terrain (entretiens, réunion de groupe) et les
traitements statistiques sont souvent externalisés.
– L’utilisateur est variable : il peut s’agir des dirigeants ou des cadres qui sont à l’origine de la
demande initiale, mais aussi des clients ou des membres de l’organisation. Ainsi, les résultats des
études d’audience (radios ou télévisions) sont largement diffusés auprès des annonceurs et agences
publicitaires potentiels pour les convaincre de confier leur budget publicitaire.

A. Émergence du problème
Un problème surgit généralement quand un manager est confronté à une décision incertaine.
L’incertitude existe lorsque celui-ci envisage plusieurs solutions ou événements sans pouvoir
déterminer lequel est préférable. Or la valeur ajoutée de l’étude de marché est la réduction de
l’incertitude du décideur par la production d’informations utilisables pour résoudre un problème
spécifique. Les renseignements fournis permettent d’évaluer les risques associés à chaque solution,
par exemple :
« Quels sont les risques d’échec respectifs d’un lancement de produit effectué avec l’emballage A,
B ou C ? »
« Quel prix retenir pour le lancement : 1,50 euro, 1,75 euro ou 1,80 euro ? »
Dans cette perspective, un des critères d’appréciation de l’efficacité d’une étude réside dans sa
capacité à orienter le manager vers les « bonnes » décisions.
Lorsque le problème à résoudre atteint un seuil critique, c’est-à-dire quand le décideur perçoit que
les conséquences (financières, commerciales, organisationnelles, etc.) découlant d’un mauvais
choix seront néfastes et durables, l’étude s’impose comme une solution possible pour réduire les
risques.

B. Perception managériale du problème et questions d’étude


1. Perspectives différentes \/|
La dissociation des rôles entre réalisateur et utilisateur des résultats est une source naturelle de
malentendus. Les questions du manager sont souvent pragmatiques et orientées vers la prise de
$|
décision : il attend de l’étude des réponses claires pour réduire l’incertitude initiale. Face à cela, la
4$

première préoccupation du chargé d’études est de comprendre et de décomposer le problème posé,


puis d’évaluer comment le résoudre sur le plan méthodologique.
By

La plupart du temps, le demandeur fournit une quantité d’informations suffisante pour guider le
chargé d’études. En effet, grâce à sa connaissance du marché et de l’environnement de son
entreprise, le manager a une idée ou une intime conviction sur les causes majeures du problème
rencontré. De ce fait, le néophyte a tendance à considérer qu’il s’agit là du véritable et unique
problème à résoudre. En s’arrêtant à cette première vision des choses, le chargé d’études risque
fort de partir sur une fausse piste. Après avoir sélectionné la méthodologie convenable, il peut
découvrir en cours de route que le véritable problème se situait ailleurs.
Exemple
Imaginons le cas suivant. Monsieur Businaisse est directeur général d’une importante
société de matériel hi-fi haut de gamme destiné aux mélomanes exigeants. Depuis
quelque temps, Monsieur Businaisse voit ses parts de marché s’éroder et son chiffre
d’affaires stagner. Il demande alors à Mademoiselle Jouvencelle, responsable de
recherche marketing, « une petite étude pour découvrir les causes de cette situation ».
Ainsi posé, le problème n’est pas directement soluble, car il ne permet pas d’orienter
les futures investigations. Pour répondre à cette question managériale, il existe en effet
un faisceau de réponses possibles qui constituent autant d’hypothèses de travail, donc
autant de sujets potentiels d’études.
En se fondant sur sa bonne connaissance des grandes surfaces spécialisées, acquise au
cours d’un emploi précédent, Monsieur Businaisse est persuadé que la mévente
actuelle vient d’un prix de vente public trop élevé par rapport à la concurrence. En
oubliant que cette information n’est qu’une simple hypothèse, Mademoiselle
Jouvencelle opte pour une méthode d’investigation fondée sur l’observation : elle
relève les prix pratiqués par les principaux concurrents dans les différents canaux.
L’analyse des résultats est claire : ce n’est pas un problème de prix. En formulant cette
conclusion, la chargée d’étude va probablement s’attirer la réflexion suivante :
\/|
« Alors, puisqu’il ne s’agit pas d’un problème de prix, vous allez certainement me dire
$|
maintenant quelle est la cause, que j’ignore toujours, de la mévente actuelle. Après
4$

tout, c’est bien l’objectif que je vous ai fixé, non ? »


By

Nous avons réuni, dans la figure 1.2., quelques exemples courants de préoccupations managériales
et leurs traductions possibles en questions d’étude. On notera la multiplicité des orientations
découlant d’une interrogation managériale en apparence fort simple. Une part importante du métier
de responsable d’études réside dans sa capacité à sélectionner « la » ou « les » bonnes questions
parmi une foule d’investigations possibles. Les rencontres préliminaires avec les demandeurs et
utilisateurs des travaux sont souvent indispensables pour effectuer une conversion correcte des
préoccupations managériales en choix d’étude.

2. Divergence sur l’utilité des études


D’autres filtres, de nature plus psychologique, influent sur la perception du problème posé. En effet,
selon les managers, l’estimation de valeur ajoutée offerte par les études de marché est très
variable : les positions vont du refus pur et simple à la confiance inébranlable.
Les opinions négatives se fondent sur le postulat que, dans de nombreux domaines, les études de
marché n’offrent pas de garanties pour une bonne décision. L’intuition et l’expérience seraient
préférables. Le problème est que si l’on suit son intuition, c’est bien beau, mais encore faut-il
qu’elle ne vous trompe pas ! Certes, quand on s’appelle Steve Jobs, patron d’Apple, on peut aligner
des succès formidables (iTunes, iPod, iPhone, iBook, iPad, etc.). Dès lors, quand un tel patron
visionnaire affirme qu’il ne fait pas d’études de marché, une telle déclaration met sérieusement en
question la valeur ajoutée des études (voir flash-étude 1.1.).
Figure 1.2. Problèmes de management et questions d’étude

Questions managériales initiales Questions d’étude envisageables


– Estimer les scores de mémorisation et
d’agrément selon les médias.
Quelle est l’efficacité de la campagne de
– Comparer (toutes choses égales par ailleurs)
publicité faite pour la marque X ?
les ventes avant et après la campagne de
publicité.
Quel est le marché potentiel d’un nouveau – Déterminer les meilleures cibles.
service de dépannage à domicile ? – Estimer les intentions d’achats.
– Déterminer si cet avantage correspond à une
attente déterminante.
Faut-il proposer le GPS en série ou en option
– Mesurer les variations des intentions d’achat,
sur une voiture ?
dans chaque cas, selon les scénarios de prix.
– Observer les choix des concurrents.
– Estimer les volumes de ventes avec un prix
supérieur de 10 %.
Peut-on augmenter le prix du produit ? – Évaluer l’impact sur l’image de marque.
– Comparer les prix des concurrents ayant un
\/|
positionnement proche.
$|
– Mesurer l’image de chaque canal et comparer
4$

Faut-il distribuer le produit en grandes surfaces avec le positionnement voulu.


ou chez les distributeurs spécialisés ? – Étudier les prix publics et la présence des
By

marques dans chaque canal.


Flash-Étude 1.1.
Suivez votre intuition, ne faites pas d’études(2) !
« Nous avons fait l’iTunes parce que nous aimons tous la musique. Nous avons fait ce que nous
pensions être le meilleur jukebox dans iTunes. Nous voulons tous pouvoir emmener l’ensemble
de notre discothèque avec nous. L’équipe a vraiment travaillé dur. Et la raison pour laquelle ils
ont travaillé si dur, c’est que nous voulions vraiment une telle chose. Vous savez, je veux dire
que les cent premiers clients, c’étaient nous.
Ce n’est ni une question de culture pop, ni une question de personnes complètement folles, il ne
s’agit pas de convaincre des gens qu’ils veulent quelque chose dont ils ne veulent pas. Nous
savions ce que nous voulions. Et nous avons eu la bonne discipline de nous demander aussi si les
autres personnes voulaient aussi cela. C’est pour cela que nous sommes payés. Vous ne pouvez
pas sortir et demander aux gens quelle sera la prochaine grande chose. Il y a une citation célèbre
d’Henry Ford qui dit : ‘‘Si j’avais demandé aux clients ce qu’ils voulaient, ils m’auraient dit : un
cheval plus rapide.’’
Nous ne faisons pas d’études de marché. Nous n’embauchons pas de consultants. Le seul que j’ai
engagé au cours de ces dix dernières années, c’était une entreprise pour analyser la stratégie de
distribution de Gateway, aussi je ne veux plus refaire les mêmes fautes qu’ils ont faites quand
\/|
nous avons lancé les magasins Apple Stores. Nous n’engageons pas de consultants. Nous voulons
juste faire de grands produits.
$|
4$

Quand nous avons créé l’iTunes Music Store, nous l’avons fait parce que nous pensions que ce
serait bien de pouvoir acheter de la musique de manière digitale, pas parce que nous voulions
By

redéfinir l’industrie musicale. Je veux dire que c’est comme écrire sur un mur que toute la
musique devrait être distribuée de manière électronique. Cela semblait évident. Pourquoi
supporter un coût [de distribution] ? L’industrie musicale fait des profits énormes. Pourquoi
accepter cette charge quand vous pouvez simplement envoyer des électrons si facilement ? »

Plus précisément, les critiques formulées par les opposants aux études s’appuient sur deux
arguments :
a. Une contribution mineure des consommateurs
Cette réticence s’explique par la conviction que le consommateur formule difficilement ses attentes.
En outre, il lui serait très difficile d’imaginer les futurs possibles offerts par la technologie. Ceci
serait particulièrement vrai dans les secteurs faisant appel à des technologies innovantes ou à la
créativité : la mode (habillement, communication, culture, etc.), l’informatique, l’audiovisuel,
l’automobile, les biens et services industriels, etc. Dans ces domaines, l’interrogation d’acheteurs
potentiels n’apporterait que des « gazouillis » sans intérêt ou, à l’inverse, des propositions
irréalisables.
b. Une valeur ajoutée inférieure à celle offerte par l’intuition
managériale
Un grand nombre de « success stories » proclament que la réussite de leurs auteurs tient à leur
capacité à ne pas s’encombrer d’études et avoir su faire preuve de flair : tel manager est fier
d’annoncer qu’il ne fait aucune étude de marché parce qu’il n’y croit pas, tel autre raconte qu’il n’a
pas hésité à commercialiser avec le plus grand succès un produit pour lequel les études étaient
défavorables.
L’inconvénient de ce type de raisonnement, fondé sur quelques expériences, est qu’il est souvent
possible de fournir de nombreux contre-exemples. Ainsi, si le flash-étude 1.1. célébrait des
exemples de réussites d’Apple, le flash-étude 1.2. montre que même Steve Jobs a enregistré durant
sa carrière une longue série de revers. Ainsi, la meilleure intuition n’est jamais une garantie
absolue de réussite et, sur le long terme, l’apport des études de marché se révèle souvent supérieur
à celui de l’intuition pure.

\/|
$|
4$
By
Flash-Étude 1.2.
Quelques déboires marketing dus à l’absence d’études...
Voici quelques-unes des créations d’Apple qui furent des échecs notoires, car l’un ou l’autre des
éléments du marketing-mix n’était pas en adéquation avec les attentes des consommateurs. Ou
plus simplement, parce que les patrons successifs d’Apple, John Sculley puis Steve Jobs, de
retour dans l’entreprise en 1993, voyaient les choses comme cela...
Apple III. Créé en 1980 après le succès de l’Apple II, il s’adressait à une clientèle
professionnelle. Il dut sa disparition, quatre ans plus tard, essentiellement à cause de problèmes
de surchauffe. Parce qu’il en détestait le bruit, Steve Jobs n’avait pas voulu qu’il soit équipé
d’un ventilateur.
Macintosh portable. Lancé en 1989, son retrait intervient deux ans plus tard. Il coûtait
6 500 dollars et pesait plus de 7 kg. Une véritable méconnaissance des attentes des
consommateurs.
Newton. Ancêtre du Palm (l’organisateur de poche), ce produit, très en avance sur son temps,
sortit en 1993. Mais il souffrait de problèmes techniques importants : difficulté à reconnaître
l’écriture manuelle, lenteur décourageante et un prix jugé astronomique (1 000 $). Il fut retiré du
marché six ans plus tard. \/|
Macintosh TV. Premier Macintosh à tuner TV intégré, véritable hybride qui mêlait un téléviseur
$|
Sony Trinitron et un Apple Performa 520, il fut lancé en 1993. Il permettait de regarder la
4$

télévision, mais on ne pouvait pas l’utiliser en même temps en tant qu’ordinateur. Il était peu
évolutif et peu puissant. Produit à 10 000 exemplaires, il disparut six mois plus tard.
By

Pippin. Développée en partenariat avec le fabricant Bandai dans le courant de l’année 1996,
cette console vidéo ne disposait que d’une vingtaine de jeux à sa sortie. Elle ne réussit jamais à
s’imposer sur un marché ultra-concurrentiel où s’affrontaient déjà la Nintendo 64, la Saturn de
Sega et la PlayStation de Sony.
G4 Cube. Sorti en juillet 2000, ce nouveau micro-ordinateur proposait un design original en
forme de cube, avec une éjection verticale des CD, comme pour un grille-pain. Bien que ciblant
les professionnels, son prix était considéré comme trop élevé. Le Power Mac G4, plus
performant, l’éclipsa totalement. Le Cube fut retiré du marché environ un an plus tard.

À l’opposé, la co-création marketing considère que les consommateurs sont capables de formuler
des attentes innovantes et sont sources d’idées intéressantes pour de nouveaux produits ou services.
En effet, certains individus ressentent avant les autres des besoins particuliers (i.e. le « lead-
user »(3)) et ont des idées pour résoudre leur problème ; d’autres disposent d’une ouverture d’esprit
et d’un sens pratique pour imaginer facilement de nouvelles applications (i.e. le consommateur de
« nature émergente »(4)). Ces consommateurs sont des cibles intéressantes pour les études marketing.
Par ailleurs, le développement d’Internet et des réseaux sociaux permet de créer des plates-formes
interactives qui sont un creuset privilégié pour observer, tester, développer de nouveaux concepts
de produits ou services avec les clients de la marque. Cette co-création se fait sous la forme
d’appels à concours gérés par des instituts d’études ou au sein de communautés de marques(5).
Le flash-étude 1.3. montre l’intérêt d’une co-création marketing. De telles études de marché ne
reposent pas sur une interrogation unique d’un échantillon de clients. Elles mobilisent une série de
méthodes d’observation on line des pratiques, étalée sur plusieurs mois, un ciblage d’individus clés
et un processus d’interrogation des consommateurs récurrent et interactif.

Flash-Étude 1.3.
De l’utilité des études avec les consommateurs
Nivea a lancé en Allemagne en 2011 un nouvel anti-transpirant, baptisé « Invisible for black &
white » qui offre une solution à un besoin des consommateurs, hommes ou femmes, longtemps
non résolu. Ce produit évite les tâches jaunâtres sur les vêtements blancs et les auréoles blanches
sur les vêtements noirs dues à une transpiration excessive. Ce nouveau produit a été co-créé avec
les consommateurs à la suite d’un appel à concours de la marque Nivea qui a été géré par Hyve,
un institut d’études spécialisé. Plus de 700 idées et solutions pour résoudre les problèmes de
transpiration ont été recueillies. Les suggestions les plus intéressantes ont fait l’objet d’un
processus d’interaction continu entre les consommateurs et les services R & D internes de
Nivea, durant les différentes phases de mise au point du produit.
\/|
$|
En 2006, Nike lance une nouvelle chaussure Nike+, en partenariat avec Apple(6). Ce nouveau
produit intègre un capteur intelligent, inséré dans la chaussure, capable de communiquer avec un
4$

récepteur Apple (iPhone ou iPod). Le capteur enregistre la durée de la course, le nombre de


kilomètres parcourus et toutes sortes d’autres informations. Dans le même temps, Nike a
By

développé une plate-forme interactive sur Internet où les membres téléchargent leurs données
personnelles : objectifs, distances parcourues, durée, nombre de calories brûlées, etc. Des
applications dérivées de Google Maps permettent de tracer de nouveaux parcours, de les
visualiser et de les diffuser dans le monde entier. Les informations sont fournies par un simple
téléchargement des données contenues dans le capteur. Un réseau mondial de parcours, créé par
les 600 000 membres de la communauté issus de 170 pays, est disponible, couvrant tous les
coins du globe. Le site comporte une partie musicale, où chacun peut publier sa « play-list »
préférée pour tel ou tel parcours, la possibilité d’un coaching personnalisé pour atteindre tel ou
tel objectif, des stages à des prix négociés, etc. Les données montrent les différents types de
parcours, les températures et conditions météo lors des sorties, le type de musique le plus adapté
à telle ou telle expérience, et permettent d’apprendre que la durée moyenne d’un jogging est de
35 minutes Le marketing regarde ce laboratoire vivant où chacun crée, expérimente et partage.
Nike comprend ce qui fait sens dans les expériences et offre sur la plate-forme des moyens
techniques pour stimuler ces co-créations. Il est à l’affût des nouvelles tendances, connaît les
préférences des consommateurs et leurs évolutions, ce qui lui permet de concevoir les produits
les plus adaptés. En 2007, Nike captait 57 % du marché américain de la chaussure de course,
contre 47 % en 2006 ; en 2009, sa part de marché atteignait 67 %.

3. Synthèse : apports et limites des études


Quelques remarques sont nécessaires pour mieux comprendre et apprécier le potentiel offert par les
études.

a. Connaître les limites méthodologiques de chaque technique


Nous insisterons fréquemment, tout au long de cet ouvrage, sur les hypothèses, les précautions
méthodologiques particulières devant être prises lorsque l’on fait appel à une technique d’étude. La
plupart des méthodes reposent sur de sévères hypothèses qui les invalident si l’utilisateur passe
outre. Nous n’hésiterons pas à souligner, lorsque cela se présentera, que certaines d’entre elles, de
prime abord séduisantes, n’ont pas fait l’objet d’une validation solide. La méconnaissance de leurs
limites se traduit souvent par une confiance aveugle.

b. Prendre en compte la complexité du comportement du


consommateur
On ne connaît pas tout, loin s’en faut, des mécanismes du comportement d’achat du consommateur.
Par exemple, il se peut très bien que si la marque A est préférée à B, et B est préférée à C, C soit
préférée à A. Les études de marché restent tributaires des progrès effectués dans le domaine de la
recherche sur le comportement du consommateur(7) et peuvent conduire à des résultats erronés,
parfois lourds de conséquences sur les plans commerciaux et financiers.

c. Réduire l’incertitude sans la supprimer


\/|
$|
Les études permettent une réduction notable de l’incertitude grâce à l’apport d’informations, mais
4$

elles ne peuvent prétendre à la suppression du risque. Par exemple, les méthodes quantitatives
fondées sur un échantillonnage aléatoire suivent la loi des grands nombres qui assortit toute
By

estimation d’une « marge de fluctuation » statistique. Ainsi, les marchés tests simulés, utilisés pour
prévoir les ventes et parts de marché d’un nouveau produit, ont une précision moyenne d’environ
10 %. Il n’en demeure pas moins que ce score est nettement supérieur à celui que l’on obtiendrait,
en moyenne, avec des prévisions fondées sur le seul « flair » du manager.

d. Intégrer l’intuition dans les modèles


Un courant de la recherche en marketing propose de bâtir des modèles en combinant modélisation
des connaissances et intuition managériale. Il a été ainsi vérifié que les modèles de prévision les
plus performants sont ceux qui comportent 50 % d’intuition et 50 % de modélisation(8).

C. Clarification du problème
Comment faciliter cette clarification ? Nous proposons une démarche en deux temps : connaître les
sources habituelles de difficultés, déterminer le niveau de décision auquel se situe l’étude.

1. Sources des difficultés de formulation du problème


a. Le flou
La difficulté surgit lorsque le praticien, initiateur de l’étude, n’est pas en mesure d’exprimer
clairement ce qu’il attend des résultats. Or ce cas de figure paradoxal n’est pas aussi rare qu’on
pourrait le croire :
« En dépit d’une croyance communément admise, les objectifs sont rarement donnés au chercheur.
Le décideur formule rarement ses objectifs avec précision. Il est enclin à les exprimer sous la
forme de platitudes sans efficacité opérationnelle. En conséquence, les objectifs doivent être
extraits par le chargé d’études. En faisant cela, le chercheur peut fournir ainsi son service le plus
utile au décideur(9). »
b. L’incomplet
Une deuxième difficulté survient lorsque les informations fournies par le manager sont insuffisantes
pour rédiger le projet d’étude. Souvent, par manque de temps, le demandeur rencontre brièvement
le chargé d’études, ce qui réduit le volume et la qualité des informations échangées. Un cas extrême
est celui de la rétention volontaire d’informations : le décideur considère que c’est à l’institut ou au
chargé d’études de prouver sa compétence en complétant les bribes d’informations et en retrouvant
de lui-même les hypothèses les plus plausibles(10).

c. L’enchevêtrement
L’expérience montre que l’efficacité ultérieure de l’étude de marché dépend en grande partie du
\/|
soin avec lequel le problème initial a été décomposé en sous-parties. Ce travail préliminaire
$|
facilite la compréhension d’un problème complexe. Le groupe Danone, après l’audit d’un
4$

échantillon de 88 études réalisées pour son compte, a observé que la cause de la mauvaise qualité
de ces dernières venait, dans 20 % des cas, d’un problème initial mal formulé(11).
By

Exemple
Soit, par exemple, la préoccupation suivante : « Comment réaliser une campagne de
publicité efficace ? » Toute une série d’études sont envisageables si l’on ne répond
pas clairement aux questions suivantes :
– Faut-il mesurer cette efficacité par l’image de marque ou par la notoriété
spontanée ?
– Doit-on définir un budget publicitaire optimal ou arbitrer entre divers plans médias ?
– S’agit-il de choisir un axe de communication ?

2. Détermination du niveau de la décision à prendre


En marketing, une décision peut être de nature tactique (choix d’un emballage, sélection d’une
publicité, fixation d’un prix, adoption d’un mode de rémunération pour les vendeurs) ou relever de
la stratégie (choix d’une cible ou d’un positionnement produit, extension d’une gamme,
diversification des activités, etc.). La perception du problème, le degré d’incertitude,
l’identification et l’évaluation des solutions ne sont pas les mêmes selon le cas(12), comme le montre
la figure 1.3.
À côté de ces premiers obstacles, le chargé d’études doit envisager d’autres éléments, souvent plus
difficiles à cerner, pour comprendre la nature du « vrai » problème à résoudre. Nous allons les
aborder dans le paragraphe suivant.
Figure 1.3. Traitement du problème et type de décision

Traitement du
Décision tactique Décision stratégique
problème
Rapide. Lente.
Perception du problème Problème manifeste. Problème latent.
Facilement identifié. Nécessité d’un diagnostic.
Niveau d’incertitude Très faible à assez grand. Très grand.
Faciles à recenser. Difficiles à cerner.
Identification des solutions
Connues lors de la décision. Certaines options sont inconnues.

II. Compréhension de l’objectif de l’étude \/|


$|
Une des aspirations majeures du chargé d’études est d’obtenir suffisamment d’informations pour
rédiger un projet cohérent. Le principe de base est que, plus le demandeur peut fournir
4$

d’informations, plus grandes seront les chances que l’étude produise des résultats efficaces. Cette
logique n’est pas toujours respectée, car parfois les objectifs réels des acheteurs d’études ne sont
By

pas faciles à avouer ; en outre, l’utilisation des résultats peut prendre des aspects surprenants.

A. Principaux obstacles
Nous avons vu que le but le plus courant assigné à l’étude de marché est la réduction de
l’incertitude pour faciliter la prise de décision. En réalité, les finalités d’une étude sont multiples.

1. Information ou décision
Le postulat de départ : « l’étude doit apporter une meilleure information pour une meilleure
décision » tend à être transformé en « toujours plus d’informations », d’où le risque de
surinformation. Ce fait pose deux questions : l’information sert-elle à décider et aide-t-elle à
décider ? Certains travaux montrent que, beaucoup plus souvent que l’on ne croit, le manager
demande de l’information « non pas pour décider, ou pour mieux décider, mais au contraire pour ne
pas décider(13) ». La collecte d’informations demande du temps, et donc permet d’obtenir un délai
supplémentaire de « réflexion » vis-à-vis de la décision à prendre. Lorsqu’elle est achevée,
l’analyse débouche généralement sur la conclusion que le problème est « complexe », que les
solutions envisagées au départ sont risquées, qu’il convient de faire preuve d’une grande prudence,
les informations disponibles sont contradictoires ou incomplètes... bref, les études peuvent
légitimer l’absence de décision.
2. Finalités multiples de l’étude
Les recherches portant sur le processus de prise de décision montrent que les acteurs d’une
organisation poursuivent des objectifs complexes, parfois contradictoires avec l’objectif rationnel
attribué au départ à l’étude. L’investigation devient une « pseudo-recherche » dans les situations
suivantes(14) :
– Acquisition ou conservation d’un pouvoir. Ces motifs sont justifiés par des considérations de
politique interne à une organisation.
– Promotion d’un service ou d’une personne. Il s’agit de montrer que l’on ne reste pas inactif face à
une situation donnée. Le simple fait de recueillir des informations a plus d’importance que les
conclusions.
– Satisfaction personnelle. Un manager entreprend une étude pour se faire plaisir ou pour se
rassurer.

3. Relations manager et réalisateur de l’étude


Compte tenu des remarques précédentes, il n’est guère surprenant de constater des difficultés de
communication entre le manager et le chargé d’études. La comparaison de leurs objectifs et
comportements respectifs met en évidence de multiples sources de divergence, comme le montre la
figure 1.4. \/|
$|
4$
By
Figure 1.4. Relations manager et chargé d’études

Phases du
processus Manager Chargé d’études
de décision
– Interprétation selon des
– Floue. schémas théoriques.
Formulation initiale – Hypothèses établies selon ses – Développe des relations entre
du problème contraintes et selon une vue plus des variables (modélisation).
ou moins partielle de la réalité. – Cherche les hypothèses
implicites du décideur.
– Langage formalisé ou
– Langage qualitatif. scientifique, culture spécialisée.
– Culture générale. – Raisonnement global, souci de
– Raisonnement sur des exemples la représentativité.
Clarification du problème
locaux. – Simplifie, décompose, réduit.
– Urgence conditionne le temps – Exigence de la qualité
disponible pour l’étude. scientifique détermine le temps
nécessaire à l’étude.
\/|
– Accorde peu d’intérêt aux
$|
– Accorde peu d’intérêt au
circonstances qui ont motivé
4$

déroulement de l’étude.
l’étude.
– Peut contrôler la démarche en
– Situation de conseiller,
By

modifiant les hypothèses.


Missions et préoccupations médiateur, avocat, arbitre.
– Poids des contraintes
– Poids des contraintes
organisationnelles.
méthodologiques.
– Actions à court terme.
– Actions à moyen terme.
– Synthèse simplificatrice.
– Démarche analytique.
Source : adapté de NICHOLSON P., « Marketing : réconcilier les hommes d’études et les décideurs »,
Revue française de gestion, janvier/février 1987, no 61, p. 25.

B. Utilisation des résultats


Les résultats d’une étude peuvent être interprétés de trois manières(15) :
– Appuyer une décision. Il s’agit de justifier ou de défendre une décision déjà prise ou devant être
prise.
– Comparer des décisions. Selon le cas, on débroussaille ou on retarde des choix décisifs.
– Réfuter une décision. Le but est d’empêcher une décision déjà prise ou de s’en désolidariser.
Par ailleurs, la pratique des études montre qu’un manager a tendance à anticiper les résultats, en se
fondant sur plusieurs éléments : l’expérience préalable du marché, les résultats d’études antérieures
ou l’intuition pure. Ce constat est important, car nous verrons, dans le chapitre Conclusions et
recommandations, que si l’acheteur de l’étude est surpris par les résultats obtenus, il aura d’abord
tendance à éplucher la méthodologie de l’étude, plutôt qu’à remettre en cause son intuition initiale.
En croisant le degré d’anticipation des résultats avec les grandes catégories d’objectifs, on aboutit
à quatre sortes d’études, présentées dans la figure 1.5. Cette typologie permet une meilleure
compréhension des différentes sortes d’objectifs d’étude.
Figure 1.5. Types d’études selon les objectifs poursuivis

Anticipation des Évaluer des choix –


Agir – Vérifier
résultats Négocier
Faible à moyenne Étude exploratoire (1) Étude appliquée (2)
Grande à extrême Étude paratonnerre (3) Étude confirmatoire (4)
(1) L’étude exploratoire correspond à une étude de débroussaillage destinée à comprendre les grandes dimensions d’un problème,
énoncer des hypothèses, répertorier différentes solutions, etc. Les objectifs sont exprimés en termes assez vagues et le champ des
recommandations possibles est large.
(2) L’étude appliquée doit produire des résultats concrets. Les objectifs de l’étude sont précis et le manager attend du chargé
d’études une recommandation claire et pragmatique.
(3) L’étude paratonnerre recouvre une variété de situations correspondant à des « pseudo-recherches ». Les objectifs de l’étude sont
\/|
vagues ; les résultats ne sont admis que s’ils confirment l’intuition initiale du demandeur ou s’ils offrent des arguments utiles pour une
$|
négociation. De même, si la recommandation n’est pas conforme aux prévisions, elle a peu de chance d’être appliquée.
(4) L’étude confirmatoire s’apparente à une étude sanction, proche d’une expertise destinée à arbitrer différentes positions. Les
4$

objectifs sont clairs et la recommandation est considérée comme un jugement. La méthodologie et les résultats seront passés au crible
et probablement contestés par l’une ou l’autre des parties prenantes.
By

C. Diagnostic des questions d’étude


Il ne faudrait cependant pas déduire des remarques précédentes que toutes les études de marché
servent à arbitrer ou à orienter le jeu des différents acteurs d’une organisation. Mais il est
nécessaire d’être conscient de la variété des situations. L’expertise du chargé d’études dépend en
grande partie de sa capacité à transformer les interrogations managériales initiales du demandeur en
questions d’étude. Ceci revient à formuler un diagnostic d’étude ; ce processus se fonde sur trois
séries d’éléments que nous répertorions dans la figure 1.6.
Dans les situations simples, l’obtention de ces éléments ne pose guère de difficultés : la formulation
initiale du problème est simple, le recensement des causes du problème a permis d’établir un
diagnostic marketing clair et solide(16). L’exactitude de ce dernier est un élément crucial, car, selon
le type de diagnostic, les questions d’étude varient considérablement. Théoriquement, ce travail
n’est pas du ressort du chargé d’études (interne ou extérieur à l’entreprise), car il remonte bien en
aval du problème d’étude. La logique voudrait donc que le diagnostic soit préalablement effectué
par le directeur marketing. Mais la tendance actuelle s’oriente vers une contribution plus active du
chargé d’études qui, du coup, se transforme en « consultant marketing ». Ceci ne va pas sans poser
de problèmes : allongement de la phase préparatoire, augmentation du devis d’étude, difficulté
d’accès aux informations, réticence du donneur d’ordre qui voit dans cette démarche une remise en
cause des choix marketing antérieurs, etc.
Figure 1.6. Démarche pour un diagnostic d’étude

\/|
$|
4$
By
Exemple
Poursuivons l’exemple pris au début de ce chapitre. Pour faciliter l’établissement du
diagnostic marketing, Mademoiselle Jouvencelle doit examiner quelques-unes des
pistes suivantes, considérées comme causes potentielles de la baisse des ventes, avant
d’entreprendre toute démarche d’étude :
1 – Action de la concurrence : baisse des prix de vente, forte hausse des budgets de
publicité, lancement de nouveaux produits, etc.
2 – Mauvais choix de positionnement du produit : cible visée en déclin,
communication incohérente, prix inadapté, etc.
3 – Problème d’image : baisse de la satisfaction des acheteurs, production de
mauvaise qualité, communication insuffisante ou pas comprise.
4 – Problème de force de vente ou de distribution : vendeurs peu motivés,
argumentaire de vente à revoir, marge des distributeurs insuffisante, etc.
5 – Organisation d’entreprise : système d’information inopérant, structure inadaptée,
absentéisme du personnel provocant des retards, climat social tendu, etc.
6 – Évolution des comportements d’achat : marché globalement en déclin, apparition
\/|
d’autres concurrents indirects : chaîne hi-fi intégrée dans les micro-ordinateurs,
$|
baladeurs, TV et vidéo.
4$

7 – Conjoncture : baisse du pouvoir d’achat, problèmes sociaux (grèves, chômage).


By

Outre l’exactitude du diagnostic marketing, la formulation des questions d’étude peut nécessiter la
recherche d’informations complémentaires pour délimiter et hiérarchiser les problèmes posés :
différentes techniques sont utilisables, telles que l’analyse documentaire, l’utilisation des panels,
les rencontres avec les commanditaires de l’étude. Ces différentes investigations préliminaires sont
traitées dans le chapitre suivant. Lorsque le chargé d’études dispose de ces informations, la fixation
des questions d’étude ne pose pas de difficulté majeure. Nous proposons, dans la fiche
technique 1.1., un exemple d’application illustrant les différentes phases de ce travail(17).

Fiche technique 1.1. Comment déterminer et rédiger les objectifs et questions


d’étude ?
1 – Exposé du problème managérial
Le marché de l’immobilier de montagne français a connu une crise sérieuse au début des années 1990. En effet,
la fréquentation des stations de sports d’hiver avait sensiblement baissé, puisque le nombre de skieurs est passé
de 6 millions en 1985 à environ 5 millions en 1991. Cette réduction du taux de départ des Français aux sports
d’hiver s’est traduite par une récession importante du marché de l’immobilier en montagne : arrêt des
programmes d’investissement, baisse sensible de la qualité du parc disponible, fuite de la clientèle potentielle
vers d’autres destinations de vacances. Que pouvait-on faire pour sortir de ce cercle vicieux ?
2 – Examen du problème à résoudre
Les causes de cette récession sont globalement connues. À la stagnation de la fréquentation se sont ajoutées
des causes propres au marché immobilier de montagne : faible rentabilité financière du produit, concurrence
d’autres placements financiers, faibles perspectives de plus-values, paupérisation du produit, manque de
professionnalisme des acteurs de l’immobilier, effet de mode et moindre attirance pour la résidence secondaire.
Si, globalement et quantitativement, l’offre immobilière peut apparaître supérieure à la demande, il n’en reste
pas moins que ce marché n’est pas toujours adapté à la demande de la clientèle des vacanciers : manque
d’hébergements locatifs adaptés aux stratégies des opérateurs, notamment en ce qui concerne les stations
moyennes, hébergements ayant vieilli prématurément et ne répondant plus aux critères de confort
indispensables, etc.
Quelles sont les conditions à réunir, d’abord, pour espérer à moyen terme une reprise de l’immobilier de loisirs en
montagne et surtout pour que le produit corresponde à la demande de la clientèle des vacanciers et s’insère dans
une vision de l’aménagement de la montagne respectueuse des grands équilibres économiques et naturels de la
montagne ?
L’étude a donc pour objectif de définir quelles pourraient être les stratégies d’anticipation et d’actions possibles
pour mettre en place les conditions permettant de favoriser l’émergence d’un produit immobilier répondant aux
orientations définies ci-dessus.
3 – Fixation des objectifs et questions d’étude
En analysant pas à pas les scénarios de l’appel d’offres, nous pouvons lister les points suivants :
a) Problème managérial : effondrement du marché immobilier en montagne.
b) Recensement des causes présumées :
– réduction du taux de départ en vacances d’hiver ;
– surcapacité d’hébergement (offre supérieure à la demande) ; \/|
– faible rentabilité du produit (concurrence des autres placements) ;
$|
– produit immobilier de mauvaise qualité (bas de gamme) ;
– frein culturel (baisse de l’attrait de la résidence secondaire).
4$

c) Diagnostic et contraintes marketing :


– existence de créneaux pour un « nouvel immobilier de montagne » ;
By

– construction d’un programme immobilier à taille humaine.


d) Fixation des questions prioritaires auxquelles l’étude doit répondre :
– pondérer les attentes de la clientèle finale en matière de produits immobiliers moyenne gamme : confort,
surface, nature du programme, environnement de la station (écologie, altitude) ;
– déterminer le potentiel de ventes d’un tel marché ;
– comment attirer les investisseurs pour des produits de moyenne gamme (série limitée) et de rénovation du bas
de gamme : évaluation des coûts de construction, mode d’acquisition des terrains, viabilisation, plan de
financement, aides à la construction, prêts spécifiques ;
– comment communiquer ces attentes aux responsables locaux et nationaux (offices du tourisme, collectivités
locales et territoriales, etc.). Quelles actions mener ?
La liste précédente montre la multiplicité des questions auxquelles l’étude doit répondre. On voit assez
rapidement que les personnes susceptibles d’être interrogées seront différentes : utilisateurs finaux (skieurs),
acheteurs du produit (investisseurs publics et privés), concepteurs (promoteurs, collectivités locales),
distributeurs (offices du tourisme, voyagistes), etc. Certaines questions imposent des réponses quantitatives
chiffrées (nombre de logements, pondération des attentes des utilisateurs), alors que d’autres débouchent sur
des réponses qualitatives (recenser les actions de promotion, construire un argumentaire, etc.).

Les développements précédents révèlent que le succès de l’étude dépend en grande partie de la
qualité de la collaboration entre les partenaires. La figure 1.7. présente le partage des
responsabilités entre le manager et le chargé d’études pour un bon cadrage de la future étude. La
validation du diagnostic marketing est au cœur du processus de cadrage. Elle élimine les fausses
pistes d’études, c’est-à-dire les études inutiles car elles n’apporteront pas de valeur ajoutée au
manager. En second lieu, elle permet de hiérarchiser les questions d’étude, en évitant la
prolifération de questions secondaires, souvent coûteuses et finalement peu utiles pour les
décisions ultérieures. Enfin, la rédaction du projet d’étude est facilitée par un diagnostic marketing
clair et précis.
Figure 1.7. Partage des responsabilités pour le cadrage d’une étude

\/|
$|
4$
By

Source : VERNETTE É., Techniques d’études de marché, Vuibert, 2011.

Le lecteur sera peut-être surpris par l’importance que nous avons donnée à la phase de cadrage de
l’étude. Il est vrai que dans la pratique, faute de temps ou par excès de confiance, cette étape est
rapidement parcourue, voire carrément occultée, au profit des questions ultérieures de collecte et
d’analyse des données. Mais les conséquences d’un cadrage raté, voire d’une absence d’étude
préliminaire, sont toujours dommageables pour l’entreprise. Le flash-étude 1.4. qui revient sur
l’échec du lancement du New Coke et sur le retrait prématuré d’Artic Coca le montre clairement.
Flash-Étude 1.4.
De l’étude mal cadrée à l’absence d’étude : échec du New Coke et retrait prématuré
de l’Artic Coke(18)
Le marketing de Coca-Cola est réputé pour être l’un des meilleurs du monde. Pourtant, l’échec
du lancement du New Coke en 1985 est resté célèbre et a souvent été présenté comme un
exemple d’une défaillance des études de marché. Le recul et les différents audits montrent
aujourd’hui que les causes résident en grande partie dans une mauvaise formulation des
questions d’étude. Un quart de siècle plus tard, en 2011, Coca apporte son obole au marketing
durable en changeant la couleur de sa célèbre canette et en s’engageant à verser 3 millions de
dollars au WWF. En apparence, il n’y a aucune raison d’envisager une étude sur la perception du
nouveau packaging, puisqu’il s’agit d’une opération caritative qui, de surcroît, est limitée dans le
temps. Et pourtant, cela aurait été nécessaire...

L’échec du New Coke


Le début des années 1980 est difficile pour Coca-Cola, à cause des nombreuses offensives du
challenger Pepsi. Aux États-Unis, sa part de marché sur le segment des colas décline, passant de
60 % en 1950 à 24 % en 1980 et à 21,8 % en 1984. Une des causes vient du développement
\/|
d’autres segments, notamment les boissons allégées (sans saccharose, sans caféine) et les sodas.
$|
En 1985, les ventes de Pepsi s’apprêtent à dépasser celles de Coke. Le diagnostic marketing
4$

révèle que l’origine du problème réside dans la médiocre perception du goût. Ainsi, le succès de
Diet Coke (sans sucre) s’expliquerait par une plus grande proximité de saveur avec Pepsi que le
By

Coke standard. La mise au point d’une nouvelle formule est urgente. Près de 200 000 personnes
sont soumises à des tests de produit en aveugle (évaluation du produit sans la marque Coke) et en
identifié (avec la marque), pour un coût total de 4 millions de $. En septembre 1984, le succès
est à portée de main : une nouvelle formule, testée en aveugle, obtient des écarts significatifs (6 à
8 points) par rapport à Pepsi qui surpasse lui-même le Coke standard de 10 à 15 points.
L’amélioration entre l’ancien et le nouveau Coke est indéniable : 18 points en moyenne. Le
23 avril 1985, New Coke est lancé en fanfare et la production de l’ancien produit cesse à la fin
de la semaine. Pourtant, durant le mois de juin, les consommateurs de l’ancien Coke manifestent
de façon virulente leur hostilité au nouveau Coke : un marché noir s’organise, 60 000 appels
assaillent le standard de Coca-Cola ; plus surprenant, de nouveaux tests en identifié donnent des
évaluations très négatives pour New Coke, du genre « eau de vaisselle », « cire pour meuble »,
« Pepsi ouvert depuis deux jours », etc.
Le 11 juillet 1985, au cours d’une conférence de presse spéciale, Donald Keough annonce le
retour de l’ancien Coke et révèle indirectement la faille des études : « Le simple fait que tout ce
temps, cet argent et ces compétences aient été dépensés dans la recherche marketing ne pourrait
mesurer ou indiquer la profondeur de l’attachement émotionnel ressenti par tant de personnes au
Coca-Cola original. Cette passion, oui c’est bien le mot, nous a réellement surpris. C’est un
mystère merveilleux, une énigme américaine bouleversante, et vous ne pouvez mesurer cela, de
même que vous ne pouvez mesurer l’amour, l’orgueil ou le patriotisme. » L’erreur stratégique
des études de marché précédentes est là : en fait, la vraie question d’étude n’était pas
d’« évaluer la préférence des consommateurs pour la nouvelle ou l’ancienne formule », mais
plutôt de « déterminer la préférence pour le nouveau produit, sachant qu’il doit remplacer
l’ancien ». Le capital de marque lié à l’ancien produit est énorme, puisqu’il renvoie au drapeau
américain, à Roosevelt ; certains interviewés parlent de « violation de la liberté de choix » et
font référence à la déclaration d’indépendance !
Cette décision spectaculaire est suivie d’effets stupéfiants : très rapidement, le Classic Coke
dépasse les ventes du New Coke et rattrape Pepsi dès le début de 1986 ; quant au New Coke, sa
part de marché atteint 3 % en 1986 et, même s’il est rebaptisé Coke II en 1990, ses ventes
sombrent : 0,1 % en 1997. Et pourtant, en test en aveugle, le goût de New Coke surpassait
largement celui de Classic Coke...

Retrait prématuré de l’Artic Coca


Le 25 octobre 2011, le centre de presse de Coca-Cola annonce que la marque change
provisoirement de look sur le marché américain et canadien pour supporter, aux côtés du WWF,
l’une des espèces mondiales les plus menacées par le réchauffement climatique, l’ours polaire.
Le projet baptisé « The Artic Home » vise à récolter des fonds pour sauvegarder
l’environnement où vit l’ours polaire. Coca avait prévu de doter 1,4 milliard de canettes d’un
nouvel emballage gris et blanc, censé rappeler la banquise. Celui-ci devait rester dans les
linéaires jusqu’en février 2012. Les autres marques du groupe, quant à elles, arboraient un
\/|
bouchon blanc pour amplifier l’impact de la campagne. La marque a versé 1,4 million d’euros
$|
dans un premier temps et s’est engagée à doubler chaque don de consommateur, dans la limite
4$

d’un million de dollars. Mais, le 3 décembre 2011, l’opération est stoppée brutalement, suite à
de nombreuses plaintes de consommateurs qui confondaient la canette spéciale arctique, avec les
By

canettes argentées de Coca Light ; d’autres indiquaient que le goût du Coca classique était
différent dans ces canettes blanches, d’autres enfin considéraient que toucher à la célèbre canette
rouge relevait du sacrilège...

Conclusion
La première phase des réflexions nécessaires pour un bon cadrage de l’étude de marché est
achevée. Nous avons montré que la formulation du problème, primordiale pour l’efficacité de
l’étude, comportait nombre de difficultés.
Il ne faudrait cependant pas en déduire trop rapidement que toutes les formulations sont complexes
et nécessitent un flair digne de Sherlock Holmes. La plupart du temps, le problème est clairement
posé, le diagnostic marketing a été validé avec soin, les questions d’étude sont bien délimitées.
Dans un tel cas, le chargé d’études peut directement passer à la rédaction du projet, à condition
qu’il dispose d’une bonne connaissance générale du marché correspondant aux produits ou services
qui font l’objet de l’étude. Mais dans le cas contraire, il doit, préalablement à la rédaction du
projet, engager des études documentaires préliminaires. Ce sera l’objectif du prochain chapitre.
Test de connaissance
(Cochez une seule réponse par question.)
Q1. Les questions managériales et questions d’étude sont le plus souvent :
(1) identiques
(2) voisines
(3) différentes
Q2. L’étude de marché conduit le plus souvent :
(1) au maintien de l’incertitude
(2) à la réduction de l’incertitude
(3) à la suppression de l’incertitude
Q3. Les objectifs de l’étude, le plus souvent :
(1) sont clairement formulés par le demandeur
(2) sont vaguement formulés par le demandeur
\/|
(3) ne sont pas du tout formulés par le demandeur
$|
4$

Q4. Pour une étude traitant d’un problème stratégique, les solutions à adopter sont :
(1) connues et faciles à recenser
By

(2) connues et existent en petit nombre


(3) partiellement connues et existent en grand nombre
Réponses : voir annexes téléchargeables sur www.vuibert.fr

Bibliographie
BOSS J.-F. et LINDON D., « L’efficacité des études de marché », Revue française du marketing,
no 134, 1991/4, pp. 35-49.
FAIVRE J.-P., « Des études classiques aux études stratégiques », Revue française du marketing,
no 142-143, 1993/2-3, pp. 75-88.
FLORES L., « Web 2.0 et études de marché : vers une nouvelle génération d’études de marché ? »,
Revue française du marketing, no 220, 2008, pp. 7-16.
GILLES M., « Le consommateur change, les études aussi. État des lieux après la tempête », Revue
française du marketing, no G201, 2005, pp. 111-126.
LE MAIRE P., « Comment améliorer les relations entre les cabinets d’études et leurs clients ? »,
Revue française du marketing, 1979/4, pp. 41-49.
NICHOLSON P., « Marketing : réconcilier les hommes d’études et les décideurs », Revue française
de gestion, no 61, janvier/février 1987, pp. 22-32.
SMITH S.M., « Research and pseudo research in marketing », Harvard Business Review, avril 1974,
pp. 73-76.
SOLE A., « L’information aide-t-elle la décision ? », Revue française du marketing, no 142-143,
1993/2-3, pp. 89-96.
WALISER B., « Évaluation des études d’aide à la décision dans les administrations centrales », « Le
processus de décision dans les organisations », Journée d’études AFCET, Paris, 1980.

\/|
$|
4$
By
Chapitre 2

Études préparatoires
Je ne crois pas qu’avoir étudié soit
une si grande chose, si l’on n’étudie plus.
Alain

Les travaux préliminaires ne sont généralement guère appréciés par les clients et les chargés
d’études. Les premiers, pas toujours convaincus de l’utilité de l’opération, considèrent qu’il s’agit
là d’une source de retard imputable à l’inexpérience du réalisateur de l’étude. Les seconds, plus
favorables à cette perspective, seraient prêts à y consacrer le temps nécessaire, mais les contraintes
de leur planning militent pour une réduction, voire une suppression, de ces travaux.
\/|
Pourtant l’étude préparatoire facilite souvent la compréhension du problème et précise les
$|
directions pour les investigations ultérieures. Cette étape affine, voire modifie, le cadrage initial du
4$

problème, et oriente plus clairement le projet d’étude (voir figure 2.1.). Nous verrons d’abord les
diverses catégories d’informations utiles et les solutions envisageables pour une étude préliminaire.
By

Puis nous présenterons les différentes méthodes permettant une recherche rapide de ces éléments.
Enfin, nous consacrerons une dernière partie au fonctionnement des panels, sources privilégiées
d’approfondissement des informations existantes.
Figure 2.1. Plan du chapitre

\/|
$|
4$
By

I. Identifier les informations nécessaires

A. Quand faut-il engager une étude préparatoire ?


Les travaux préparatoires ne revêtent pas le même degré d’importance selon les circonstances.
Comme le suggère la figure 2.2., l’opportunité de cette phase dépend essentiellement de deux
éléments :
– la qualité de la formulation initiale du problème ;
– la familiarité préalable avec le sujet d’étude.
Figure 2.2. Opportunité d’une étude préparatoire

Caractéristiques de
Type de circonstances
l’étape
– Formulation claire du problème.
Facultative – Existence d’un diagnostic marketing solide.
– Questions d’étude précises ou routinières.
– Formulation vague du problème.
– Possibilité de pistes d’étude multiples.
– Méconnaissance de l’environnement de l’étude
Préliminaire
(concurrence, produits, consommateurs, législation, etc.).
(orientation du projet d’étude)
– Apprentissage d’un vocabulaire spécifique (préparation
d’un questionnaire).
– Recensement d’hypothèses ou de scénarios d’études.
– Point rapide sur une question urgente ou importante.
Finale – Estimer l’importance d’un problème ou la nécessité
d’un approfondissement.
\/|
1. Étape facultative (ou inutile)
$|
Un problème clairement posé ou bien délimité et bien maîtrisé par le chargé d’études, par exemple
4$

dans le cas de travaux routiniers, rend cette étape inutile. Ces conditions sont fréquentes pour une
décision relevant de la tactique : par exemple, le choix d’un emballage, d’une publicité, d’un nom
By

de marque. Dans ce cas, on passe directement à l’étape suivante, c’est-à-dire la rédaction du projet
d’étude.

2. Étape préliminaire
Si la formulation du problème est floue ou complexe, il est utile de rechercher les informations déjà
existantes pour cerner plus facilement le périmètre de l’étude ultérieure et pour choisir une
méthodologie adéquate pour les investigations ultérieures. De même, si on hésite entre plusieurs
directions, pour des raisons évidentes de coût et de temps, il n’est guère possible d’engager une
étude complète sur chaque piste. Dans ces conditions, l’étude préliminaire est indispensable pour
débroussailler rapidement chaque axe, puis justifier la direction qui devra être approfondie. Cette
étape sert de fondation au futur projet.

3. Étape finale
Dans d’autres circonstances, l’étude préliminaire se suffit à elle-même ; elle donne lieu à la
rédaction d’un rapport de synthèse qui répond au problème initial. Tel est le cas lorsqu’une
entreprise souhaite connaître l’environnement d’un marché pour évaluer l’opportunité d’une
diversification ou d’un rachat de concurrent. Si les opportunités identifiées n’apparaissent pas
intéressantes, les investigations s’arrêtent là ; dans le cas contraire, la pré-étude permet de justifier
l’engagement ultérieur d’un budget plus important pour approfondir le marché.
B. Nature des informations à identifier
Il existe trois catégories d’informations (voir figure 2.3.). Selon le problème, le chargé d’études
privilégiera l’une ou l’autre.
1 – Primaires : les informations sont obtenues par interrogation ou observation directe d’individus.
Ces données de « première main » sont collectées durant la phase de terrain d’une étude
quantitative ou qualitative ad hoc.
2 – Secondaires : les informations résultent de l’accumulation de connaissances antérieures au
problème étudié. Elles préexistaient à l’étude, d’où leur appellation de données de « seconde
main ». L’analyse documentaire se nourrit d’informations secondaires.
3 – Paramétrées : les informations simulent différentes réalités. Introduites dans des modèles, leur
variation permet de juger les résultats de plusieurs scénarios. Les marchés-tests simulés (MTS)
fonctionnent ainsi.
Figure 2.3. Nature des sources d’information

Nature des
Définitions Exemples
informations
– Informations spécifiquement élaborées pour
\/| – Interviews de
répondre aux objectifs de l’étude en cours.
$|
Primaires consommateurs.
– Elles sont collectées auprès de
– Observations d’achats.
4$

« répondants ».
– Informations de « seconde main », c’est-à- – Statistiques de ventes.
By

dire déjà disponibles avant l’étude en cours. – Indices démographiques.


Secondaires
– Elles sont collectées auprès de « sources » – Analyses sectorielles.
internes ou externes. – Tendances de conjoncture.
– Informations obtenues après traitement par un – Modèles de simulation de
modèle construit pour reproduire, en la part de marché (marché-test
Paramétrées simplifiant, une situation complexe. simulé).
– Elles sont manipulées par l’analyste pour – Modèles de média-
reproduire différents scénarios possibles. planning.

C. Partage, exclusivité et régularité de l’information


Une décision importante concerne le degré de confidentialité souhaité pour l’acquisition de
l’information. Le partage diminue considérablement les coûts de l’étude, mais impose une
méthodologie commune et risque de livrer à la concurrence des éléments stratégiques. L’exclusivité
permet une approche personnalisée et garantit la discrétion, mais elle a un coût souvent prohibitif.
Un dernier point à considérer concerne le degré de régularité nécessaire : certaines questions font
l’objet d’investigations régulières, d’autres n’ont qu’un caractère ponctuel. Différentes catégories
d’études correspondent à chacune de ces combinaisons. Nous allons brièvement les présenter.
1. Étude ad hoc
C’est une étude ponctuelle réalisée « sur mesure » pour le compte d’un seul demandeur. La
population enquêtée varie d’une étude à l’autre. Le réalisateur propose une méthodologie
spécifiquement conçue pour résoudre le problème posé : questionnaire, plan de collecte, traitement
des données. Le demandeur (entreprise privée, administration, association, etc.) confie
généralement la réalisation à une société de conseil extérieure à l’organisation.

2. Omnibus
L’omnibus est une étude périodique, hebdomadaire ou mensuelle, réalisée par une société de
conseil pour le compte de plusieurs clients (multi-souscription). La population enquêtée est parfois
la même d’une étude à l’autre, mais les questions posées sont différentes. Chaque client achète le
droit de poser une ou plusieurs questions. Les données recueillies font l’objet de quelques analyses
simples avant leur livraison. Il n’est pas, en principe, possible d’obtenir les résultats des questions
posées par les autres souscripteurs. Les médias (presse et télévision) sont de gros consommateurs
d’études omnibus : il suffit d’acheter cinq ou six questions pour bâtir un article autour d’un sondage
« exclusif ». L’intérêt de l’omnibus tient dans sa rapidité de réponse : un à deux jours avec un
sondage par Internet, trois ou quatre jours par téléphone, trois à quatre semaines si l’interview est
réalisée au domicile des enquêtés. Véritable tude « à la carte », l’omnibus fournit une réponse
rapide à un problème simple. \/|
3. Panel
$|
4$

Sur le plan statistique, un panel est un échantillon sur lequel on effectue des mesures répétées à
intervalles réguliers et dans des conditions similaires ; par extension, on donne le nom de panel à la
By

procédure globale de l’étude. On parle alors d’étude longitudinale.


En pratique, c’est une étude périodique qui est réalisée sur les mêmes individus, à intervalle de
temps variable : chaque semaine, mois ou trimestre. Elle s’opère pour le compte de plusieurs
clients. Les questions posées et/ou les mesures effectuées sont identiques d’une vague d’enquête à
l’autre. Compte tenu du coût global de mise en œuvre, ce sont généralement des sociétés d’études
spécialisées qui assurent la gestion d’un panel. Les résultats s’achètent marque par marque, ou par
catégorie de produits, d’où la possibilité pour une entreprise de suivre ses concurrents. Grâce à
leur périodicité et à leur richesse, les panels constituent une source d’information préliminaire
précieuse ; leur analyse facilite le diagnostic marketing et la construction du projet d’étude.
Les instituts d’études utilisent trois types de panels :
– le panel de base : les unités qui le composent sont soit des points de vente, soit des ménages. À
l’origine, les relevés se faisaient manuellement pour les distributeurs et par questionnaire pour les
consommateurs. Depuis le milieu des années quatre-vingt-dix, les informations sont transmises par
Internet sur la base d’un scanning des produits (en caisse pour les distributeurs, à domicile pour les
ménages) ;
– le panel test (panel mixte) : il repose sur une fusion de trois sources de données (single source) :
l’offre disponible au point de vente, les achats des consommateurs et la pression promotionnelle
(publicité, prospectus, échantillon de produits). La zone géographique est dite étanche, c’est-à-dire
que tous les achats des ménages sont suivis au sein d’une ville donnée, tous les points de vente
faisant partie du panel. Ils sont utilisés comme marché-test, ultime étape avant le lancement de
nouveaux produits. On extrapole, à partir de ces ventes partielles, les futures ventes et/ou parts de
marché au niveau national ; la précision est de l’ordre de plus ou moins 10 % par rapport aux
ventes réelles ;
– le panel en accès libre (open access) : c’est une sorte de réservoir de répondants qui sont
sollicités régulièrement pour suivre des achats de biens ou services peu fréquents (par exemple,
location de voiture, vacances, fréquentation des médias, etc.) ou pour servir de terrain pour des
études ad hoc portant sur des populations rares.

4. Baromètre
L’étude barométrique suit périodiquement l’évolution d’indices propres à une marque, un produit ou
un secteur d’activité. Généralement, ce ne sont pas les mêmes personnes qui sont interrogées, mais
elles sont issues d’une même population. Les questions sont les mêmes d’une enquête à l’autre. Là
encore, la lourdeur de gestion conduit à une sous-traitance auprès d’instituts spécialisés. L’achat se
fait par souscription collective : plusieurs clients achètent tout ou une partie des résultats.
Les baromètres calculent quelques valeurs pour synthétiser une activité quelconque. La cote de
popularité des hommes politiques constitue un exemple connu : tous les mois, un échantillon de
répondants indique s’il se sent « proche ou éloigné » d’une liste d’hommes politiques. On compare
ainsi l’évolution des scores, mois par mois. D’autres baromètres contrôlent la satisfaction d’une
\/|
clientèle ; les compagnies aériennes, les chaînes hôtelières et les entreprises de location de voitures
$|
utilisent ces informations pour ajuster leurs actions marketing. D’autres enfin suivent de la
conjoncture économique : moral des ménages, confiance des chefs d’entreprise, etc.
4$

5. Marché-test simulé (MTS)


By

C’est une étude réalisée pour le compte d’un seul client, dont l’objectif est d’évaluer les chances de
succès commercial d’un produit(19). Le marché-test est ici simulé : à la différence d’un panel-test où
l’on observe des ventes réelles, les achats sont fictifs, car ils ne donnent pas lieu à un véritable
paiement. Ils sont effectués dans un laboratoire qui reconstitue à l’identique un ou plusieurs rayons
d’un point de ventes. On applique un modèle quantitatif aux données recueillies (comportement
d’achat et questionnaire spécifique au produit testé) pour prévoir les ventes futures. Tout comme
pour le marché test réalisé sur un panel, on extrapole les futures ventes et/ou parts de marché au
niveau national. La précision est comparable à celle des panels-tests : de l’ordre de plus ou moins
10 %. Le marché-test simulé est proche de l’étude ad hoc, puisqu’il s’adapte au besoin spécifique
d’un client, mais il s’en différencie dans la mesure où la procédure d’étude est standardisée.

6. Synthèse
La figure 2.4. présente les points communs et les différences des diverses techniques.
Figure 2.4. Comparaison des techniques d’études

\/|
$|
4$
By

II. Exploiter les informations disponibles


Deux méthodes de collecte sont utilisables : la recherche documentaire et les rencontres avec les
demandeurs de l’étude (brief client).

A. Étude documentaire : « le point sur l’existant »


1. Principes
C’est une technique de recensement et d’analyse d’informations provenant de sources secondaires.
L’analyse documentaire est nommée « desk-research » (« faite à partir d’un bureau ») par les
Anglo-Saxons. Elle comporte trois étapes :
1 – Sélection des sources. La principale difficulté consiste à repérer les sources susceptibles de
contenir les informations recherchées. De surcroît, toutes les sources n’ont pas le même degré de
fiabilité, ni le même coût.
2 – Dépouillement. Le chargé d’études analyse et contrôle par recoupement les informations ; il
n’hésite pas à éliminer les sources douteuses.
3 – Synthèse. Le rapport final présente les données importantes et donne un avis global sur le
marché.

2. Classement des différentes sources


Les données secondaires peuvent être catégorisées selon le mode d’accès à l’information (support
et réseau) et selon l’origine de la source (interne et externe à l’entreprise), comme l’indique la
figure 2.5.
Figure 2.5. Flux d’informations pour une étude documentaire

\/|
$|
a. Sources internes
4$

Déjà disponibles dans l’entreprise, ces sources touchent à l’environnement interne ou externe de
By

l’entreprise ; une partie d’entre elles forme le système d’information marketing et figure dans le
tableau de bord. Leur localisation est parfois délicate, car elles sont dispersées dans un grand
nombre de fichiers : commercial, marketing, comptable et financier, etc. (voir figure 2.6.).
L’analyste doit restructurer les informations en fonction de l’objectif de l’étude documentaire.
Figure 2.6. Types d’informations fournies par les sources secondaires

Nature Producteurs de
Nature de l’information
des sources l’information
Chiffres d’affaires, parts de marché –
Gamme de produits, catalogues –
Liste des points de vente – Publicités
Services commerciaux et marketing.
passées, salons – Prix publics
(concurrence) – Études de marché
antérieures.
Fichiers facturation clientèle – Tarifs,
Sources internes Services financiers et juridiques. remises – Coûts de revient produit –
à l’entreprise Délais de règlement, contentieux.
Services du contrôle qualité et Rotation des stocks, délai livraison.
logistique. Taux de rebut et défauts, retours des
produits.
Coût du personnel et rotation –
Services des relations humaines et
Journaux internes. Dossiers de presse,
extérieures.
rapports d’activité.
Statistiques et indices macro-
Organismes mondiaux et
économiques, sociodémographiques –
communautaires.
Flux d’échanges (import-export).
État, ministères, Insee.
Analyses industrielles.
Analyses sectorielles nationales et
Chambre de commerce, COB. Greffes régionales – Études commerciales et
tribunaux. financières – Bilans et comptes de
résultats (SA, SARL).
Bibliothèques universitaires et Ouvrages, périodiques.
communales. Statistiques Insee.
Bases d’informations privées. Rapports de stage, mémoires, thèses.
Prix concurrents, présence en linéaire
Distributeurs.
– Arguments de vente, PLV.
\/|
Chiffres d’affaires (agrégés) du
$|
secteur – Études de tendance :
4$

Sources externes Associations et syndicats


concurrence, produits, attentes des
professionnels.
consommateurs – Annuaires
By

professionnels.
Annuaire des exposants – Tendance
Salons, foires, expositions. économique du secteur – Nouveaux
produits.
Études sectorielles et d’entreprises
Presse professionnelle et presse des
(chiffres d’affaires, part de marché) –
affaires.
Produits actuels et futurs. Annuaires.
Journaux internes – Dossiers de
Presse d’entreprise (concurrents). presse sur les produits. Rapports
d’activité.
Études sectorielles – Interrogation des
Sociétés de conseils. banques de données – Veille
concurrentielle et technologique.
Avis et recommandations sur les
produits et marques (bouche-à-
Blogs, forums, sites web,
oreille), informations personnelles
communautés on line.
(opinions), attentes, usages et
transformations de produits.
Avis, recommandations, défaillances
de produits ou marques (bouche-à-
Réseaux sociaux.
oreille), informations personnelles,
modalités et lieux et fréquence de
consommation.

Jusqu’au début des années quatre-vingt-dix, les informations étaient produites sur un support papier
et archivées par le service émetteur. L’interconnexion des réseaux informatiques de l’entreprise, via
un système local intranet, offre aujourd’hui de nouvelles perspectives, car la totalité des fichiers
devient accessible au sein de l’entreprise. Dans un second temps, via un site Internet sécurisé,
chaque membre de l’entreprise peut accéder, à tout moment et du monde entier, au serveur de
l’entreprise pour y rechercher les informations dont il a besoin. Différents systèmes assurent le
filtrage des utilisateurs et la protection contre les attaques externes. Ces interconnexions de fichiers
nécessitent une restructuration des bases de données pour s’adapter aux demandes d’informations
multiples et hétérogènes.
Les principaux indices et ratios disponibles sont les suivants :
– Chiffre d’affaires (valeur et volume)
Ventilation par produit, pays, région, canal, vendeur. \/|
Calcul des variations annuelles, comparaison avec la concurrence.
$|
– Part de marché (valeur et volume)
4$

Ventilation par produit, pays, région, canal.


Observation de l’évolution annuelle, comparaison avec les concurrents les plus proches.
By

– Budget publicitaire
Décomposition par produit (en % du chiffre d’affaires).
Part de voix.
– Veille concurrentielle
Prix publics (relevés de prix), barèmes et remises accordées aux distributeurs.
Gammes (catalogue), fiche technique, mode d’emploi.
Date des derniers lancements de produits, positionnements retenus.
Variation des parts de marché et chiffres d’affaires.
Pige des budgets publicitaires.
– Résultats des études antérieures
Notoriété et image de marque, attentes et taux de satisfaction des clients.
Segmentation du marché : poids, évolution.
Taux de retour des produits, réclamations clients.
Rapports de vente trimestriels, comptes rendus de salons (tendance de la profession).
– Rentabilité produits ou marques
Contribution aux frais fixes, marges brute et nette.
b. Sources externes
Elles se répartissent en cinq grandes catégories :
1 – Sources publiques ou parapubliques
Eurostat, Insee, chambres de commerce, douanes, Banque de France, chambres syndicales des
entreprises sont quelques-unes de ces sources. Elles sont quasi gratuites et fournissent la plupart
des données économiques, sociales et démographiques de base.
2 – Sources professionnelles et associatives
La presse professionnelle édite de nombreux périodiques couvrant un secteur d’activité ou un
métier spécifique : par exemple, Libre Service Actualités pour la grande distribution, CB News
pour la publicité, Marketing Magazine pour le marketing. Les associations professionnelles
(ADETEM ou l’AFM en marketing) émettent des annuaires professionnels ou gèrent leur propre
centre de documentation. Les comités d’organisation des différents salons professionnels éditent
des dossiers de presse complets sur le secteur d’activité (tendance de la conjoncture, part de
marché, nouveaux produits et technologies, etc.).
3 – Sources commerciales
\/|
Les consultants (Forrester Research, eConsultancy, Fla Consultants,etc.), les instituts spécialisés
$|
dans la veille concurrentielle (Bipe, Credoc, Dafsa, Eurostaf, Euromitor, Xerfi, etc.), les sociétés
4$

d’études en marketing digital (ex. : eMarketer) proposent des études sur les marchés du monde
entier. La réponse est immédiate par téléchargement d’études ou de rapports déjà rédigés. D’autres
By

sociétés sont spécialisées dans la fourniture d’informations provenant de périodiques


(professionnels et scientifiques) ou d’ouvrages électroniques (e-book) ou d’entreprises : Abi-
inform, Amadeus, Ebsco, Emerald, Science direct, etc. Enfin, d’autres proposent des adresses (e-
mail et postales) et des fichiers qualifiés de consommateurs, fort utiles pour les terrains des études
ultérieures (Consodata, Claritas, etc.).
4 – Sources personnelles
Internet permet de faire part de ses avis ou opinions sur tel ou tel sujet, mais aussi de recommander
ou de déconseiller tel produit ou telle marque. Ce bouche-à-oreille électronique est diffusé via des
forums, des blogs, des sites personnels et des réseaux sociaux (Facebook, Twitter, Foursquare,
etc.). L’étude des propos échangés donne rapidement des tendances sur toutes sortes de sujets,
produits ou marques. Par exemple, on a montré sur Twitter une corrélation entre l’humeur des
tweets échangés et les cotations sur les places financières(20) ! Des analyses automatisées des
discours exploitent et traitent ces sources secondaires : on peut repérer des leaders d’opinion, la
nature des jugements portés sur des produits ou des marques, etc.(21)
5 – Sources communautaires
De la même manière, Internet regroupe des passionnés dans des communautés dédiées à des
activités, produits ou marques(22). On y recueille des avis (positifs ou négatifs) sur des produits ou
marques, des suggestions pour des améliorations ou des modifications de produits existants. Le
suivi de ce bouche-à-oreille électronique permet également de détecter les points forts et faibles
des concurrents, leurs éventuelles défaillances, etc.
Ces sources nombreuses, autrefois difficiles à localiser, sont aujourd’hui assez facilement
identifiables grâce aux moteurs de recherche Internet (Google, Bing, Yahoo !, Voila, Exalead, etc.).
La fiche technique 2.1. présente quelques exemples de questions d’étude que l’on peut traiter on
line(23).(24)

Fiche technique 2.1. Interrogations documentaires on line


1. – Vous recherchez des sources statistiques globales sur des marchés ou pays ?
Les sources françaises publiques (Insee : http://www.Insee.fr) et celles de la Communauté européenne
(Eurostat : http://epp.eurostat.ec.europa.eu/portal/page/portal/statistics/themes) sont accessibles en ligne. Ces
données statistiques sont indispensables, par exemple, pour établir un échantillon par quota. Pour un
récapitulatif des différents sites intéressant les études marketing, Le Guide Internet des sources d’information
marketing est édité tous les deux ans par l’ADETEM (http://www.adetem.org). Il passe en revue les principales
sources documentaires publiques et privées utilisables en marketing, les tendances de la consommation.
2 – Vous recherchez des articles scientifiques ou managériaux en marketing ?
Plusieurs instituts spécialisés proposent dans leur catalogue l’accès on line (moyennant un abonnement assez
onéreux) à la quasi-totalité des articles publiés par les revues scientifiques ou la presse professionnelle en
marketing. Citons parmi d’autres : \/|
Proquest-ABI-Inform
http://www.proquest.co.uk/en-UK/
$|
Business Source (EBSCO)
4$

http://www.ebscohost.com
Science-direct
By

http://www.sciencedirect.com/
Selon les cas, on obtient le texte complet ou un résumé de l’article. À noter que certains éditeurs de revues ou
associations scientifiques proposent d’acheter à l’unité les articles par paiement direct en ligne sur leur site
propre.
Le moteur de recherche Google Scholar, proposé par GoogleŽ 6​, permet de localiser, puis d’accéder aux sources
et contenus d’articles et d’ouvrages scientifiques disponibles sur Internet. Il bénéficie de la qualité de
l’algorithme Page Rank propre à Google et donne la possibilité de télécharger gratuitement un nombre très
important de textes complets au format PDF.
3 – Vous recherchez des informations sur un marché ou un concurrent ?
Un grand nombre de sociétés d’études sont spécialisées sur la veille documentaire et réalisent régulièrement
des études documentaires sur un très grand nombre de marchés. Ces sources sont payantes. On peut trouver
une liste de ces ressources sur des sites internet personnels orientés vers la veille marketing, tels Intelligence
center http://c.asselin.free.fr/french/etude-de-marche.htm. Voici, parmi d’autres, quelques sociétés
spécialisées dans la réalisation d’études sectorielles :
Bipe (http://www.bipe.fr/)
Credoc (http://www.credoc.fr/)
Dafsa (http://www.ihsglobalinsight.fr/)
Euromonitor (http://www.euromonitor.com)
Eurostaf (http://www.eurostaf.fr)
Forrester (http://www.forrester.com/rb/research)
Xerfi (http://www.xerfi.fr/)
Voici un exemple de la page d’accueil du site Internet de cette dernière société, leader en France des études
sectorielles.

\/|
$|
4$

4 – Vous recherchez des résultats de sondages en marketing (ou sur d’autres thèmes) ?
Parmi d’autres, l’Institut Ipsos propose gratuitement sur son site une banque de sondage
(http://www.ipsos.fr/sondages). Celle-ci offre la possibilité de combiner plusieurs critères (dates, thèmes, type,
By

etc.) pour trouver les informations sous la forme de tris à plat.

3. Intérêt et limites de la méthode


L’étude documentaire est utile pour trois types d’objectifs.

a. Connaître l’environnement d’un marché


Le chargé d’études aborde un secteur d’activité méconnu et souhaite recenser ses caractéristiques :
par exemple, les parts de marché des marques les plus importantes, les différentes gammes des
produits ou la segmentation du marché selon l’âge et le revenu des consommateurs, les canaux de
distribution les plus utilisés. Il peut aussi apprendre le vocabulaire utilisé par les professionnels.
Ces informations permettent de maîtriser rapidement les traits saillants d’un marché ; en outre, elles
sont souvent indispensables pour construire le plan de sondage (voir chapitre 8) ou pour rédiger le
questionnaire.
Le flash-étude 2.1. présente la première phase d’une étude de marché demandée par le Service
d’études et d’aménagement touristique de la montagne (ministère du Tourisme) pour définir de
nouveaux produits dans le domaine de l’immobilier de montagne. L’approche documentaire
s’imposait comme une phase d’investigation préparatoire nécessaire à la compréhension du marché.
Flash-Étude 2.1.
Cerner le marché de l’immobilier de montagne
« À partir des documents disponibles auprès de différents services et administrations publics,
notamment Direction régionale de l’Équipement, Service des collectivités locales, Observatoire
des logements touristiques des Alpes du Nord, CEMAGREF, notaires, agents immobiliers,
promoteurs [...], le consultant fera un état de la conjoncture de l’immobilier en station. Cet état
de la conjoncture, intégrant les résultats des cinq dernières années disponibles (1990 et 1991 si
possible), présentera les différentes situations, les évolutions connues et celles prévisibles sur
chacun des types de stations étudiés en fonction du marché local, des produits proposés, de
l’environnement touristique et de loisirs des stations concernées, des prix pratiqués, etc. Cette
restitution, plutôt dynamique, valorisera tous les caractères évolutifs des marchés abordés en
approfondissant les deux dernières années.
Le bureau d’études s’efforcera de définir une segmentation de clientèle, « cœur de cible »
correspondant plus particulièrement à chaque type de station étudié, au vu des informations dont
il dispose (âge, CSP, origine géographique des acquéreurs, surfaces recherchées, etc.).
Pour cette première phase de l’étude, le SEATM fera un inventaire des sources disponibles et
recueillera les statistiques et informations disponibles auprès des différents services publics
\/|
énumérés ci-dessus. Il appartiendra au bureau d’études de traiter les données, de les recouper
notamment à partir d’informations recueillies auprès des partenaires privés : notaires, agents
$|
immobiliers, promoteurs. »
4$

Source : « Évolution et perspectives pour l’immobilier de montagne »,


By

Appel d’offres du SEATM, 22 octobre 1991.

b. Formuler des hypothèses


L’analyse dégrossit un problème complexe et met au jour ses principales composantes. Par
exemple, nous avons vu dans le premier chapitre qu’une étude dont l’objectif serait de « déterminer
les causes de stagnation d’un chiffre d’affaires » n’est pas faisable directement parce que toute une
série d’hypothèses sont envisageables a priori : prix trop élevé, produit vieillissant, réaction de la
concurrence, force de vente peu motivée, etc. L’analyse des sources internes et externes permet de
resserrer l’éventail des causes possibles. Seules les deux ou trois hypothèses les plus
vraisemblables seront testées dans l’étude de marché ultérieure.
c. Résoudre un problème
À la différence des deux cas précédents, l’investigation documentaire doit faciliter la prise de
décision. Cette technique est employée, par exemple, pour évaluer approximativement le potentiel
de ventes d’un marché dans le cadre d’une diversification ou pour fixer le quota de ventes d’un
agent commercial. Éventuellement, le manager décidera d’affiner, si la situation ou les enjeux
financiers l’exigent, les conclusions de l’étude documentaire.
Imaginons l’exemple suivant(25).
Exemple
Un fabricant d’aliments pour bébés se demande si l’idée d’une nouvelle ligne de petits
pots destinée aux « bébés gros mangeurs » est adaptée au marché français. Le potentiel
est-il suffisant ? Le taux de natalité est de 12,1‰ avec une population de 66 millions
de personnes, soit 798 600 naissances annuelles. Ce type de produit est consommé
durant à peu près deux ans, d’où un potentiel global d’environ 1,6 million de bébés.
On peut estimer que l’appétit des bébés suit une loi normale. Un bébé est qualifié de
« gros mangeur » quand les quantités qu’il consomme sont supérieures à la moyenne
des quantités consommées par les tout-petits, plus une fois l’écart-type, soit donc 16 %
de la population : 1,6 million × 0,16 = 256 000 bébés. Si un bébé consomme en
moyenne un pot par jour, le marché annuel potentiel s’élève à : 365 × 256 000, soit
93,4 millions de pots. Le potentiel obtenu semble a priori suffisant. Il justifie des
études plus fines qui permettront de confirmer ces calculs approximatifs.(26)

En résumé, l’analyse documentaire est une technique flexible capable de s’adapter à une grande
diversité de problèmes. Internet décuple sa puissance et sa capacité de réactivité. Cependant, quel
que soit le support d’investigation, la méthode n’est pas infaillible : la figure 2.7. résume ses
avantages et ses inconvénients.
\/|
$|
Figure 2.7. Évaluation d’une analyse documentaire
4$

Avantages Inconvénients
By

Étendue du champ (trop large ou trop réduit).


Simplicité. Informations périmées.
Coût réduit (150 à 2 000 euros). Fiabilité variable des sources.
Incorporation directe des données numérisées Absence de contrôle de l’origine des sources
dans le rapport (traitement de texte, tableaux). (référence parfois inconnue).
Disponibilité permanente. Orientation de l’information (lobbying,
Rapidité de réponse. groupement d’intérêt, effet de vitrine).
Information souvent parcellaire.

B. Brief avec le client : le complément d’information


Le chargé d’études consacre, si possible, une bonne demi-journée de travail pour contacter le client
de l’étude et échanger avec lui sur sa demande. Ces échanges permettront de bien « caler » le projet
d’étude en affinant la compréhension des objectifs d’étude et de délimiter le périmètre de la future
collecte des données (échantillonnage, questionnaire, délai de réalisation, etc.). Le flash-étude 2.2.
présente les principales attentes des praticiens des études lors de ces réunions de travail.
Flash-Étude 2.2.
Les attentes des instituts pour un brief étude(27)
« La phase de position du problème est essentielle pour la réussite de la recherche, puisqu’il
s’agit de situer le sujet de l’étude dans le contexte économique et humain de l’entreprise (son
environnement, ses problèmes et ses réussites, ses hommes, ses espoirs et ses objectifs, etc.). Le
commanditaire de la recherche doit donc replacer le problème spécifique dans son ensemble,
préciser les objectifs assignés à l’étude, mais également faire comprendre l’entreprise : ses
réactions, ses habitudes de pensée, son histoire. Pour le futur réalisateur, l’effort doit donc porter
sur une compréhension rapide mais complète des implications du problème, de son importance
relative (objective et subjective) pour la vie de l’entreprise et donc des conséquences de l’étude
et de ses résultats. [...]
Il est rare en effet que l’entreprise soit démunie de toute information concernant un service ou un
produit, ou qu’une recherche documentaire rapide n’apporte pas d’éléments intéressants sur la
clientèle et ses comportements d’achat. Ainsi, il va être nécessaire, à partir des informations
dont dispose l’entreprise, de déterminer ce que l’on veut chercher, afin de centrer l’étude sur
l’essentiel. Les objectifs seront plus précis, plus centrés (et corrélativement plus difficiles à
atteindre parfaitement), mais devront être situés dans un contexte d’ensemble de l’entreprise. Il
est donc nécessaire, dès cette phase, de s’efforcer de trouver ce que nous appellerons les points
\/|
d’ancrage de l’étude. [...] La question ‘‘Tout savoir au sujet de...’’ s’efface au profit
$|
d’interrogations précises. »
4$

Trois types de personnes sont susceptibles d’être interrogés par le chargé d’études durant
By

ces rencontres : les demandeurs de l’étude, les distributeurs et les prescripteurs. Nous avons listé
dans la figure 2.8. les principales informations que l’on peut obtenir auprès de chacun de ces
interlocuteurs.
Figure 2.8. Préparation d’une réunion de calage

Objectifs du rendez- Types d’informations à


Interlocuteurs
vous recueillir
– Comprendre le contexte d’étude.
– Attentes du demandeur et des
– Préciser/valider le diagnostic
utilisateurs de l’étude.
marketing.
– Sources documentaires internes.
– Cadrer précisément les questions
– Contraintes méthodologiques (taille et
d’étude.
disponibilité de l’échantillon, achat de
Entreprise – Hiérarchiser les priorités.
fichiers, etc.).
– Obtenir les informations
– Contraintes particulières (fourniture
existantes.
des échantillons de produit,
– Définir le périmètre du terrain,
déplacements, nombre d’exemplaires
chiffrer le coût et évaluer les
du rapport d’étude).
délais de réalisation de l’étude.
– Marques existantes, prix de vente,
présence sur les points de vente,
perception des forces et faiblesses des
Distributeurs et – Connaissance de la concurrence.
marques.
prescripteurs – Apprentissage du vocabulaire.
\/|
– Caractéristiques techniques des
$|
produits, argumentaires de vente,
catalogues.
4$
By

En pratique, des obstacles ou des situations particulières rendent ces informations parfois difficiles
à obtenir :
1 – Budget d’étude faible : pour de petits budgets (2 000 à 4 000 euros), une société d’étude ne peut
consacrer beaucoup de temps à ces entretiens, sous peine de travailler avec une marge négative.
2 – Contrainte de temps : il arrive fréquemment que les partenaires ne puissent dégager le temps
nécessaire à ces rendez-vous. L’un freine parce qu’il a d’autres études en cours, l’autre parce qu’il
souhaite que l’étude commence au plus tôt ou parce que son agenda est déjà surchargé.
3 – Objectifs d’étude inavouables ou obscurs : nous avons vu dans le chapitre précédent qu’il
existe de nombreux cas où les objectifs réels d’une étude de marché sont assez éloignés du
traditionnel but de « réduction de l’incertitude pour faciliter la prise de décision ».
La figure 2.9. liste un ensemble de questions à poser pour mieux cerner les objectifs et la
problématique du demandeur d’étude. Les réponses faciliteront grandement la rédaction du projet
d’étude.
Figure 2.9 Check-list pour cadrer un brief étude

Thématiques Questionnements
Histoire et culture d’entreprise.
Degré de familiarité de l’entreprise avec le problème
Environnement de l’étude rencontré.
Destinataires et utilisateurs des résultats.
Compétences par rapport aux études.
Situation par rapport à la concurrence.
Compétences distinctives et savoir-faire particulier.
Contexte marketing
Diagnostic et choix marketing (validation).
Contraintes particulières.
Certitude, quasi-certitude ou incertitude, incertitude
totale ?
Existence d’études antérieures sur ce problème (ou
Anticipation des résultats problèmes voisins)
– Si oui : combien et quand ? Qu’a-t-on pensé des
résultats ?
– Si non : depuis quand a-t-on décidé de faire une étude ?
\/|
Hypothèses et scénarios retenus.
$|
Recensement des questions d’études Liste des objectifs d’études.
4$

Hiérarchie des priorités.


Finalité : résoudre un problème ou identifier une
By

opportunité ?
Investissements financiers découlant de l’étude.
Enjeux marketing Décision à prendre après l’étude : gravité, ampleur des
conséquences.
Délais pour la remise des résultats.
Évaluation du budget consacré à l’étude.

III. Approfondir les informations grâce aux panels

A. Objectifs et catégories de panels


L’intérêt majeur des panels est d’estimer avec une assez grande précision les volumes de
consommation, les parts de marché et la disponibilité des marques ou catégories de produits
présents sur un marché.
Depuis 2000, la totalité des panels est scannérisée, c’est-à-dire fondée sur une lecture optique du
code-barres des produits(28). Le code permet une identification précise et immédiate de la référence
et du prix du produit acheté.
Trois types de panels existent : les panels de base qui suivent séparément les consommateurs et les
distributeurs, les panels en accès libre (open access) et les panels-tests (mixtes) qui combinent en
une source unique (single source) l’offre (distributeur) et la demande (consommateur). Les deux
premiers couvrent une zone géographique nationale ; le dernier est limité à six villes. Nous
présentons les grandes lignes des panels dans la figure 2.10., puis nous analysons plus en détail les
panels de base et mixtes dans les paragraphes qui suivent.
Figure 2.10. Les grandes catégories de panels

Types et
Collecte des
noms des Instituts Orientation Échantillons
données
panels
Panels de base (consommateurs)
Carte
d’identification lors
du passage en caisse
+ saisie électronique
à domicile
\/| (homescanner :
terminal optique).
Comportement
$|
Transfert des
Nielsen d’achat :
4$

données
Homescan (The Nielsen alimentation, 14 000 foyers
hebdomadaire
Company) entretien, hygiène,
By

(par Internet).
beauté, textile.
Cumuls mensuels,
trimestriels et
annuels.
Livraison des
résultats 22 jours
après la fin de
période.
Comportement Saisie électronique
d’achat grande à domicile
consommation en (« scannette » :
Kantar GMS : alimentation, terminal optique) et
28 000 individus
Worldpanel Worldpanel entretien, hygiène, saisie manuelle du
1,4 million de codes
Usage (Groupe WPP- beauté, textile prix, quantités, lieux
EAN
Kantar) (900 000 références d’achat, budget total,
en code-barres + date, promotion.
livret Envoi quotidien (par
complémentaire). Internet).
Panels de base (distributeurs)
9 600 points de
ventes représentant
97 % du chiffre Lecture optique lors
d’affaires des du passage en
hypermarchés et des caisse.
Produits de grande supermarchés (dont
consommation avec Drive) et de la
Enquêteurs pour
code-barres collecte mensuelle
Infoscan Census Symphony IRI relever les données
(alimentaire, des ventes du hard causales (suivi
hygiène, beauté, discount. hebdomadaire des
textile).
promotions).
Dont 490 Synthèse
(210 hypermarchés hebdomadaire.
et
280 supermarchés)
pour les données
causales
Lecture optique lors
du passage en
caisse, supports
\/|
informatiques.
$|
4$

Enquêteurs pour le
5 500 points de
relevé manuel des
Produits de grande vente
By

données causales
consommation dont 522
(têtes de gondoles,
Scan Track (alimentaire, (210 hypermarchés
Nielsen facings en linéaires,
e-CENSiel hygiène, beauté, et
promotions, ruptures
textile, bricolage, 312 supermarchés)
de stock).
etc.). pour les données
Cumuls ventes
causales
hebdomadaires et
mensuelles.
Livraison des
résultats entre 5 et
11 jours après la
période.
Produits
technologiques et Lecture optique lors
culturels du passage en
(électronique grand caisse.
public, multimédia, 360 familles de Codification
Retail & informatique, produits. spécifique de
Technology GfK téléphonie, 41 circuits de certains produits.
consoles, DVD, CD, Cumuls ventes
photo, optique, distribution. adaptés selon le
livres, 25 000 magasins. cycle d’achat :
électroménager, bimestre, mois,
bricolage, semaine.
jardinage).

Panel en accès libre (open access)


Auto-administration
Achat de produits
des questionnaires.
courants non
Envoi postal
alimentaires et
TNS (compléments par
services :
20 000 foyers téléphone).
automobile,
TNS-Sofres (49 600 individus). Cumuls mensuels,
transports, banques,
Métascope (Groupe WPP- 7 000 communes. trimestriels et
assurance,
Kantar) 35 % de taux de semestriels.
équipement maison,
remplacement 80 % de taux de
pharmacie, santé.
annuel. retour des
Attitude et usage
questionnaires.
produits grande
Cadeaux pour les
consommation.
panélistes.
\/|
$|
Panels-tests (mixtes)
4$

Lecture optique en
caisse couplée avec
By

la carte
d’identification du
Distributeurs :
Behavior Scan consommateur.
54 (hypermarchés et
(Marketing Durée : 16 à
GfK (50 %) et supermarchés)
Scan) Grande 24 semaines.
Médiamétrie 11 enseignes.
(fusion avec consommation. 6 villes : Angers
(50 %) Consommateurs :
Scannel en (TV), Brive (TV),
22 000 foyers.
2011) Château-Thierry,
Test TV : 3 villes.
Le Mans, Poitiers
(TV), Sens.
Population totale :
680 000 habitants.

B. Apport d’un panel de consommateurs


Le panel procure des informations sur le profil de l’acheteur d’un produit ou d’un service. Les
observations portent sur les achats effectués par la « principale responsable d’achat » (PRA) ou, le
cas échéant, par un autre membre de la cellule familiale, s’il s’agit d’une consommation destinée au
foyer. Le panel répond aux interrogations suivantes : qui consomme quoi ? En quelles quantités ? À
quel prix ? La fiche technique 2.2. présente les grandes lignes du panel Worldpanel Usage.

Fiche technique 2.2. Panel consommateurs Worldpanel Usage


1 – Marchés couverts et échantillonnage
Le panel est géré par le groupe Kantar-TNS, filiale de WPP. L’échantillon est composé de 28 000 individus
représentatifs des 25,5 millions de ménages français, y compris les hommes seuls. Les panélistes sont répartis
sur 9 régions. Les achats réalisés par la « principale responsable d’achat », généralement l’épouse ou la mère de
famille, sont destinés à la consommation au foyer. L’âge du ménage correspond à celui du responsable des achats.
Les ménages sont divisés en quatre classes (aisée, moyenne supérieure, moyenne inférieure, modeste). Ces
classes sont déterminées en fonction du revenu mensuel brut du ménage, corrigé du nombre d’unités de
consommation de ce ménage (définition Insee). Le nombre d’unités de consommation est obtenu en additionnant
une composante foyer (égale à 0,3), une composante individu de 15 ans ou plus (égale à 0,7 par personne) et une
composante individu de moins de 15 ans (égale à 0,5 par personne). Ainsi le nombre d’unités de consommation
est égal à 1 pour un ménage d’une personne seule ; à 1,7 pour un ménage de deux adultes sans enfant ; à 2,2 pour
un foyer composé de 2 adultes et d’un enfant de moins de 15 ans, etc. Le suivi de l’évolution des variables
sociodémographiques (âge, naissance, profession, revenu, habitat) se fait selon un échantillon tournant :
1 000 nouvelles personnes sont incorporées chaque année, soit 12,5 % du panel. Avec les défaillances et
abandons, le taux de rotation annuel s’établit aux alentours de 30 %. Les panélistes sont catégorisés sur la base
d’une typologie fondée sur leur étape de vie ; ils remplissent une fois par an un questionnaire de fréquentation
des médias.
2 – Informations relevées et production des résultats
\/|
Les panélistes sont équipés d’une « scanette », c’est-à-dire d’un terminal optique ; celui-ci saisit le code-barres
$|
(code EAN) figurant sur l’emballage du produit et le stocke dans sa mémoire. Les achats sont enregistrés
4$

quotidiennement, puis envoyés, via un modem, sur le serveur de Kantar Worldpanel. Le système informatique
contient un dictionnaire de 1,4 million de références EAN. Des menus spécifiques permettent d’enregistrer
manuellement la quantité, le prix, le lieu d’achat, le jour et l’individu du foyer pour chaque acte d’achat.
By

Worldpanel Usage couvre un total de 10 millions d’actes d’achat annuels. Les résultats sont édités
mensuellement (15 jours après la fin du mois) sur support électronique, avec une ventilation hebdomadaire des
indices.
3 – Indices calculés
Les résultats sont présentés par grande catégorie, puis sous-catégorie de produits, puis marque par marque. Le
marché des barres céréalières est ainsi décomposé en trois segments principaux : les barres de céréales pures,
les semi-enrobées et les enrobées de chocolat. Tous les mois, voire pour certains produits courants toutes les
semaines, une dizaine d’indices de base sont calculés. Les principaux sont les suivants :
– NA P100 : nombre d’acheteurs pour 100 ménages, c’est-à-dire le taux de pénétration du produit dans
l’échantillon du panel.
– QA P100 : quantités achetées pour 100 ménages de l’échantillon.
– QA/NA : quantités achetées moyennes par ménage acheteur du produit ou de la marque.
– SD P100 : somme dépensée pour 100 ménages, c’est-à-dire le chiffre d’affaires en valeur du produit ou de la
marque (cumulées sur la période).
– SD/NA : somme moyenne dépensée par ménage acheteur, c’est-à-dire le budget moyen consacré au produit ou
à la marque par un consommateur.
– Nbact/NA : nombre d’actes d’achat effectué par acheteur.
– QAact : quantité moyenne achetée par acte d’achat.
– PRIX MOYEN : prix public moyen payé pour obtenir une unité type du produit.
– PDM QA : part de marché en volume de la sous-catégorie de produit ou de la marque.
– PDM SD : part de marché en valeur de la sous-catégorie de produit ou de la marque.
– TN : taux de nourriture, soit la part de marché de la marque chez ses acheteurs ; c’est un indicateur de la
fidélité à la marque.
Tous les trimestres, Kantar Worldpanel ventile les résultats selon plusieurs variables, telles que l’âge de la
ménagère, les régions, la profession du chef de famille, le type de point de vente, les étapes de vie, le nombre
d’enfants présents dans le foyer, etc. D’autres indices évaluent la fidélité de l’acheteur, les transferts d’une
marque vers l’autre : cela permet de tracer un profil type de l’acheteur fidèle et de l’occasionnel, de déterminer
les marques concurrentes les plus dangereuses. Les indices de ventilation sont les suivants :
REP POP : répartition de la population. C’est la décomposition de l’échantillon du panel selon l’âge, le nombre de
personnes vivant au foyer, la classe de revenu, etc.
REP QA : répartition des quantités achetées. C’est le poids (en %) de chacun des segments acheteurs du produit.
Ces indices sont très précieux pour le chargé d’études qui dispose, non seulement du profil type de l’acheteur
d’une catégorie de produits, mais aussi des profils des consommateurs pour chacune des marques du panel.
REP NA : répartition des acheteurs. Elle représente la ventilation du nombre total de ménages acheteurs sur
chacun des segments considérés.
IND QA : indice des quantités consommées par le segment. Le niveau du segment « acheteur moyen » a
l’indice 100. Cela permet de repérer rapidement le segment sur- ou sous- consommateur du produit.

Le panel offre deux niveaux d’analyse : une série de base et une série de résultats complémentaires.

1. Analyses de base issues d’un panel de consommateurs(29)


Elles portent sur le volume, la pénétration, le profil et la fidélité des acheteurs. Les figures 2.11. à
\/|
2.13. (pages suivantes) donnent les indices de base et les graphiques résumant la position d’une
$|
marque fictive La Sportive sur le marché des eaux minérales plates. Les résultats répondent aux
4$

interrogations suivantes :
– Quelle est la situation globale de la marque ? La position de La Sportive est satisfaisante au
By

premier abord : sa part de marché en volume gagne 0,4 point en un an (figure 2.12.) ; mais les
chiffres du 4e trimestre 2000 sont préoccupants, car on constate un effritement de 0,3 point (5,5 %
contre 5,8 %) par rapport à l’année précédente.
– Quels sont les leviers de croissance du chiffre d’affaires ? Faut-il développer la consommation
par ménage acheteur (QAact, QA/NA) ou le nombre de ménages acheteurs (taux de pénétration :
NA P100) ? La progression de La Sportive résulte d’un gain de 4,3 points du taux de pénétration :
le NA P100 passe de 28,4 à 32,7. En revanche, les quantités consommées baissent de 4 % : le
QA/NA chute de 38,5 à 36,9 litres. La stabilité du QAact (8,3 à 8,4 litres) révèle que cette
contraction s’explique par la diminution du nombre d’achats sur la période.
– Quel est le cœur de clientèle de la marque ? Le format 1,5 litre représente l’essentiel des ventes
de La Sportive (NA/100 et QA/ NA) ; l’introduction de la bouteille de 75 cl en 1998 est un succès,
puisque la pénétration dans la cible est de 12,6 % en 1999, avec un taux de réachat en progression.
L’âge n’est pas une variable discriminante : toutes les catégories sont également pénétrées (NA/100
compris entre 29,9 % et 36,2 %), mais une marge de progression existe pour les moins de 35 ans.

2. Analyses complémentaires issues d’un panel scannérisé de consommateurs


Les ventes étant connues semaine par semaine, le suivi de l’efficacité des promotions on-pack
(offre spéciale avec réduction de prix, ventes par lots) est possible. Le panel répartit les volumes
totaux en ventes de base (achats au prix normal) et en ventes incrémentales (achats au prix
promotionnel). Les analyses permettent de tracer le profil des acheteurs selon leur sensibilité ou
leur résistance aux offres promotionnelles. Pour La Sportive, la contribution moyenne des
promotions au chiffre d’affaires est modeste : environ 10 % (voir figure 2.11.). Mais une analyse
plus fine montre l’intérêt de l’action : alors qu’en avril 2009, 19,9 % des quantités achetées étaient
en promotion (contre 5,4 % en mai), la part de marché en volume reste pratiquement stable le mois
suivant : 5,8 % en avril et 5,5 % en mai.
Par ailleurs, on dispose de la position des marques pour chaque enseigne, y compris pour les
marques à faible part de marché ou pour les enseignes modestes. On calcule différentes formes de
fidélité des acheteurs : par enseigne, par marque et selon le format du produit. Des analyses
explicatives des comportements sont conduites à partir des séries chronologiques d’achats ; elles
permettent notamment de connaître la cause d’un transfert d’achat sur un concurrent. La figure 2.11
montre que le taux de nourriture est assez faible et se dégrade durant l’année 2014 (14 % à 13,5 %),
alors qu’on avait assisté à une légère progression depuis 2012 sur le format 1,5 litre (figure 2.12.).
Une action doit être entreprise rapidement sur les moins de 49 ans, car leur fidélité est très faible.
Figure 2.11. Synthèse des informations fournies par le panel Conso Scan

\/|
$|
4$
By

Source : Kantar Worldpanel


Figure 2.12. Analyse des ventes selon le format

Source : Kantar Worldpanel


\/|
$|
C. Apport d’un panel de distributeurs
4$

Tout comme un panel de consommateurs, un panel de distributeurs non seulement permet de


connaître les volumes, le prix de vente et les parts de marché des différentes marques présentes
By

mais apporte également des informations complémentaires :


– présence ou absence de la marque dans les canaux de ventes : hypermarchés et supermarchés,
pharmacies, etc. ;
– suivi des évolutions de la distribution : repérage des canaux en hausse et en baisse, rotation des
stocks ;
– connaissance de l’offre disponible au point de vente : linéaire (en cm) attribué aux marques,
ruptures de stocks, promotions temporaires des concurrents (têtes de gondoles, réductions de prix,
ventes par lots, etc.).
D’une manière générale, l’avantage majeur des panels de distributeurs est de pouvoir expliquer les
réactions du consommateur devant une modification de l’offre : on sera en mesure d’évaluer
l’impact d’une hausse de 10 % du référencement de la marque ou l’impact de la mise en avant du
produit dans les hypermarchés. Les informations recueillies permettent d’évaluer les liens entre la
part de marché et la part de linéaire. En contrepartie, le panel de distributeurs ne fournit pas
d’éclairage sur les segments acheteurs des marques, comme le revenu, l’âge, le style de vie ou la
fidélité à la marque. La fiche technique 2.3. retrace les grandes lignes du panel Scantrack de
Nielsen, panel de distributeurs le plus utilisé en France.
Figure 2.13. Analyse des ventes selon le profil de l’acheteur

Source : Kantar Worldpanel


\/|
Fiche technique 2.3. Panel distributeurs Scantrack (Nielsen)
$|
4$

1 – Marchés couverts
Deux approches sont offertes : un quasi-recensement (census) et un échantillon de points de ventes.
By

– Le census se fait sur 5 500 points de vente, soit une couverture à 96 % de l’univers des magasins généralistes
de plus de 400 m2 de surface de vente ayant au moins un rayon alimentaire (hypermarchés, supermarchés et
hard discounters). Les secteurs alimentaire, hygiène-beauté, droguerie, beauté-parfumerie sont suivis. Les
grands magasins, collectivités, kiosques, cinémas et les marchés sont exclus du panel. Les supérettes et les
libres-services de moins de 400 m2 sont observés sur une base trimestrielle et pour un nombre limité de
marchés (liquides, produits frais, confiserie). Les stations-service font l’objet d’un suivi spécifique ; les
pharmacies font partie d’un autre panel, dénommé Scantrack-pharma. Le census couvre les neuf régions définies
par Nielsen. Les informations proviennent du scanning des produits effectué lors du passage en caisse. Cette
quasi-exhaustivité fournit à la force de vente les mêmes chiffres de ventes que ceux dont disposent les chefs de
rayons ou les acheteurs d’une enseigne : les négociations se font sur des bases précises, l’acheteur et le vendeur
connaissant les ventes d’une référence donnée dans un point de vente donné.
– L’échantillon comporte 522 points de vente (210 hypermarchés et 312 supermarchés). Les données fournies
par scanning sont complétées par un relevé manuel de données causales, c’est-à-dire des informations qui
déterminent les volumes de ventes : linéaire au sol, linéaire développé, facing, rupture de stock, présence en tête
de gondole, etc. Ce complément d’information permet d’optimiser l’allocation du linéaire aux marques et de
calculer les effets d’une mise en avant temporaire du produit sur les ventes.
2 – Informations relevées et production des résultats
La couverture de l’activité du magasin est assurée par la lecture électronique en sortie de caisse des codes-
barres EAN et par relevés manuels. La saisie du code donne, grâce à un dictionnaire de correspondances, quatre
informations : la référence exacte, la catégorie du produit, le format, la marque. Les bases de données propres à
chaque magasin donnent le prix de vente TTC de la référence, la quantité, le rayon d’origine, le montant du panier
total. Les données sont cumulées par code EAN durant une période mensuelle, puis ventilées sur une base
hebdomadaire, par magasin, par référence, par segment de marché, par marque, etc. Des inspecteurs, équipés de
micro-ordinateurs portables avec lecteur de code EAN, complètent le dispositif en enregistrant
700 informations supplémentaires par hypermarché et 450 par supermarché. Les promotions des distributeurs
(tête de gondole, linéaire permanent, distribution de prospectus) et des fabricants (ventes par lots, offre
spéciale, x % gratuits) sont relevées quotidiennement, sauf pour le linéaire qui fait l’objet de quatre relevés par
an. Les résultats sont édités 13 fois par an, chaque période étant fractionnée par semaine ; la livraison se fait
12 jours après la fin de la période écoulée sous forme de CD-ROM ou de fichier électronique.
3 – Indices calculés (30)
Ils donnent des informations sur la position concurrentielle des produits et des marques de l’entreprise et sur
plusieurs variables du marketing-mix. Leur analyse permet d’identifier les tendances d’un marché, de la
catégorie de produit à la référence, avec ventilation par canal de distribution et par région de vente.
Position concurrentielle
– Ventes volume (VQ) : ventes aux consommateurs exprimées dans l’unité de mesure choisie par le client.
– Ventes valeur (VV) : ventes en volume valorisées par le prix de vente aux consommateurs.

– Part de marché :

– Ventes moyennes hebdomadaires (VMH) :


Distribution
– Distribution Numérique Vendant (DN) : c’est le pourcentage de magasins de l’univers ayant vendu la ligne
(marque, référence) au cours de la période. Une DN de 75 dans les hypermarchés pour la marque X de bière
signifie que la marque X a été vendue par 75 % des hypermarchés du panel.
\/|
$|
4$

– Distribution Valeur Vendant (DV) : c’est la part de chiffre d’affaires de la classe de produits réalisé par les
magasins ayant vendu la ligne au cours de la période. Une DV de 83 veut dire que les 75 % d’hypermarchés qui
proposent la bière X représentent 83 % des ventes totales de bière.
By

– Ruptures Numériques Vendants (RN) : c’est le pourcentage de magasins de l’univers dont les ventes de la ligne
ont été nulles sur une semaine et non nulles la semaine précédente. Les ruptures correspondent à une absence
de ventes due au fait que le produit n’est pas présent en linéaire.
– Ruptures Valeur Vendants (RV) : c’est la part de chiffre d’affaires du marché réalisé par les magasins ayant été
en rupture de ventes pendant la période.
– Ventes par point de DV : Ventes/DV. Cet indicateur est utilisé pour quantifier un potentiel (ou une perte) de
ventes lié à des gains (ou pertes) de distribution ; il mesure la performance absolue d’un produit dans les
magasins où il est vendu.
Merchandising
Nombre moyen de références : c’est le nombre de codes EAN, standards et promotionnels, vendus en moyenne
par semaine.
– Linéaire à la référence (Linéaire en cm/Nombre de références).
Cet indicateur permet de quantifier le linéaire alloué à chaque référence ; lorsqu’il augmente, on parle
d’amélioration de la visibilité en linéaire.
– Duplication marques/formats : nombre moyen de marques/formats.
– Linéaire : longueur totale (en cm) occupée par une référence dans un rayon permanent. Il mesure l’espace
attribué à un produit de façon régulière, et exclut donc tous les emplacements temporaires (mises en avant,
têtes de gondole) : il est développé, car il fait la somme des longueurs d’étagères occupées par un produit. En
revanche, les niveaux d’empilement de produits sur une même étagère ne sont pas pris en compte ; pour les
produits exposés en présentation massive, on affecte un linéaire en cm égal à deux fois la largeur du support de
l’empilement.
– Part de linéaire (PDL) :

La part de linéaire mesure l’importance du linéaire accordé au produit en relativisant par rapport au linéaire
moyen du marché et permet ainsi de comparer un produit à ses concurrents. Il est souvent plus pertinent
d’utiliser la part de linéaire vendant pour tenir compte des mouvements de distribution et pour raisonner
uniquement dans les magasins vendants.
– Indice d’exposition : Part de linéaire/Part de marché
Une marque est surexposée quand son indice d’exposition est supérieur à 100 (PDL > PDM) et sous-exposée
quand son indice d’exposition est inférieur à 100 (PDM > PDL).
Prix
– Prix moyen = Ventes valeur totales/Ventes volume totales
– Prix hors promo = Ventes valeur hors promo./Ventes volume hors promo
– Prix promo. = Ventes valeur promo/Ventes volume promo
Ventes réalisées sous promotion
C’est la somme des ventes faisant l’objet d’une promotion (mise en avant, distribution de prospectus, réduction
de prix exceptionnelle) dans les magasins, et pendant les semaines où ces promotions ont été actives.
– Part de marché promo/100 % promo :
\/|
$|
4$

– Part de marché hors promo :


By

– Part de marché promo :

– DN promo : % de magasins ayant vendu la marque en promo au cours de la période


– DV promo : % de chiffre d’affaires du marché réalisé par les magasins ayant vendu la référence en promotion.
– Part de voix promo :

1. Analyse des informations du panel distributeurs


Les informations servent aux directeurs commerciaux pour mieux négocier avec les distributeurs :
l’argumentaire consiste à montrer les ventes et profits potentiels qu’obtient un point de vente
comparable en suivant la plate-forme d’offre (linéaire, mise en avant du produit, prix public
conseillé) établie par le fournisseur. La « part de marché détenteur » joue à ce propos un rôle
important. Elle mesure la part de marché réalisée par la marque chez les distributeurs qui la
référencent : c’est la part de marché théorique maximum(31) qu’obtiendrait la marque si elle était
présente, toutes choses égales par ailleurs, dans 100 % des points de vente. Elle se calcule de la
manière suivante :

L’homme d’étude dispose, avec cette batterie d’indices, de quantité d’informations permettant
d’orienter les investigations ultérieures : par exemple, selon les résultats, il s’orientera plutôt vers
une étude de prix, de promotion ou vers une modification du positionnement de la marque. La
figure 2.14 propose un exemple simplifié d’application.

Exemple
Le chef de la marque BÊTA constate que son concurrent direct, la marque ALPHA, a
réalisé un gain de part de marché important (+ 6 points) en un an, alors que sa propre
marque n’a progressé que d’un point. L’analyse de la DV montre les gros efforts
réalisés par les commerciaux de BÊTA pour accroître le référencement auprès des
points de vente importants, puisque 25 points ont été gagnés en un an ; cependant, cet
effort n’est guère payant car, en contrepartie, la demande s’effondre dans les points de
vente référençant la marque (– 7 points), donc l’amélioration de la part de marché
\/|
globale risque d’être de courte durée. Après avoir vérifié que ce problème ne vient
pas d’un problème de rupture des stocks, le chef de produit BÊTA aurait intérêt à
$|

commander une étude d’image de sa marque, puis à accroître son budget publicitaire.
4$

En contrepartie, la pression exercée par ALPHA sur les consommateurs semble


payante puisque sa part de marché chez les détenteurs progresse de 10 points et lui
By

offre des arguments solides pour obtenir des référencements supplémentaires dans
d’autres points de vente.

Figure 2.14. Exemple d’analyses tirées du panel Scantrack

Résultats obtenus par les deux


Année 1 Année 2
marques principales du marché
Marque ALPHA
Part de marché totale 10 % 16,0 %
DV 50 % 52,0 %
Part de marché chez les détenteurs (= Part 20 % 30,0 %
marché/DV)
Marque BÊTA
Part de marché totale 10 % 11,0 %
DV 50 % 75,0 %
Part de marché chez les détenteurs (= Part 20 % 13,3 %
marché/DV)
Par rapport à un panel consommateurs, le panel distributeurs donne la possibilité de comparer
l’efficacité de plusieurs types de promotions(32). En croisant les informations collectées par lecture
optique et celles apportées par les inspecteurs, on calcule les volumes des ventes réalisées durant
une ou plusieurs semaines, par type de promotion, par points de vente et par fabricant.
Par exemple, la figure 2.15. montre que, pour la marque X, les réductions de prix obtiennent la
meilleure efficacité sur les ventes. On observe aussi que les effets des promotions répétées
contribuent à accroître la part de marché à long terme de la marque. Ces analyses pourraient être
affinées par canal, par enseigne, par format, par marque, etc.
Les limites d’un panel de distributeurs sont subordonnées à l’existence de relations harmonieuses
entre les distributeurs et l’institut d’études. Conscients de leur position de force, les distributeurs
tendent à faire payer l’information fournie. L’institut propose plutôt des prestations de service
internes, sous la forme de recommandations pour la gestion du point de vente. Mais il est clair que
si une enseigne importante refuse de coopérer, ou fixe un dédommagement élevé, le panel de
distributeurs voit sa validité diminuer ou son coût s’accroître sensiblement. Notons cependant que
depuis le début des années 2000, la tendance va dans le sens d’une forte augmentation du nombre de
points de vente couverts par le panel : on est ainsi passé de 500 unités à plus de 7 300 pour le panel
Infoscan Census de Symphony IRI en 2012.
Figure 2.15. Décomposition des ventes d’une marque X
\/|
$|
4$
By

D. Apport d’un panel-test


Par rapport aux panels scannérisés consommateurs et distributeurs, les panels utilisés dans le cadre
de marchés-tests réels présentent deux spécificités :
– Ils se déroulent dans une zone géographique « étanche », généralement une ville de moyenne
importance représentative de la population française. En effet, tous les achats des panélistes
doivent être suivis, quelle que soit la situation du magasin dans la zone test. Depuis la disparition
en mai 2011 de Scannel (Kantar TNS), suite à la fusion avec Behavior Scan, les zones tests
couvrent six villes. Ce panel est géré par Marketing Scan, filiale commune aux instituts d’études
GfK et Médiamétrie ; nous le présentons plus en détail dans la fiche technique 2.4.
– Ils fonctionnent selon le principe de la source unique (single source), mesure unique qui permet
de relier l’offre et la demande, en couplant deux panels. Un premier panel regroupe les
hypermarchés et les supermarchés les plus importants de la ville test, de façon à couvrir de 90 % à
95 % des ventes de produits de grande consommation. Un second rassemble 2 500 à 4 000 foyers
représentatifs de l’agglomération. Lors du passage en caisse, le panéliste est identifié par une carte
contenant ses caractéristiques personnelles ; les codes EAN correspondant aux articles achetés et
aux prix payés lui sont automatiquement attribués, avec le lieu et la date d’achat. De surcroît, les
interviewés sont équipés d’un téléviseur avec un boîtier d’audimétrie pour suivre leur exposition à
la publicité ; le cas échéant, un décodeur transmet un spot publicitaire test destiné à un segment
spécifique du panel. En couplant les codes EAN et les cartes d’identification des panélistes, on sait
ainsi que la marque Xi a été achetée au prix Pi (promotionnel ou normal) par le panéliste Yj dans
l’hypermarché Zk qui offrait au temps Tn un linéaire Li, sachant que notre individu a été exposé ou
non à la publicité de la marque.
Les avantages d’un panel-test single source sont considérables : couverture presque exhaustive des
ventes, exactitude des informations recueillies, contrôle des paramètres du plan marketing,
représentativité des échantillons de consommateurs et de distributeurs, mesures hebdomadaires
permettant de déterminer les effets respectifs des différents plans médias et des promotions, etc. On
\/|
estime que la marge d’erreur des prévisions est inférieure à 10 % pour la première année du
$|
lancement.
4$

Les limites d’un panel-test tiennent au fait que, pour l’instant, seuls les produits de grande
consommation à rotation rapide (épicerie, hygiène, parfumerie, etc.) sont testables. Par ailleurs, la
By

complexité et la lourdeur des investissements technologiques rendent le panel-test très coûteux.


Enfin, la validité des prévisions suppose une couverture de la totalité des points de vente, et donc
des zones de chalandise bien délimitées.

Fiche technique 2.4. Panel-test – Bevahior Scan-Marketing Scan


(GfK-Médiamétrie)
1 – Objectifs
Fondé sur le dispositif Behavior Scan développé par IRI aux États-Unis, ce panel permet de tester, en condition
réelle, plusieurs options de plan marketing pour le lancement de produits de grande consommation. Il mesure les
performances du nouveau produit, recherche la combinaison optimale des variables du marketing-mix (DN/DV,
prix, packaging, communication), valide le plan média et pré-teste l’efficacité de la publicité.
\/|
$|
4$
By

2 – Principes méthodologiques
Les six villes retenues (Angers, Brive, Château-Thierry, Le Mans, Poitiers et Sens) ont des populations moyennes
de l’ordre de 150 000 habitants, soit environ 60 000 foyers. Les villes ont chacune un panel de 4 000 foyers
représentatifs de la population française. Leur structure sociodémographique est proche des moyennes
nationales, avec une bonne diversité des enseignes implantées. 11 enseignes sont partenaires et 54 points de
vente sont membres du panel distributeurs. Dans chaque ville, le panel se compose de 9 points de vente
(6 hypermarchés et 3 supermarchés) qui assurent plus de 95 % des ventes de la zone : l’évasion (achats des
panélistes effectués en dehors du panel) est très faible. Le schéma ci-après décrit les grandes lignes du dispositif
de collecte des informations. La durée du test varie de 16 à 24 semaines.
\/|
$|
Dans trois villes (Angers, Brive et Poitiers), les panels consommateurs sont reliés à un réseau de télévision câblé
qui diffuse les principales chaînes de la TNT nationale (Tf1, France 2, France 3, Canal+, France 5, M6, Direct 8,
4$

W9, TMC, NRJ12, NT1,Virgin 17, Gulli) et sept chaînes thématiques (LCI, Eurosport, Paris Première, CanalJ,
RT9, MCM). Les panélistes sont subdivisés en deux sous-échantillons de structure comparable : l’un reçoit les
By

publicités-tests grâce à un boîtier spécifique (groupe TV test), l’autre est exposé aux publicités nationales
(groupe de contrôle national). Un plan média est mis en place, avec possibilité d’insérer des publicités dans deux
hebdomadaires (Femme Actuelle et Téléloisirs), dans les quotidiens locaux et la presse gratuite et dans plusieurs
cinémas ; une campagne d’affichage extérieur et une distribution de prospectus peuvent compléter ce dispositif.
\/|
$|
4$
By

3 – Informations fournies
Les résultats permettent de réduire l’incertitude des décisions marketing, grâce au calcul du taux de pénétration
prévisionnel du nouveau produit, du volume d’achat, du taux de réachat, les parts de marchés prévisionnelles
(valeur et volume) et du prix moyen de vente. Les indices sont décomposables sur les deux groupes de
consommateurs (témoin et test) afin d’évaluer les effets respectifs des plans médias. Le schéma suivant montre
les résultats obtenus par le produit « Test » face aux marques concurrentes A, B, C.
\/|
$|

4 – Limites
4$

Le marché test est conçu sur la base d’une DN égale à 100 pour le nouveau produit, d’où la nécessité d’un
redressement ultérieur des résultats pour le lancement national. Enfin, comme tout marché test réel, Behavior
By

Scan suppose que les prix de vente futurs et les réactions des concurrents seront identiques à ceux pratiqués
durant le test.

E. Administration d’un panel


L’administration d’un panel commence par le recrutement des répondants. Elle implique ensuite de
les motiver pour qu’ils répondent aux sollicitations de l’institut, puis de gérer la rotation des
membres.

1. Recrutement et motivations des panélistes


Comment recruter un panéliste qui devra consacrer un temps important à la tâche ? Pour susciter
l’adhésion, le responsable du terrain peut s’appuyer sur trois types de motivations : donner son
avis, recevoir une récompense (rémunération) ou découvrir quelque chose de nouveau (voir figure
2.16.). L’implication des répondants (taux de participation) serait la plus forte dans ce dernier cas.
Figure 2.16. Motivations pour participer à un panel

Motivations % panélistes Taux de participation


Donner son avis (être écouté) 27 % 82 %
Rémunération (incentive) 25 % 80 %
Intrinsèque (intérêt, curiosité) 48 % 85 %
Source : Brüggen E., Wetzels M. et de Ruyter K., « Difference in motivation to participate in online panel »,
International Journal of Market Research, vol. 53, no 3, 2010, pp. 369-390.

La fixation du niveau de récompense est une opération délicate : s’il est trop élevé, le risque de
professionnalisation des répondants est réel (voir flash-étude 2.3.) et s’il est trop faible, le taux
d’abandon s’accroît rapidement. Les systèmes proposent des points échangeables en cadeau ou une
loterie pour gagner un cadeau important (la probabilité d’être tiré au sort dépend du nombre de
points de participation), ou encore des points échangeables contre des euros. Certains sites
annoncent(33) des rémunérations alléchantes, telles que 30 euros pour un sondage de 10 minutes.
Dans la pratique, c’est nettement moins : de l’ordre de 1 à 2 euros par enquête.
\/|
$|
4$
By
Flash-Étude 2.3.
Attention aux panélistes professionnels !
Il suffit de taper « sondage rémunéré » sur son moteur de recherche : des centaines de sites
proposent d’alléchantes contreparties. « J’ai découvert le filon en discutant sur un forum »,
confie une mère de famille du Loir-et-Cher. Elle surfe sur Internet pendant les siestes de ses deux
fillettes. « Je me suis inscrite sur plusieurs sites. La marche à suivre est simple. On te demande
de définir ton profil ‘‘mariée, mère, salariée...’’ et on te propose des sondages pour un yaourt,
des commentaires sur telle marque de poussette. » C’est bien payé ? « Oh non, (rires). Parfois,
on gagne 0,50 € par sondage, 5 € pour d’autres. Il faut y passer du temps. Mais, depuis janvier, je
rembourse l’abonnement Internet avec ça. Pas si mal. »(34)
Ainsi, chez GfK(35), 100 points correspondent à 1 euro. À chaque questionnaire complété, le
répondant est crédité d’une valeur point correspondant à la durée de l’enquête. À partir de 2 500
points (soit 25 euros), on peut échanger les points contre de l’argent et faire virer ses gains sur
son compte bancaire en remplissant le formulaire de transfert. Chez Ipsos, on ne propose pas
d’argent, mais des points transformables en cadeaux, mais ces réponses à sondages rémunérés ne
concernent pas les enquêtes d’opinion politique et de santé.
Comment les consommateurs panélistes vivent-ils la contrainte du scanning des produits à
\/|
domicile ? Voici ce qu’en pense une panéliste : « C’est ennuyeux quand on rentre avec un Caddie
$|
plein et que ce jour-là comme par hasard on n’a pas le temps de le faire. Parce qu’un caddy
plein, ça met bien 30 minutes. Sinon je trouve ça rigolo. Je scanne en plus les vêtements et les
4$

produits de beauté. Le principe c’est d’accumuler des points tous les trimestres. On t’envoie un
catalogue d’objets divers et variés que tu peux t’offrir en échange d’un certain nombre de points.
By

Exemple de cadeaux : sacs de couchage Lafuma, casseroles, Cocote-Minute, presse-agrumes, fer


à repasser, petit électro-ménager en tout genre, plaids, valises Delsey, sacs, gants en cuir,
épilatrice, vélo, tente, bijouterie fantaisie, machine à coudre, minuteur, station météo, perceuses
et outillage en tout genre, jardinage....Scanner va très vite en fait. Pour les très grandes courses,
ça prend du temps, parce qu’il faut repérer sur le ticket de caisse le prix des articles (comme
maintenant il n’y a plus aucune étiquette sur le produit lui-même), et ça, c’est un peu barbant.
Mais avec de la méthode, c’est rigolo(36). »

2. Rotation des panélistes


L’échantillon des panélistes doit être renouvelé pour combler les abandons spontanés et pour éviter
la lassitude et l’accoutumance des répondants. En effet, à force de répondre toujours aux mêmes
questions, les répondants finissent par répéter un comportement d’achat identique (effet de
panélisation). Le taux usuel de remplacement varie entre 25 % et 35 % par an, soit une présence
moyenne d’environ trois ans par panéliste (voir figure 2.17.).
Figure 2.17. Renouvellement d’un panel

Part de l’échantillon renouvelé


Causes de renouvellement
(par an)
Abandons spontanés 12 %
Purge des mauvais répondants
20 %
(pas de réponse pendant 3 mois consécutifs)
Purge des panélistes trop anciens (plus de
3%
10 ans)
Source : Estimations établies sur la base du panel Métascope, TNS (WPP-Kantar).

F. Bilan
Les panels ont réalisé une mutation totale sous le double effet de la lecture optique et d’Internet.
Cela s’est traduit par des gains importants en termes de réactivité : les résultats sont fournis sous
huit jours, contre quinze jours au tout début des années 2000. Les distributeurs ont largement joué le
jeu, ce qui a permis d’améliorer et d’automatiser la collecte des données, avec des gains importants
en fiabilité. Par ailleurs, le développement du recensement (census) des hypermarchés et
\/|
supermarchés a fortement amélioré la couverture des circuits, renforcée par le suivi des circuits
$|
spécialisés (magasins de proximité, hard discount).
4$

En termes de résultats, les panels permettent aujourd’hui d’obtenir des informations précises pour
une référence d’une marque, au niveau d’une enseigne. Plus qu’avant, ils sont devenus des outils
By

cruciaux pour les négociations entre les fabricants et les distributeurs. Enfin, les relevés manuels
permettent de mesurer précisément les effets des décisions prises au niveau marketing (offres
spéciales, promotions, etc.) et merchandising (linéaires, présence en tête de gondole, etc.).
Progressivement, les sociétés de panels sont passées du statut de vendeur de données à celui de
consultant marketing. Elles proposent de l’information directement accessible en ligne que les chefs
de produits ou de rayon peuvent retravailler en fonction de leurs besoins spécifiques. À côté de
cela, les analyses spéciales (effet d’une variation de prix, optimisation de linéaires) et des modèles
de marketing-mix sont proposés.

Conclusion
Nous avons montré dans ce chapitre le potentiel et l’intérêt d’une étude préparatoire. L’analyse
documentaire fait un point rapide sur les informations disponibles, pour éviter de rechercher à
grands frais des informations déjà existantes ou pour comprendre rapidement les traits majeurs de
l’environnement d’un marché. Les discussions avec le commanditaire de l’étude permettent de
cerner les axes majeurs de l’investigation. Les panels scannérisés offrent une multiplicité
d’informations sur les comportements d’achat, la position concurrentielle des marques et la
connaissance de leurs marketing-mix respectifs.
Dans bon nombre de cas, l’analyse approfondie des données collectées rend superflue une nouvelle
étude. Mais, dans d’autres cas, les informations disponibles sont insuffisantes ou inadaptées aux
préoccupations de l’entreprise. Les travaux préliminaires réalisés facilitent alors l’élaboration du
projet d’étude. Le chapitre suivant présente les opérations nécessaires à sa construction.

Test de connaissance
(Cochez une seule réponse par question.)
Q1. L’étude omnibus pose :
(1) plusieurs fois les mêmes questions à un même échantillon
(2) plusieurs fois les mêmes questions à un échantillon variable d’une étude à l’autre
(3) des questions différentes à un échantillon variable d’une étude à l’autre
Q2. Un panel impose théoriquement :
(1) de conserver le même échantillon d’une étude à l’autre
(2) de changer d’échantillon d’une étude à l’autre \/|
(3) de renouveler la moitié de l’échantillon d’une étude à l’autre
$|
Q3. Une donnée secondaire est :
4$

(1) une donnée de peu de valeur


By

(2) une information obtenue après une étude spécifiquement conçue dans ce but
(3) une donnée préexistante et provenant d’une étude antérieure
Q4. Une étude documentaire se fait à partir :
(1) des discussions préliminaires avec le demandeur de l’étude
(2) des sources secondaires externes ou internes à l’entreprise
(3) des seuls documents commerciaux de l’entreprise
Q5. La distribution valeur d’une marque est égale :
(1) au nombre de points de vente qui référencent la marque
(2) au pourcentage de points de vente qui référencent la marque
(3) à la part de marché représentée par les points de vente qui référencent la marque
Réponses : voir annexes téléchargeables sur www.vuibert.fr

Bibliographie
DECAUDIN J.M. et SAINT-MARTIN T., Les panels, Pearson, 2013.
MARS A., Les panels, outils incontournables de l’étude de marché, Heures de France, 2004.
VERNETTE É., FILSER M., GIANNELLONI J.-L., Études marketing appliquées, Dunod, 2008, p. 211.
VERNETTE É., Techniques d'études de marché, Vuibert, coll. « Vuibert entreprise », 2011.

\/|
$|
4$
By
Chapitre 3

Projet d’étude
Le chemin est long, du projet à la chose.
Molière

La première décision à prendre concerne la responsabilité de la conduite de l’étude : celle-ci peut


être effectuée par une organisation (entreprise, administration, collectivité locale) ou être confiée à
un institut spécialisé. Dans ce dernier cas, on procède généralement à un appel d’offres pour mettre
en concurrence les différents fournisseurs. Le responsable de l’étude détermine ensuite si les
futures investigations ressortent de la recherche marketing ou sont du domaine de l’étude de
marché : nous verrons les principes et conséquences de ces deux philosophies. Pour résoudre le
\/|
problème posé, le responsable de l’étude doit choisir, ou parfois combiner, une approche
$|
qualitative ou quantitative ; ceci fera l’objet d’une troisième partie. L’élaboration du projet d’étude
4$

représente la dernière phase avant le démarrage de l’étude proprement dite. Celui-ci concrétise les
réflexions et les investigations préliminaires. Sa rédaction se fonde sur les différentes décisions
By

prises dans les étapes précédentes. Nous terminerons ce chapitre par la présentation du marché des
études.
Figure 3.1. Plan du chapitre

\/|
I. Qui fait l’étude ?
$|
Nous présenterons d’abord les avantages respectifs de l’étude interne et de la sous-traitance, puis
4$

nous formulerons quelques recommandations sur la gestion d’un appel d’offres, lorsque la sous-
traitance est retenue.
By

A. Étude interne ou sous-traitée ?


1. Avantages de la sous-traitance
La tendance des dix dernières années a été de faire de plus en plus appel aux sociétés de conseil en
études de marché. Cette externalisation présente trois avantages pour l’entreprise.
a. Un regard neuf et impartial sur le problème posé
Le partenaire extérieur aborde la question sans idée préconçue et dispose d’un recul important par
rapport à l’environnement quotidien de l’entreprise. Ce détachement est souvent source de lucidité.
En outre, lors de décisions importantes, telles que le choix de produits nouveaux, le recours à un
cabinet extérieur permet de trancher en cas d’avis partagés dans l’entreprise. Enfin, la société
d’étude dispose théoriquement d’un pouvoir de critique plus important que le cadre d’entreprise,
parfois tenté d’atténuer des résultats défavorables, de peur de déplaire à sa hiérarchie.
b. Une mobilisation de compétences spécifiques
La résolution d’un problème peut exiger des compétences particulières dont l’entreprise ne dispose
pas. Selon la nature du problème à résoudre, les connaissances nécessaires embrassent des champs
disciplinaires hétéroclites : statistique, mathématique, informatique, économie, psychologie,
psychanalyse, sociologie, etc.

c. Une solution économique


Si le besoin annuel d’études est faible, les charges de structure de l’entreprise sont réduites grâce à
l’allégement, voire la suppression, du service interne d’études. Même lorsque ce dernier subsiste,
le recours aux sociétés spécialisées s’impose presque toujours pour la collecte et l’analyse des
données. En effet, la gestion d’un réseau d’enquêteurs est lourde et onéreuse : il faut recruter,
former, contrôler et payer des enquêteurs qui ne vont travailler parfois que quelques jours. Pour
l’analyse des données, le volume des informations à saisir est souvent trop important, et il n’est
guère avantageux d’amortir les logiciels d’analyse sur une ou deux études annuelles.
d. Une expertise sectorielle ou méthodologique
L’accumulation de connaissances dans un même secteur d’activité permet à l’institut de développer
des « normes » spécifiques pour apprécier de manière comparative les résultats d’une étude. Par
exemple, les marchés-tests simulés sont calibrés et ajustés à partir d’une base de données provenant
des précédents lancements de produits.

2. Avantages de l’étude interne \/|


Malgré les nombreux avantages de la sous-traitance, la présence d’un service d’étude interne n’est
$|
pas inutile. Ainsi, après avoir considérablement allégé ces dernières années, voire supprimé cette
fonction, les entreprises s’orientent aujourd’hui vers la conservation d’une cellule interne.
4$

L’existence de chargés d’études dans l’entreprise offre plusieurs atouts.


By

a. Un meilleur choix du sous-traitant


En l’absence de spécialiste « maison », il est délicat de choisir entre les différentes propositions de
prestataires d’études, compte tenu de la diversité des solutions méthodologiques possibles. Faut-il
préférer la solution A, plus chère mais plus sophistiquée, à la proposition B ? Le chargé d’études
arbitre et éclaire la direction générale sur les avantages et les inconvénients des diverses solutions
proposées.
b. Une plus grande capacité de négociation avec les sociétés d’études
Le responsable du service interne générera des économies substantielles en éliminant des
prestations superflues et en corrigeant les postes surévalués du devis. Par exemple, il dira si l’on
peut, sans trop de risques, réduire l’effectif de l’échantillon de 1 200 à 850 personnes.

c. Une utilisation des résultats optimisée


En l’absence de chargé d’études, les recommandations de la société d’études ont davantage
tendance à rester lettre morte, souvent parce qu’elles ne sont pas véritablement comprises par les
managers de l’entreprise. La présence en interne d’un spécialiste permet de disposer d’un service
après-vente disponible et qualifié, capable de veiller à une mise en œuvre adéquate des
recommandations formulées par une société d’études extérieure.
d. Une meilleure connaissance de l’environnement
Si le cabinet d’études bénéficie d’un regard neuf sur le problème posé, la contrepartie est souvent
son ignorance des spécificités du marché (concurrence, caractéristiques des produits, mode d’achat
et de distribution), et surtout sa méconnaissance de la culture de l’entreprise. Une recommandation,
même de grande qualité, risque d’être considérée comme inapplicable si elle va à l’encontre des
modes de raisonnement de l’entreprise. Par exemple, proposer des solutions créatives ou originales
à une entreprise réputée pour sa tradition et son sérieux est voué à l’échec. Pour limiter ces
inconvénients, certains cabinets s’organisent par secteurs d’activité (automobile, hygiène, médical,
alimentaire, etc.) et apportent ainsi à l’entreprise une expérience et une vue d’ensemble renforcée
par le grand nombre d’études réalisées antérieurement.
Le flash-étude 3.1. présente le portrait-robot d’un service d’étude dans une entreprise :
organisation, missions, taille et rémunération.

\/|
$|
4$
By
Flash-Étude 3.1.
Portrait-robot d’un service d’études en interne
Les chiffres suivants sont tirés d’une enquête réalisée pour l’UDA par TNS Sofres auprès d’un
échantillon de 251 personnes travaillant dans un service études en entreprise (dont
138 responsables).
Le service études est organisé par pays (40 %), par pôle ou direction (17 %) ou par entreprise
(15 %), parfois par marque (9 %) ou business unit (8 %). La fonction est rattachée à la direction
marketing (55 %), contre 28 % pour la direction générale (40 % pour les entreprises de moins
de 500 salariés) et, plus rarement, à la direction de la communication et à la direction
commerciale (8 % chacune). Il peut y avoir plusieurs services études dans l’entreprise (49 %).
La fonction études est reconnue lorsqu’elle dépend de la direction marketing ou de la direction
générale. Elle est le plus souvent (49 %) située à deux échelons du principal décideur. Les
études sont de plus en plus stratégiques : pour 40 % des interviewés (51 % en grande
consommation), les responsables études travaillent sur la connaissance des comportements des
consommateurs, qui permet d’identifier des insights et de faire des recommandations stratégiques
au service de toutes les directions de l’entreprise. 65 % des interviewés estiment que leur
service a une influence grandissante, malgré un pessimisme sur l’avenir du budget (21 % des
\/|
sondés envisagent une baisse, contre 25 % une hausse). Le service études compte en moyenne
quatre personnes, et 7 % des services en ont plus de onze. C’est une femme (à 59 % pour les
$|
responsables et 67 % pour l’ensemble des répondants), de plus de 40 ans (38 % des
4$

responsables), exerçant cette fonction depuis plusieurs années (28 %, 10 ans et plus ; et 26 %, de
3 à 5 ans) et issue d’instituts (55 % y ont déjà travaillé). Il existe des passerelles entre
By

annonceurs et instituts, mais beaucoup de responsables viennent d’autres services de


l’entreprise : en effet, 32 % des membres des études sont issus d’une autre fonction.
Question salaires, le responsable des études gagne en moyenne 77 300 euros par an ; tous postes
confondus, le salaire moyen est de 67 300 euros, avec des variations selon l’âge (38 000 euros;
pour les chargés d’études de moins de 30 ans, 103 000 euros; pour les plus de 50 ans) et la taille
de l’entreprise.
Source : D’après HEURTEBISE C., Marketing Magazine no 147, mars 2011.

3. Synthèse
Les deux systèmes remplissent des fonctions complémentaires. L’équilibre actuel, à savoir
prédominance des cabinets d’études externes et maintien d’une structure légère en entreprise, offre
une bonne flexibilité et un bon contrôle de la qualité des études réalisées. La figure 3.2. récapitule
les avantages et les inconvénients des deux systèmes.
Figure 3.2. Choisir une étude interne ou externe

Solutions Avantages Inconvénients


– Regard neuf. – Méconnaissance de l’environnement
Société d’études extérieure – Expertise large. et de la culture de l’entreprise.
à l’entreprise – Flexibilité. – Confidentialité.
– Économie. – Recommandations inopérantes.
– Capacité de négociation.
– Disponibilité.
– Expertise limitée.
Chargé d’études – Interprétation des
– Coûts fixes élevés.
en entreprise résultats.
– Solutions routinières.
– Maîtrise de
l’environnement.

B. Gestion d’un appel d’offres


1. Procédure
L’appel d’offres, encore appelé « consultation », consiste à mettre en concurrence plusieurs
\/|
sociétés de conseils sur la résolution d’un problème précis. La nature des questions à résoudre et
$|
les éventuelles contraintes de l’investigation sont habituellement précisées lors d’un entretien
4$

préliminaire avec les sociétés intéressées. Ces informations figurent dans un document décrivant le
cahier des charges de l’étude. En retour, les sociétés candidates font parvenir à l’entreprise leur
By

proposition, appelée « projet d’étude ». La mise en concurrence systématique de plusieurs cabinets


par appel d’offres est la procédure usuelle. Comme le montre la figure 3.3. ci-dessous, plus des
deux tiers des budgets d’études donnent lieu à un appel d’offres, avec environ, pour chacun d’eux,
une consultation moyenne de trois instituts.
Figure 3.3. Concurrence sur les appels d’offres (marchés privés)

Nombre d’instituts consultés Pourcentage de clients


1 seul 31 %
2à3 62 %
4à5 5%
+ de 5 2%
Source : Syntec 1988, cité par BOSS J.-F., « L’évolution du secteur des études »,
Revue française du marketing, nos 142-143, 1993/2-3, p. 27.

Les études proposées par l’État ou les collectivités territoriales font l’objet de procédures
d’attribution définies par la loi (Code des marchés publics) ; celles-ci sont plus ou moins
contraignantes selon le montant total des prestations annuelles envisagées (voir figure 3.4.)(37).
Il existe quatre procédures principales :
– la mise en concurrence simplifiée : l’entreprise est choisie à la suite de négociations avec
plusieurs candidats, après publicité et mise en concurrence préalable. Elle concerne les commandes
inférieures au seuil de 125 000 euros HT pour l’État et 193 000 euros HT pour les collectivités
territoriales.
– l’appel d’offres : l’organisme public choisit l’offre la plus avantageuse, sans négociation, sur la
base de critères objectifs préalablement portés à la connaissance des candidats. L’appel d’offres
peut être ouvert (tous les candidats peuvent remettre une offre) ou restreint (seuls peuvent remettre
des offres les candidats qui y ont été autorisés après une présélection, c’est l’équivalent d’une
short-list).
– la négociation : l’attributaire du marché est choisi après consultation de plusieurs candidats et
négociation des conditions du marché avec un ou plusieurs d’entre eux. Cette procédure est soumise
à des conditions particulières (suite d’appel d’offres infructueux, spécifications techniques, travaux
complémentaires, urgence, secret, etc.).
– le dialogue compétitif : après publication d’un appel public à la concurrence, l’organisme public
va dialoguer avec les candidats retenus, pour ensuite attribuer le marché à l’un d’entre eux en
fonction des offres proposées. Cette procédure est également soumise à des conditions particulières
(marchés complexes, etc.). \/|
$|
4$
By
Figure 3.4. Conditions pour les offres sur les marchés publics (fournitures et services)

de 15 000 € de 90 000 €
Administrations < 15 000 € > 130 000 €
à 90 000 € à 130 000 €
étatiques HT HT
HT HT
Publication au
Publication au
BOAMP et
BOAMP (*)
Pas de publicité au JOUE (***)
Publicité adaptée ou au JAL (**)
imposée (marché et, fortement
Formalités au montant du et, si nécessaire,
passé de gré conseillée,
marché publication dans
à gré) publication dans
la presse
la presse
spécialisée
spécialisée
Collectivités de 15 000 € de 90 000 €
< 15 000 € > 200 000 €
territoriales et à à 200 000 €
HT HT
EPIC locaux 90 000 € HT HT
Publication au
Publication au
\/| BOAMP et
BOAMP ou au
$|
Pas de publicité au JOUE
Publicité adaptée JAL
imposée (marché et fortement
4$

Formalités au montant du et si nécessaire :


passé de gré conseillée
marché publication dans
à gré) publication dans
By

la presse
la presse
spécialisée
spécialisée
(*) BOAMP : Bulletin officiel des annonces des marchés publics
(**) JAL : Journal d’annonces locales
(***) JOUE : Journal officiel de l’Union européenne
Source : http://www.marchespublicspme.com/fonctionnement-annonces-boamp-marches-publics.html

2. Conduite
L’intérêt majeur d’un appel d’offres est la comparaison, sur une base équivalente (définition du
problème et des objectifs d’étude, contraintes particulières), de solutions méthodologiques et de
coûts respectifs associés de plusieurs propositions. L’avantage recherché est une réduction du prix
d’achat de l’étude grâce à la concurrence.
En contrepartie, l’appel d’offres consomme du temps et de l’énergie. Il faut prévoir un délai
minimum pour la clôture des offres, généralement trois à quatre semaines ; puis dépouiller plusieurs
projets, parfois fort volumineux, consacrer du temps aux éventuelles questions des candidats et
sélectionner le vainqueur. De leur côté, les concurrents sollicitent des rendez-vous pour « caler »
leur projet, ce qui revient à faire préciser tel ou tel point du brief étude. Enfin, si le budget n’est pas
fixé par l’annonceur, les cabinets d’étude rédigent plusieurs propositions fondées sur des
hypothèses de prix différentes, d’où un accroissement du travail de sélection. Nous proposons, dans
la fiche technique 3.1., quelques recommandations pour mettre en place une procédure d’appel
d’offres efficace.

Fiche technique 3.1. Comment gérer un appel d’offres ?


1 – Combien faut-il consulter de sociétés d’études ?
Trois à quatre sociétés constituent un bon équilibre(38). Ce nombre peut varier selon l’importance du budget ou
la spécificité de l’étude. Inutile de consulter une dizaine de cabinets, c’est un gâchis financier pour les deux
partenaires : le temps passé à répondre aux appels d’offres (coût variable) se transforme en frais de structure
que la société d’études doit répartir sur l’ensemble des devis. En revanche, ne consulter qu’une société n’est pas
une bonne solution. La qualité globale de l’étude de marché est statistiquement meilleure quand plusieurs
fournisseurs sont consultés (39). En moyenne, les entreprises travaillent avec cinq fournisseurs pour les études
qualitatives et six pour les études quantitatives (40).
2 – Contenu du brief étude
Le brief est un document écrit, destiné aux instituts d’études, qui précise les contours de la demande du client. Il
indique la nature du problème marketing à résoudre, les objectifs de l’étude, le type de décision à prendre au vu
des résultats, les délais à respecter pour la remise des conclusions. L’intérêt du client est de fournir un maximum
d’informations en sa possession (statistiques internes, conclusions d’études antérieures, etc.) et de ne pas
cacher des difficultés particulières qui pourraient augmenter les coûts : rareté et dispersion géographique des
personnes susceptibles d’être interrogées, indisponibilité d’échantillons de produit, etc. Un brief bien formulé
accroît la probabilité de réaliser une étude de bonne qualité(41).
\/|
3 – Indication du budget
$|
Le client tend à évaluer le budget de l’étude en fonction de l’importance que revêt pour lui le problème à
4$

résoudre, sans se préoccuper du coût réel des contraintes méthodologiques. Si la fourchette budgétaire prévue
est large, il est préférable de ne pas indiquer le budget pour identifier le « moins-disant », à qualité de proposition
équivalente. Mais cette solution conduit les sociétés d’études à multiplier les scénarios de devis (« Avec un
By

budget de x francs, nous faisons ceci, avec y francs nous faisons cela »), d’où des difficultés accrues de
comparaison. La meilleure approche consiste à disposer d’un spécialiste interne, capable d’évaluer
approximativement le budget nécessaire, puis à annoncer clairement le montant lors de l’appel d’offres.
4 – Réunion de calage
Par téléphone ou sur rendez-vous, ces réunions permettent de lever les éventuelles zones d’ombre et de préciser
tel ou tel point concernant les objectifs d’études. Nous avons déjà présenté dans le chapitre précédent (figures
2.8. et 2.9.) les différents points à aborder lors de ces réunions entre le demandeur de l’étude et l’institut.
5 – Attentes vis-à-vis d’un institut d’études
Les attentes des entreprises vis-à-vis des instituts sont les suivantes (42) :

% fois cité
Critères % citations
en premier
Qualité des analyses (facilite
24 % 64 %
les décisions)
Suivi de l’étude 17 % 44 %
Méthodologie 15 % 41 %
Rapport d’étude 4% 36 %
6 – Délais de réponse pour le choix de la société d’études
Le devis d’une société d’études n’est normalement ferme que pour une durée de quatre mois à compter de
l’envoi(43), il est donc logique de considérer qu’il s’agit d’une limite extrême. Parfois, le client s’octroie un temps
de réflexion supérieur au temps qu’il est prêt à accorder pour la réalisation de l’étude, ce qui est problématique.
Un délai de réflexion d’un à deux mois maximum est souhaitable.
7 – Le devis est-il payant ?
Si l’appel d’offres n’implique pas de recherches documentaires ou d’approfondissements méthodologiques
particuliers, il est gratuit ; dans le cas contraire, les sociétés d’études sont fondées à demander une
rémunération.

II. Étude vs recherche marketing


Bon nombre d’instituts spécialisés, souvent pour valoriser leurs compétences, utilisent
improprement le terme de « recherche marketing », lorsqu’ils ne réalisent en fait qu’une simple
étude de marché. De fait, les Anglo-Saxons utilisent le terme de market research pour désigner une
marketing appliquée (étude de marché) et marketing research lorsqu’il s’agit d’une recherche
académique (recherche marketing). À notre sens, il n’y a pas de véritable supériorité de l’une sur
l’autre, mais essentiellement une différence de finalité. En revanche, toutes les deux doivent se plier
aux mêmes règles contraignantes de vérification de fiabilité et de validité. Nous présenterons les
différences et les convergences de ces deux types d’investigations, puis nous verrons comment ces
deux approches sont mobilisées par l’évolution du chargé d’études vers des fonctions de manager
\/|
des insight consommateurs.
$|
4$

A. Perspectives différentes
By

La figure 3.5. suggère que la différence majeure entre les deux démarches réside dans leurs finalités
respectives :
Figure 3.5. Finalités respectives

Recherche marketing Étude marketing


• Adapter et simplifier les théories pour prendre
• Contribution à la connaissance d’une théorie une décision en respectant les contraintes
(concepts, hypothèses, modèles). managériales (temps, simplicité, coût de mise
Exemples : Modèle expérientiel, processus de en œuvre).
diffusion d’une innovation. Exemples : Marché-test simulé, modèle de
média-planning.
• Adapter ou appliquer des instruments de
• Contribution méthodologique (création et mesure ou d’analyse pour résoudre un problème
validation d’un nouvel instrument de mesure ou managérial (orientation vers la prise de
d’analyse). décision stratégique).
Exemples : Échelle de lead-user, méthode Exemples : Segmenter par les bénéfices
netnographique. consommateur, positionner une marque sur un
marché concurrentiel.
• Contribution à la diffusion d’une théorie ou
• Utiliser une méthodologie éprouvée pour
d’instruments : reproduction des résultats,
répondre efficacement et avec précision à un
généralisation dans d’autres contextes (champ
problème managérial courant (orientation vers
\/|
disciplinaire, marchés, etc.).
la prise de décision tactique)
$|
Exemples : Classement des produits selon leur
Exemples : Fixation de prix, test de produit,
caractère impliquant, scoring des leaders
4$

choix d’une publicité


d’opinion.
By

– une recherche s’évalue par sa contribution à la progression des connaissances dans la discipline
marketing, dans un strict respect des exigences de la démarche scientifique(44) ;
– la valeur ajoutée d’une étude réside dans sa capacité à apporter une réponse simple, précise et
efficace aux questions marketing initiales ; le cas échéant, celle-ci se fonde sur des aspects
théoriques simplifiés, ou adapte des instruments (méthodes, mesures) élaborés par les chercheurs
en marketing.
Comme le montre la figure 3.6., l’étude ou la recherche n’ont pas forcément les mêmes
préoccupations durant le déroulement de leurs différentes phases :
Figure 3.6. Contenu des phases du processus de recherche et d’étude de marché

Caractéristiques
Recherche marketing Étude marketing
des phases
Traduction du problème managérial
Intérêt et situation du problème sur
en questions d’étude.
un plan théorique.
Analyse documentaire, rencontres
Revue critique des recherches
pour « caler » le projet.
antérieures.
Identification du domaine
Définition des concepts,
Réflexions préalables d’investigation : stratégique ou
opérationnalisation des variables,
variables du marketing-mix.
validation des mesures (prétest).
Rédaction (éventuellement) de
Formulation (éventuellement) et
scénarios sur les variables
justifications théoriques des
extérieures à l’étude (concurrence,
hypothèses.
économie, etc.).
Instruments (souvent) simplifiés,
Instruments (souvent) complexes.
faciles et rapides à administrer.
Lourdeur d’administration.
Faible implication des individus
Forte implication des individus
Collecte des données interrogés ou observés.
interrogés ou observés.
\/|
Souci de représentativité plus
Échantillon (souvent) de
$|
fréquent dans la constitution de
convenance et de taille restreinte.
l’échantillon.
4$

Analyses simples, recours


Multiplication des analyses et tests.
By

fréquents aux
Vérification du bien-fondé des
statistiques descriptives.
analyses (distribution statistique,
Analyse des données Préférence pour les analyses
adéquation des tests).
permettant de visualiser les
Fixation d’un seuil de confiance
résultats (cartes perceptuelles,
pour l’interprétation des tests.
graphiques).
Discussion des résultats observés Discussion des résultats en fonction
en fonction des résultats antérieurs. des possibilités (forces, faiblesses)
Implications des résultats dans une de l’entreprise.
perspective d’application Orientation vers la prise de
Contenu du rapport
managériale. décision, réalisme des conclusions
Indication des limites des résultats ou des recommandations.
et des conditions de généralisation. Précautions et conditions pour
Nouvelles pistes de recherche. l’application des recommandations.

– caractère cumulatif ou ponctuel. Le processus de recherche est cumulatif et s’inscrit dans une
perspective de longue durée, la résolution étant partielle. L’étude est plus axée sur la
compréhension d’un problème particulier auquel il faut généralement apporter une réponse
complète, précise et rapide ;
– prise en compte des résultats antérieurs. La recherche marketing tient compte des travaux
antérieurs : elle situe clairement le travail entrepris dans son arrière-plan théorique, puis précise la
nature de l’apport de la recherche entreprise. L’analyse critique de la littérature existant sur le
problème revêt une grande importance. Un grand soin est apporté aux conditions dans lesquelles se
déroule le recueil des informations ; les analyses sont multiples, toutes les pistes sont explorées
pour renforcer, améliorer la compréhension des résultats observés. Le rapport souligne les progrès
enregistrés dans la compréhension du domaine, dégage (rapidement) les implications managériales
des résultats, sans omettre de préciser les limites de la recherche ;
L’étude marketing ad hoc utilise rarement les résultats des études antérieures, considérant que ceux-
ci sont souvent périmés, l’environnement ayant évolué. L’important est de réunir l’ensemble des
informations pour cerner la nature du problème à résoudre. Seules les études répétitives (panels et
baromètres) utilisent les résultats passés, mais comme repères pour apprécier les évolutions de
marques ou de segments ;
– pragmatisme et simplicité de la démarche. Dans une étude de marché, l’investigation préliminaire
permet de gagner du temps dans la connaissance des spécificités d’un marché ou pour comprendre
plus facilement une question. La collecte des données est conditionnée par le respect des délais, le
recrutement des enquêteurs et le nombre de questionnaires ou d’entretiens correctement effectués.
Les analyses sont généralement plus simples et privilégient les représentations graphiques à deux
dimensions qui permettent de communiquer plus facilement les résultats. La clarté du rapport
\/|
d’étude est essentielle. Les conclusions de l’étude doivent être simples, réalistes et convaincantes.
$|
Dans une recherche, l’accent méthodologique est généralement plus prononcé, quitte à compliquer
4$

et à alourdir le processus d’investigation. Les analyses multiples conduisent à une meilleure


interprétation des résultats. Le rapport de recherche contient une part importante de discussion, où
By

les résultats observés sont discutés à la lumière des résultats antérieurs, et une autocritique sur les
limites du travail réalisée.

B. Préoccupations convergentes
La recherche et l’étude marketing sont toutes deux soumises à trois séries d’exigences identiques :
– une démarche globale valide. La résolution globale d’un problème – recherche ou étude – doit
s’inscrire dans un cadre méthodologique valide pour que les résultats observés aient un sens.
L’appréciation de la validité globale d’une investigation comporte deux examens successifs : la
validité interne et la validité externe. La première partie de la fiche technique 3.2. développe ces
deux points ;
Fiche technique 3.2. Évaluer la fiabilité et la validité(45)
1 – Validité de la démarche globale d’une recherche ou d’une étude(46)
– Validité interne. C’est la réponse à la question : mesure-t-on bien ce que l’on cherche à mesurer, ou s’agit-il
d’autre chose ? Cette validité concerne la cohérence globale d’un plan et d’un mode de collecte ou d’analyse. On
vérifie que l’ensemble de la procédure (dispositif expérimental) permet d’affirmer que les effets mesurés par les
instruments sont bien dus aux effets des traitements spécifiques étudiés. On cherche, en d’autres termes, à
déterminer si une covariation observée peut être considérée comme une relation causale. Les principaux
facteurs qui mettent en péril la validité interne d’une étude ou d’une recherche sont : l’histoire (événements
intervenus entre deux mesures), la maturation des répondants (lassitude due à un questionnaire trop long),
l’effet propre à l’instrument (ex. : la pression de l’enquêteur, l’ordre de présentation, l’interprétation des
résultats, etc.), la régression statistique (l’investigation a eu lieu dans des circonstances exceptionnelles), les
biais de sélection (connaissance préalable du produit, interviews trop fréquentes), la mortalité expérimentale
(absence de réponse, abandons en cours d’expérience) et l’effet de test (sentiment d’être observé, recherche du
résultat attendu).
– Validité externe. Elle indique si les résultats observés peuvent être généralisés sans risques à d’autres
personnes, dans d’autres lieux ou dans des horizons temporels différents. Cette validité dépend en grande partie
du degré de représentativité des répondants par rapport à la population étudiée.
2 – Instrument de mesure (méthode d’interrogation ou d’observation) (47)
– Fiabilité. C’est le degré de stabilité des résultats lorsque l’on applique une nouvelle fois l’instrument dans des
conditions identiques. Plus un instrument est fiable, plus les résultats enregistrés sont précis. Plusieurs facettes
existent : stabilité temporelle (répétition du résultat lorsqu’on administre deux fois de suite l’instrument),
stabilité des contenus ou cohérence interne (deux versions différentes de l’instrument donnent des résultats
\/|
identiques), stabilité d’administration ou robustesse (l’application par deux personnes différentes donne le
$|
même résultat). La fiabilité est une condition nécessaire, mais pas suffisante pour s’assurer de la validité de
l’instrument. Les principales méthodes pour vérifier les différentes facettes de la fiabilité sont : le partage en
4$

deux de l’échantillon (« half-split ») puis calculs de coefficients de corrélation, la double administration de


l’instrument (« test et retest »), le calcul d’un coefficient interne de cohérence (alpha de Cronbach, rhô de
By

Jöreskog) (48).
– Validité de construction(49). La première composante est la validité convergente ; deux instruments différents
appliqués à la mesure d’un même concept doivent aboutir à un résultat identique. La seconde branche est
appelée validité discriminante : un instrument de mesure d’un concept doit produire des résultats divergents
lorsqu’il est appliqué à la mesure d’un autre concept notoirement différent du premier. La validité de
construction impose donc de multiples confrontations entre les résultats obtenus avec le nouvel instrument et
des instruments classiques. Pour établir la convergence, on souhaite que les mesures du nouvel instrument
soient fortement corrélées à celles des instruments proches ; pour le caractère discriminant, les mesures entre
les concepts supposés différents ne doivent pas être significativement corrélées. La validité de construction
s’apprécie de deux manières : en élaborant une matrice multitraits – multi-méthodes (50) ou par équations
structurelles (51).
– Validité prédictive. C’est l’aptitude d’un instrument de mesure d’un concept à prédire la valeur d’un autre
concept. Elle est particulièrement importante pour un manager, puisqu’elle permet d’anticiper un résultat
inconnu (par exemple la part de marché, la mémorisation d’une publicité) en se fondant sur des mesures connues,
et donc de prendre à temps des actions correctrices.

– des instruments fiables et valides. Les études et les recherches utilisent des instruments de mesure
(questionnaires, entretiens, méthodes d’observation) et d’analyse (grilles, statistiques). La fiabilité
et la validité de ceux-ci doivent être établies. La fiabilité indique le degré de précision et de
reproductibilité des résultats fournis par un instrument ; la validité permet de s’assurer que
l’instrument employé mesure bien ce que l’on pense mesurer et pas autre chose.
La vérification systématique de la fiabilité et de la validité des instruments est, il faut bien le
reconnaître, rarement effectuée par les chargés d’études, compte tenu des délais disponibles et de
l’augmentation des coûts que cela engendre. De plus, même si la fiabilité et la validité ont déjà été
établies, il faudrait logiquement renouveler ces vérifications dès que l’instrument est utilisé dans un
nouveau domaine (produits, segments, pays, etc.). Les cas 2, 3 et 4 de la figure 3.7. mettent pourtant
clairement en évidence les risques pris lorsque ces conditions ne sont pas remplies ;
Figure 3.7. Illustration de la fiabilité et de la validité d’une mesure

\/|
$|
4$

Source : adapté de ÉVRARD Y., PRAS B. ET ROUX E., Market : études et recherche en marketing,
By

Nathan, 1993, p. 280 ; les titres ont été ajoutés.

– une compréhension de la finalité de l’investigation. Parallèlement à la formulation des objectifs,


le chargé d’études qualifie le but de sa démarche. Trois directions sont possibles :
• une étude exploratoire. L’objectif est de dégager les grandes composantes du problème ou de
lister les différentes alternatives d’une décision, ou encore d’identifier les variables clés d’une
question. Cette approche est fréquente quand peu d’informations sont disponibles. Par exemple,
« Comment améliorer un produit ? », « Peut-on communiquer différemment ? » sont des questions
de nature exploratoire. L’étude documentaire, présentée dans le chapitre précédent, ou l’étude
qualitative développée dans le paragraphe III sont des techniques adéquates dans ce cas ;
• une étude descriptive. On qualifie un phénomène en apportant des informations objectives,
précises et exhaustives pour obtenir une vision claire de la réalité étudiée. Des questions du genre :
« Est-il temps de lancer une nouvelle marque ? », « Quelle est notre image actuelle ? », « Qui sont
nos clients ? » entrent dans cette catégorie. Les techniques quantitatives (voir paragraphe suivant)
offrent des solutions à ces questions ;
• une étude causale. Quand on évalue l’impact d’une variable sur une autre ou qu’on choisit, parmi
un ensemble de solutions, celle qui est la plus efficace, la recherche ou l’étude entreprise est de
nature causale. « Quelle est la meilleure publicité ? », « Faut-il baisser nos prix ? » sont des
interrogations de causalité. Certaines des méthodes quantitatives sont spécifiquement construites
dans cette perspective.

C. Étude et recherche marketing : sources d’insight marketing


L’insight marketing est fourni par le consommateur : il est source de nouveaux produits ou services.
Il correspond à une préoccupation forte du consommateur qui ne trouve pas de solution satisfaisante
avec les produits et services actuellement disponibles sur le marché. La détection et la
compréhension d’un insight conduisent les études et la recherche marketing à un recentrage sur le
consommateur(52). Il s’agit de comprendre son projet de consommation, celui-ci étant inséré de
manière plus large dans un projet de vie personnel. Cela se traduit par une nouvelle forme
d’investigation, plutôt, mais pas uniquement, de nature qualitative, centrée sur l’observation et la
compréhension des expériences de consommation, tant individuelles que collectives. En entreprise
et dans les instituts d’études, cette évolution se concrétise par une nouvelle fonction, celle
d’« insight manager » ou de « consumer insight » qui tend à remplacer la traditionnelle fonction de
« directeur des études ».

1. Qu’est-ce qu’un insight ?


En psychanalyse, l’insight renvoie à un moment privilégié où le patient prend subitement
\/|
conscience de quelque chose qui était lui auparavant inaccessible, car enfoui dans son inconscient.
$|
L’efficacité de la thérapie suppose le déclenchement régulier de telles étincelles. L’insight
s’apparente à une révélation soudaine d’une vérité intérieure.
4$

L’insight consommateur est quelque peu différent : il qualifie plus modestement une idée lumineuse
By

et simple à énoncer. Il se structure autour de trois composantes :


– un constat qui correspond à une prise de conscience d’une réalité, auparavant méconnue ou non
perçue. Il conduit à une intention de comportement qui s’exprime par « il me faudrait avoir » ou
« j’aimerais pouvoir faire » ou encore « j’aimerais être ». Ce constat indique un objet ou une
direction précise ;
– une motivation qui supporte ce constat en le justifiant : « parce que pour moi, il est important ou
nécessaire de... » ;
– une contrainte, ou un frein suffisamment fort, qui bloque le comportement et qui provoque une
frustration du consommateur. Il s’exprime souvent par une conjonction de coordination ou un
adverbe du type mais, malheureusement.
Pour le marketing, les bons insights sont susceptibles d’être concrétisés par un nouveau produit ou
service. Ils peuvent s’exprimer ainsi : « j’aimerais pouvoir manger cinq fruits et légumes par jour,
parce que je sais que c’est important pour la santé, mais je n’ai pas vraiment le temps de cuisiner,
et puis mon budget ne me le permet pas souvent » ; ou encore : « j’aimerais pouvoir colorer mes
cheveux selon mon humeur, parce que j’aime bien changer de visage et surprendre mon entourage,
mais franchement, c’est compliqué, coûteux et surtout on ne peut facilement revenir en arrière, car
l’effet des produits dure trop longtemps ».

2. Enjeux et perspectives
Quelles sont les incidences pour la recherche marketing et les études d’un centrage sur l’insight des
consommateurs ?
– Les hommes de marketing reprochent fréquemment aux études de marché de ne pas fournir de
résultats opérationnels, tant d’un point de vue stratégique qu’opérationnel. Leurs conclusions ne
sont pas assez stimulantes pour le marketing. De fait, les hommes d’étude sont rarement consultés
lors des choix stratégiques de l’entreprise et ils ne font pas partie des comités de direction. Les
études ne prennent pas la parole, tendent à devenir routinières et s’en remettent trop souvent à la
technologie ; de surcroît, elles sont contraintes par une pression grandissante sur les coûts et les
délais (voir figure 3.8.).
Figure 3.8. Évaluation et perspectives des études de marché

Forces Faiblesses Opportunités Menaces


Apports de la
technologie Bricolage
Manque de prise de
Qualité (la raison Apports des médias Pression sur les prix et
parole
d’être des études) sociaux les délais
Compromis sur la
Bonne image Des interviewés Données alternatives
qualité
Souplesse loquaces Nouveaux acteurs
Difficulté à évoluer
Forte relation avec Essor des marchés Trop de dépendance à
Manque de créativité
\/|
les clients émergents l’égard de la
$|
Difficulté à attirer de
Nouvelle génération Études à valeur ajoutée technologie
nouveaux talents
4$

d’études Savoir s’adapter aux Lassitude des


Besoin de formation
nouveaux besoins des interviewés
By

clients
Source : Étude SWOT/Esomar Linkedin Group 2010.

– L’insight marketing offre de nouvelles perspectives et objectifs aux études de marché. Il apporte
des éléments concrets et utiles pour les orientations stratégiques et tactiques de l’entreprise, en
assumant un rôle de porte-parole du consommateur et/ou des clients. De nouvelles fonctions, telles
que celle d’insight manager (flash-étude 3.2.), concrétisent ce repositionnement des études dans
l’entreprise. Certains praticiens considèrent même qu’en 2020 les instituts d’études de marché
seront devenus des « consultants d’insight » et que les directeurs d’études des entreprises auront
tous été formés dans les plus grands cabinets de consultants en stratégies (ex. : Mc Kinsey, BCG)
(53)
.
Flash-étude 3.2.
Missions d’un consumer insight manager(54)
Il ne suffit plus de regarder les individus au travers du prisme des seuls produits qu’on leur
vend, il faut les saisir dans la globalité de leur vie. On passe d’un insight lié à une catégorie de
produit à un insight plus large, qui saisit des citoyens dans leur vie globale. Et surtout dans leur
évolution : de produits répondant à des motivations ponctuelles, on passe à la création de
produits accompagnant les individus dans leurs évolutions. À partir de là, la fonction de
consumer insight manager (CIM) est simple à définir : « comprendre la vie des gens et les
tendances sociétales qui y sont liées, c’est-à-dire observer, comprendre, traquer des
comportements, des tendances ». Les apports de la sociologie et de l’anthropologie sont
nécessaires et utiles. L’observation, les études ethnologiques font de plus en plus souvent partie
des méthodologies demandées et employées par les CIM. Il s’agit de dépasser la compilation de
données quantitatives, pour arriver à l’insight, à la « révélation ». L’enjeu est d’appréhender le
consommateur dans sa globalité : avant d’être acheteur de marques, celui-ci a une vie, des
comportements, des opinions. L’objectif est de développer une compréhension transversale du
consommateur et de dégager une synergie. Cette conjugaison de toutes les expertises
(documentation, études, observations) doit déboucher sur des plans d’action pointus.
L’anticipation du changement constitute la seconde mission de ce nouveau métier. Dès que de
\/|
nouvelles tendances sont identifiées, il convient d’être proactif vis-à-vis du marketing pour
$|
l’inciter à travailler sur ces nouvelles attentes du consommateur. Ce rôle de veilleur, de leader
4$

de l’immersion et de la dissémination de la culture du consommateur et de ses évolutions dans


l’entreprise est déterminant. Le marketing reprend contact avec la « vraie vie » du
By

consommateur. Le consumer insight manager doit sans cesse convaincre les marketeurs
d’évolutions dont ils n’ont pas nécessairement conscience. Ce rôle d’influenceur, de conseil
exige une grande dimension relationnelle : ce manager travaille comme force de proposition. La
dernière tâche du CIM est de remettre les choses dans leurs perspectives et de conseiller les
chefs de produits marketing : il s’agit de passer du « J’ai besoin d’une étude » à « J’ai tel
problème à résoudre ». L’insight manager intervient comme expert qui dit s’il y a besoin ou non
d’une étude, et si oui, laquelle.

– Pour mieux prendre en compte les évolutions des comportements de consommation, les études
marketing doivent évoluer et s’enrichir(55). Tout d’abord, en passant d’un marketing de laboratoire à
un marketing de terrain. En effet, trop souvent, les comportements sont étudiés sur la base du
déclaratif (ce que le consommateur dit) et non pas en fonction des pratiques, c’est-à-dire à partir
d’observations réalisées sur les lieux de consommation. Nous présenterons les différentes méthodes
d’observation utilisables dans le chapitre 6. En second lieu, en ne faisant plus des études « sur » le
consommateur, mais « avec » le consommateur. Il s’agit de co-construire la connaissance avec ce
dernier, en l’intégrant plus profondément dans le processus d’étude, en tant qu’acteur et non pas
comme un simple répondant. Nous verrons ainsi dans le chapitre 5 différentes formes d’appel à
participation qui permettent à l’entreprise de développer des nouveaux produits en impliquant les
consommateurs dans un processus de co-création.
– Cette nouvelle focalisation sur le consommateur stimule la recherche marketing. La
compréhension des insights pousse les managers marketing et les chargés d’études à nourrir
régulièrement leur réflexion avec les résultats des recherches académiques. Celles-ci reposent sur
des arrière-plans théoriques solides permettant de cadrer, de comprendre, d’expliquer ou de
prévoir les comportements d’achat et de consommation. Ainsi, par exemple, le marketing
expérientiel, la culture de consommation, la consommation co-créatrice, les communautés de
marques, l’influence dans les réseaux sociaux on line sont autant de concepts et d’orientations
stratégiques qui sont issus des travaux menés par la communauté des chercheurs en marketing. Ils
permettent notamment de comprendre le sens d’une consommation et, par là même, de découvrir de
nouveaux insights marketing. Les résultats de ces recherches menées depuis plus de 40 ans sur le
comportement du consommateur sont publiés dans des revues scientifiques, en très grande majorité
anglo-saxonnes. Seules trois revues scientifiques françaises font exception : Recherche et
Applications en Marketing, Décisions Marketing, Perspectives culturelles de la consommation. Ces
publications font l’objet de recensements et de classements réguliers(56). Si la lecture de ces revues
est loin d’être une tâche aisée, les praticiens marketing y découvriront pourtant des nouvelles
théories, des nouveaux concepts et instruments d’études utiles pour comprendre et suivre les
évolutions des consommateurs.

III. Démarche qualitative ou quantitative ? \/|


La rédaction d’un projet d’étude comporte une décision majeure, à savoir le choix entre deux
$|
démarches : l’approche qualitative et l’approche quantitative. Chaque option comporte des
4$

conséquences méthodologiques importantes, puisque la taille des échantillons nécessaires, la nature


des interrogations, les méthodes d’analyse des informations sont sensiblement différentes. Ce
By

clivage est suffisamment fort pour que les instituts d’études se présentent eux-mêmes comme
spécialistes de l’une ou l’autre. Nous verrons aussi, à la fin de ce paragraphe, que ces deux
approches peuvent être utilisées de manière complémentaire dans une même étude.

A. Approche qualitative
Une des caractéristiques majeures de la démarche qualitative est sa nature exploratoire. C’est le
cas, par exemple, lorsque l’on aborde un domaine inconnu (marché, produits, consommateur,
environnement, etc.). Ce type d’approche permet de dégrossir un problème en identifiant et en
recensant ses différentes composantes. Dans un même ordre d’idée, l’étude qualitative cherche
aussi à comprendre la nature des forces susceptibles d’expliquer un comportement : motivation et
frein pour l’achat d’un produit ou d’une marque. Par abus de langage, certains réduisent les études
qualitatives à l’étude de motivation. Même s’il est fréquent, la figure 3.9. montre bien que cet
objectif est loin d’être unique.
Figure 3.9. L’approche qualitative

Principales Limites
Objectifs
hypothèses méthodologiques
Généralisation des résultats
Non-représentativité de
Apprendre un vocabulaire, Approche en profondeur
l’échantillon ; taille
recenser des caractéristiques L’individu ne connaît pas les
d’échantillon réduite
d’un produit ou d’une marque. raisons de ses décisions, le
(≤ 20 personnes) ; analyse des
discours est stéréotypé,
résultats (souvent) manuelle.
Explorer un secteur d’activité rationalisé (réponses
inconnu (concurrents, conventionnelles).
Validité des techniques
distributeurs, etc.).
utilisées
Approche en surface
Identifier les grandes Rôle des signes marqueurs, du Rarement précisée (ou
vérifiée) ; interprétation des
dimensions d’un problème. sens latent ; importance du
contexte. données variables selon
l’analyste.
Formuler des hypothèses.
Rôle de l’inconscient
Le « non-dit » est important Caractère interprétatif
Interpréter le sens d’un
\/|
L’analyse revendique la
discours ou d’un acte. (silence, regard, lapsus, etc.).
$|
subjectivité de l’interprète : ce
qui compte c’est la cohérence,
4$

Comprendre l’origine des Neutralité de l’enquêteur


l’intelligibilité du sens donné ;
forces qui poussent à l’action Non-directivité des questions ;
plusieurs interprétations d’un
By

(motivations). soutien par des relances.


même phénomène sont
possibles.

Pour atteindre ces différents buts, la démarche qualitative se fonde généralement sur une analyse en
profondeur, longue et méticuleuse, du discours de chaque interviewé. Les techniques les plus
utilisées pour recueillir ces discours sont l’entretien semi-directif (voir chapitre 4) et la réunion de
groupe (voir chapitre 5). Les méthodes qualitatives cherchent à recueillir des informations
beaucoup plus riches et chargées de sens. Elles travaillent en profondeur, pour aller au-delà des
rationalités de façade inhérentes à l’esprit humain.
Un autre courant recherche le sens d’un discours en se focalisant sur l’observation des
consommateurs (voir chapitre 6). Enfin, un mouvement qualitatif plus récent aborde la question du
sens de manière différente : l’analyse des associations, projections, métaphores, images et signes
permet d’accéder au sens caché et/ou à l’inconscient du consommateur. Nous présentons ces
approches dans le chapitre 7.
Le corollaire des points précédents est que la quasi-totalité des études qualitatives ne se sent pas
concernée par les problèmes de représentativité de l’échantillon(57). Il s’agit surtout de ne rien
oublier pour la compréhension d’une question. Dans ces conditions, il n’est pas possible de
généraliser, sur d’autres personnes, les résultats observés dans les interviews. D’où une limite
majeure : l’étude qualitative ne peut que rarement trancher une question, elle éclaire le sens en
donnant des pistes. Par exemple, on ne peut pas dire que telle motivation est plus importante que
telle autre pour l’achat d’un produit, mais que cette motivation exerce une influence sur le
comportement de consommation ou d’achat.
Un second aspect préoccupant réside dans le fait que bon nombre d’instruments qualitatifs, fort
séduisants en apparence, n’ont pas été validés dans des conditions solides, telles que nous les
avons définies dans la fiche technique 3-2. Il faut cependant noter que les praticiens commencent à
se sentir concernés par ce souci, mais beaucoup de travail reste à faire sur cette question(58).
Une dernière limite des méthodes qualitatives concerne l’interprétation des données et le style
ésotérique de certains rapports d’études. Le flash-étude 3.3. donne un aperçu de ce type de
critiques.

Flash-Étude 3.3.
Les réticences vis-à-vis du qualitatif
L’univers ésotérique des motivations profondes(59)
« Ésotérique, car on peut faire dire un peu n’importe quoi à ce type d’études. Suivant l’éclairage,
ou les idées préconçues de l’observateur, on pourra dire qu’une ménagère aime que la lessive
\/|
lave plus blanc, car elle veut atteindre l’objectif rationnel de la propreté, ou parce qu’une
$|
fixation au stade anal lui fait viscéralement haïr la saleté, ou parce que la propreté la justifie aux
4$

yeux de son mari, ou enfin parce que le linge propre symbolise la famille unie, le foyer, etc.
L’être humain est d’une telle complexité que le pourquoi profond est presque toujours
By

inaccessible. Il vaut mieux s’en tenir au pourquoi immédiat : quelles sont les caractéristiques
d’un produit ou d’une marque qui le font préférer par tel ou tel segment de consommateurs ? Dire
que le consommateur masculin aime les Ferrari rouges car ce sont des symboles phalliques ne
fait guère progresser Ferrari. En revanche, établir que “l’exclusivité” est importante pour
l’acheteur d’une Porsche peut conduire à diminuer la production annuelle, pour éviter de diluer
la rareté de la marque. »
Les obstacles du qualitatif(60)
« Du côté de l’entreprise, la question de l’appropriation des résultats d’une étude qualitative
reste lancinante. On n’utilise pas, ou mal, ce qu’on ne comprend pas bien : qu’est-ce qui permet
de penser que les résultats d’une étude qualitative sont crédibles ? Comment distinguer une étude
qualitative bien faite d’une étude qui ne l’est pas ? Pourquoi tant de modes passagères, pourquoi
ce langage ésotérique ? Quel sera le retour sur investissement ? “Where is the beef ?” disent les
Anglo-Saxons. De leur côté, les praticiens des études qualitatives se sentent parfois mal
compris. Leur travail de collecte et d’analyse des données est lourd, fastidieux parfois, mais le
soin apporté à l’interprétation et à la compréhension du sens des données est réel. Les techniques
qualitatives se prêtant mal aux gains de productivité offerts par les nouvelles technologies, la
pression exercée par les annonceurs sur les prix est d’autant plus forte. Même s’il existe
quelques exceptions telles que les logiciels d’analyse textuelle des discours, de reconnaissance
et de synthèse vocale, ou encore les focus groups on line, la gêne persiste, de part et d’autre. »
B. Approche quantitative
L’objectif majeur des études quantitatives réside dans la volonté de « compter et comparer pour
décider ». Par abus de langage, les techniques quantitatives sont souvent appelées sondage, alors
que, d’un point de vue statistique, le sondage n’est qu’une procédure de constitution de
l’échantillon.
Tout comme l’approche qualitative, l’approche quantitative repose sur différentes hypothèses et
comporte des limites (voir figure 3.10).
Figure 3.10. L’approche quantitative

Principales Limites
Objectifs
hypothèses méthodologiques
Qualité des réponses :
Évaluer des attitudes, des
Possibilité de mesurer, rationalisation, respect des
comportements.
contrôler, paramétrer toutes les normes sociales, capacité à se
erreurs ; construire un souvenir, réponses au hasard.
Pondérer des variables.
instrument de mesure adéquat.
Qualité du plan de sondage :
Associer ou regrouper \/|
Possibilité de généraliser : contrôle des variables
différentes variables.
respect des exigences exogènes, influence de
$|
statistiques, reproductibilité l’enquêteur et du mode de
4$

Visualiser géographiquement
des résultats observés. collecte sur les réponses
des individus, marques.
fournies.
By

La première caractéristique des études quantitatives est le souci de représentativité des résultats :
on doit pouvoir généraliser, avec une marge d’erreur restreinte, pour l’ensemble de la population
étudiée ce qui a été observé pour une fraction (un échantillon) de celle-ci. Les lois statistiques sur
lesquelles repose l’approche quantitative conduisent à des tailles d’échantillon variant entre 200 et
2 000 personnes, selon le degré de précision souhaité pour la généralisation ultérieure des résultats
(voir chapitre 8).
La deuxième préoccupation réside dans la construction d’instruments de mesure standardisés et
aisément codifiables pour des traitements informatisés. Ceci conduit à la réalisation de
questionnaires structurés et fermés (voir chapitre 9). La difficulté majeure est d’arriver à concilier
flexibilité, pour couvrir une grande variété de situations, et rigidité de l’instrument, pour minimiser
l’influence de l’enquêteur ou de l’analyste. Les risques majeurs sont de tomber dans le
questionnaire routinier et sans imagination, ou encore de s’abriter derrière la force rassurante du
nombre de répondants et des chiffres. Le flash-étude 3.4. illustre ce paradoxe.
Flash-Étude 3.4.
Les paradoxes du quantitatif
« Dessine-moi un mouton » (*)
Antoine de Saint-Exupéry n’a jamais été chargé d’études. Pourtant, son Petit Prince, poète
rêveur, mais fin observateur d’un monde réel, avait une position intéressante à propos de
l’approche quantitative :
« Les grandes personnes aiment les chiffres. Quand vous leur parlez d’un nouvel ami, elles ne
vous questionnent jamais sur l’essentiel. Elles ne vous disent jamais : “Quel est le son de sa
voix ? Quels sont les jeux qu’il préfère ? Est-ce qu’il collectionne les papillons ?” Elles vous
demandent : “Quel âge a-t-il ? Combien a-t-il de frères ? Combien pèse-t-il ? Combien gagne
son père ?” Alors seulement, elles croient le connaître. Si vous dites aux grandes personnes :
“J’ai vu une belle maison en briques roses, avec des géraniums aux fenêtres et des colombes sur
le toit”, elles ne parviennent pas à s’imaginer cette maison. Il faut leur dire :“J’ai vu une maison
de cent mille francs.” Alors elles s’écrient : “Comme c’est joli !” »
Des résultats exactement faux ? (**)
« Nous nous focalisons à l’excès sur les données, les analyses et les techniques, la fiabilité, la
représentativité, etc. C’est sûr que c’est important, mais souvent cela mène à des résultats qui
\/|
sont exactement faux, plutôt qu’à des résultats qui sont approximativement bons. Les études
$|
s’accommodent trop facilement du fait que les clients veulent “plus et moins cher” et du coup ne
4$

sont plus des sources de changement ou de valeur ajoutée. Nous avons beaucoup trop abusé
d’études ennuyeuses et répétitives pour répondre aux besoins d’informations, de telle sorte que
By

nos ressources se sont épuisées. Nous devons faire preuve d’imagination pour interroger les
consommateurs sur des choses qui les intéressent, pour qu’ils puissent visualiser les questions
(par des photos ou des vidéos), ou pour demander au consommateur d’explorer son
environnement et d’interpréter les résultats et les observations, ou encore faire appel aux réseaux
sociaux pour résoudre les problèmes et utiliser des méthodes qui font plus appel à l’expérience.
Prenons un exemple : si nous voulons savoir pourquoi les gens adoptent un produit, un
comportement ou une marque, nous leur demandons la plupart du temps de donner leur avis sur
des échelles de Likert. Alors qu’il serait plus fructueux de demander aux personnes qui ont
adopté le produit de ne plus l’utiliser pendant un certain temps et, à l’inverse, d’activer les non-
adopteurs en leur donnant la possibilité d’utiliser le produit pendant un moment. Et de demander
ensuite aux consommateurs de parler de leurs sentiments et de partager leurs expériences,
images, films et photos avec leurs pairs pour générer des insights plus riches à partir de cette
expérience naturelle. »
Source : (*) SAINT-EXUPÉRY A., Le Petit Prince, Gallimard, 1946, pp. 19-20.
(**) Extraits traduits et adaptés de SCHILLEWAERT N., « Market research is in a state of limbo »,
International Journal of Market Research, vol. 53, no 4, 2011, pp. 560-562.

C. Synthèse
En résumé, nous dirons que l’étude qualitative cherche prioritairement à répondre aux questions
« Pourquoi ? », « Comment ? », « Dans quelles conditions ? », « Qu’est-ce qui fait sens ? ». De son
côté, l’étude quantitative donne des réponses à des interrogations du type : « Qui fait quoi ? »,
« Combien ? », « Quand et où ? ».
Ceci explique que, les objectifs précédents étant souvent complémentaires, on dégrossisse d’abord
un problème par l’étude qualitative, et que l’on décide ensuite, grâce aux informations obtenues, de
mettre en place une démarche quantitative. L’investigation qualitative est alors une étape
préliminaire à la démarche quantitative.
Toutefois, il existe des situations où l’étude qualitative se suffit à elle-même, soit parce qu’elle
apporte l’information souhaitée, soit parce que l’approche quantitative sera, par nature, inutilisable.
Par exemple :
1 – Lorsque l’objectif de l’étude n’impose pas la représentativité statistique de l’échantillon. C’est
fréquemment le cas pour une enquête en milieu industriel, lorsque la cible est étroite (quelques gros
clients) ou très homogène par rapport au sujet de l’étude.
2 – Lorsque le sujet de l’étude se révèle non pertinent, par exemple si un test d’idée d’un nouveau
produit se révèle nettement défavorable.
Nous considérons que les deux approches sont également utiles à la décision marketing, à condition
de connaître les limites de chacune d’entre elles : refuser d’utiliser des méthodes qualitatives dont
\/|
la fiabilité et la validité n’ont pas été établies, refuser de quantifier « l’inquantifiable » (i.e.
l’inconscient, pulsions et freins, etc.).
$|
4$

IV. Contenu de la proposition d’étude


By

La proposition se concrétise par un projet d’étude rédigé par un institut pour le compte d’un client,
à partir des réflexions et discussions préliminaires entre les partenaires. Son élaboration constitue
la dernière phase des travaux préparatoires au lancement de l’étude. Elle s’établit sur la base des
questions d’études retenues et s’achève par la remise au demandeur d’un plan de travail détaillé.
Ce document est analogue à un devis détaillé qui, en cas d’acceptation, engage contractuellement la
société d’études et son client. Il comporte plusieurs rubriques que nous allons présenter.

A. Rubriques d’une proposition d’étude


Un projet d’étude comporte quatre rubriques essentielles : objectifs, méthodologie, délais et coût
de l’étude. On retrouve ces différents points, quel que soit le type de démarche – qualitative ou
quantitative – adopté.
En revanche, puisque le choix d’une démarche comporte des implications majeures sur chaque
phase de l’étude, il est logique de s’attendre à ce que le contenu des rubriques diffère fortement
selon l’approche retenue. La figure 3.11. le montre clairement.
Figure 3.11. Objectifs et nature du projet d’étude

Éléments de l’étude Étude qualitative Étude quantitative


Objectifs du projet Généraux (exploratoire) : Spécifiques (décisionnel) :
clarifier une situation. – vérifier une hypothèse ;
– choisir une action.

Sources et besoins Vagues – Informels. Clairs – Bien définis.


d’informations

Collecte des données


Questions Ouvertes. Fermées, structurées.
Échantillon Réduit, choix subjectif. Grand, choix raisonné.

Analyse des données Intuition, informelle Formelle, reproductible


→ « non quantitative ». → « quantitative ».

Recommandations Suggestions. Solutions envisageables.


\/|
Source : Adapté de PARASURAMAN A., Marketing Research, 2e éd., Addison Wesley Publishing Co., 1991, p. 129.
$|
4$

1. Objectifs d’étude
La formulation des objectifs d’étude correspond aux questions prioritaires auxquelles l’étude doit
By

répondre. Il est important de définir avec soin les concepts employés, surtout s’ils sont peu
courants. Les objectifs sont, de préférence, hiérarchisés et limités à quatre ou cinq. Au-delà, l’étude
risque de s’éparpiller et ne pourra traiter que de manière superficielle chacun d’entre eux. Dans le
même temps, l’institut résume le contexte de l’étude et montre sa maîtrise de la problématique du
client.
Certains cabinets ou instituts n’hésitent pas à faire figurer sous cette rubrique quelques exemples de
décisions ou de recommandations que le demandeur de l’étude sera en mesure de prendre au vu des
résultats fournis.
Voici par exemple les objectifs de deux études imaginaires.
Exemple
Étude ALPHA :
1 – Déterminer, pour l’ensemble des segments, les critères utilisés pour le choix du
produit.
2 – Identifier les critères de choix pour chacun des segments.
3 – Évaluer l’image de la marque ALPHA sur chacun de ces critères.
4 – Comparer avec les images des marques concurrentes (X, Y, Z).
5 – Formuler des recommandations pour un repositionnement d’ALPHA.
Étude BÊTA :
1 – Déterminer les potentiels de ventes respectifs des deux concepts de produits B1 et
B2.
2 – Proposer une fourchette de prix publics conseillés.
3 – Proposer un barème de prix pour les distributeurs.

2. Choix méthodologiques
\/|
$|
La méthodologie correspond aux différents choix à opérer durant les phases de collecte et d’analyse
des données(61) :
4$

– Phase de collecte : terrain de l’étude


By

• Variables à examiner : définition des concepts étudiés (motivation, attitude, image, attentes des
consommateurs, satisfaction, fidélité à la marque, etc.) ; utilisation éventuelle de produits, de
marques (fictives ou réelles), de publicités ou de dessins, etc.
• Échantillonnage : définition de la population visée, taille d’échantillon, plan de sondage ou
d’observation, lieu et date pour la collecte des informations, relances prévues.
• Instrument de collecte des informations : nature (interviews ou observations), support utilisé
(grille d’observation, guide d’entretien, questionnaire ou appareillage spécifique), mode de recueil
(à domicile, téléphone, poste, Internet).
– Phase d’analyse des données
• Dépouillement des informations : lecture, visionnage, transcription manuelle, saisie informatique,
etc.
• Traitement des données : analyse de contenu, tests et analyses statistiques, etc.

3. Coût
La moyenne du budget annuel études des entreprises est de 1,3 million d’euros (1,9 million pour la
grande consommation et 1,7 million pour les entreprises de plus de 500 salariés) ; le budget moyen
d’une étude est de 31 000 euros(62). Les études sont soumises à une forte pression sur les coûts et les
délais, les acheteurs estimant que la diffusion des technologies on line permet des gains importants
de productivité (voir flash-étude 3.5.). Nous allons donner quelques repères pour les différentes
catégories d’études.

Flash-Étude 3.5.
La pression sur les coûts et les délais
« Chacun sait dans l’institut qu’un client : a) est difficile à vivre ; b) change d’avis tous les deux
jours ; c) tarde à donner son accord sur le démarrage du terrain pour exiger d’anticiper de deux
semaines la date de remise des résultats ; d) que toutes les études réalisées pour ce client sont
des gouffres financiers, que le client le sait, mais qu’il n’en a rien à faire... Il sera difficile de
maintenir un focus sur la qualité. Rien n’est plus démotivant pour les équipes que de savoir que
leur travail a une contribution négative sur la profitabilité de leur entreprise. C’est à l’institut
qu’incombe la responsabilité d’alerter le client pour sortir d’une logique improductive. Mais,
c’est au client d’être à l’écoute de l’institut quand lui sont remontés des messages relatifs à la
non-rentabilité du projet. Le marché des études marketing est fortement concurrentiel et les
clients peuvent être tentés de “consommer” des instituts. Il faut insister ici sur les avantages à
établir un partenariat durable entre le client et son institut. Un des outils de pilotage de la
relation reste l’évaluation de la performance des instituts. Rien n’est plus important pour un
\/|
institut que de disposer d’un feed-back sur la prestation réalisée. Si le feed-back est honnête,
$|
dénué de langue de bois et réalisé avec un minimum de recul, l’institut aura en main les cartes
4$

nécessaires pour optimiser sa prestation. Une revue semestrielle ou annuelle des instituts est
recommandée. »
By

Source : Interview de BENDAVID, M. ; Guide des études marketing, média et opinion,


16e édition, p. 67, novembre 2010, Tarsus Éditions.

• Étude ad hoc. Le coût global hors taxes(63) de l’étude facturé par les instituts dépend avant tout de
la nature de l’étude : l’étude quantitative ad hoc est généralement facturée plus cher que l’étude
qualitative. En effet, la source majeure de coût d’une étude vient de la taille de l’échantillon. Les
devis couvrent la totalité du coût de l’étude, depuis la phase de négociation jusqu’à la présentation
des résultats au client. On distingue deux cas de figure :
– Étude quantitative. Le coût de l’administration d’un questionnaire par un enquêteur varie de
10 euros à 25 euros, selon la durée, le type de population interrogée et la méthode de collecte. En
incorporant les frais fixes (préparation, analyse des données et rédaction du rapport), il faut prévoir
un budget moyen de l’ordre de 20 000 à 30 000 euros HT pour interroger 1 000 personnes
(représentatives de la population française de plus de 15 ans). La figure 3.12. donne les variations
des coûts selon le mode d’administration, sur la base d’un échantillon représentatif de la population
française : l’administration par Internet présente un net avantage en termes de coûts, ce qui
explique, comme nous le verrons dans le paragraphe suivant, la très importante progression. Par
ailleurs, les tarifs faisant fréquemment l’objet d’une négociation commerciale, la facture finale peut
être réduite de 10 % à 20 % par rapport aux chiffres indiqués.
Figure 3.12. Coût d’une étude quantitative ad hoc

– Étude qualitative. Le devis standard se compose d’une vingtaine d’entretiens individuels semi-
directifs, éventuellement complétés par une à deux réunions de groupe (ce qui amène à prévoir un
budget global de l’ordre de 25 000 euros). Tous frais compris (préparation, terrain, analyse,
rapport d’étude), le budget pour une réunion de groupe en face-à-face (8 à 10 personnes) sera
compris entre 5 000 et 10 000 euros selon la nature des participants (voir figure 3.13.). Ce coût
comprend la rémunération des participants (en argent, bon d’achat ou cadeau à choisir dans une
liste), qui est devenue un usage bien établi : elle tourne autour de 35 à 45 euros pour un
\/|
consommateur adulte et peut aller jusqu’à 150 euros pour un médecin généraliste, voire jusqu’à
$|
300 euros pour un spécialiste(64).
4$

Figure 3.13. Coût moyen d’une étude qualitative


By

Réunion de
Réunion de
groupe en face-
groupe
Entretien semi- à-face
Population à distance
directif (8 à
interrogée (Internet, 6 à
(une heure) 10 personnes
8 personnes
pour une demi-
pour 2 heures)
journée)
Personnes au foyer
300 à 600 € 5 000 € 2 000 à 3 000 €
Étudiants
Cadres
1 000 à 1 200 € 10 000 € 6 000 €
Professions libérales

• Étude omnibus et baromètres


Les prix sont facturés à la question, avec un tarif dégressif selon la quantité. Le client formule ses
questions, l’institut d’études administre le questionnaire et analyse les résultats. Pour 1 000
personnes représentatives de la population française, la question fermée coûte entre 1 300 euros
HT (téléphone) et 1 500 euros (à domicile), et 800 euros (Internet) ; une question ouverte revient de
20 % à 40 % plus cher. En général, au-delà de 20 questions, l’étude ad hoc devient compétitive.
• Panel et marché-test
L’abonnement à un panel géré par une société spécialisée (Nielsen, Kantar, GfK) varie de
70 000 euros à 200 000 euros HT, selon le nombre de marques suivies et la complexité des
marchés. Pour un marché-test (géographique ou simulé), le devis moyen oscille entre 70 000 euros
et 200 000 euros HT, selon le nombre de variables contrôlées et la durée du test.

4. Délai de réalisation de l’étude


Tout comme pour les coûts, les délais sont soumis à une forte pression de la part des clients des
instituts. Internet a permis de réduire considérablement la durée de collecte des données et, dans
une moindre mesure, la durée des traitements, la saisie des informations étant réalisée par le
répondant. Le délai moyen de réalisation d’une étude quantitative ou qualitative est sensiblement le
même. En revanche, le facteur primordial est constitué par le degré de standardisation de l’étude.
Par exemple, la figure 3.14. montre qu’une investigation « sur mesure », de type ad hoc, comportant
un échantillon d’environ 1 000 personnes représentatives de la population française, demandera en
moyenne un délai d’un bon mois pour le choix de l’institut, et de 1 à 2 mois pour sa réalisation,
selon le mode choisi pour l’administration du terrain. Dans le cas d’une étude omnibus, ce délai se
\/|
réduit à environ 1 mois si les interviews sont réalisées à domicile, contre quelques jours si l’on
$|
utilise le réseau Internet.
4$

Figure 3.14. Délais moyens de réalisation d’une étude quantitative


By

Définition de l’étude Ad hoc Omnibus


Définition des objectifs (appel
3 à 4 semaines –
d’offres)
Gestion du terrain
Face-à-face 3 à 4 semaines 2 à 3 semaines
Téléphone 1 à 2 semaines 1 semaine
Internet 1 à 5 jours 1 à 5 jours
Analyse des résultats 1 à 2 semaines 1 semaine
Rédaction du rapport 1 à 2 semaines –
Temps total 1 à 3 mois 1 à 3 semaines

5. Modalités de règlement
L’usage veut que le règlement de la société de conseil se fasse en deux temps : 50 % à la commande
et 50 % à la présentation du rapport.

6. Synthèse
Le Syntec, organisme fédérateur des professions du conseil et des études, a « normalisé » la liste
des éléments devant figurer dans une proposition d’étude qualitative ou quantitative. La fiche
technique 3.3. recense les principaux points.

Fiche technique 3.3. Éléments constitutifs d’une proposition d’étude


1 – Étude quantitative
a. Échantillon
Définition de l’univers, méthode d’échantillonnage et critères, taille de l’échantillon (nombre de questionnaires
exploitables), nombre de contacts nécessaires pour obtenir une interview, taux de déchet et de fidélité (dans le
cas de panels ou d’études répétitives), responsable de la fourniture des listes.
b. Collecte des données
Méthode d’enquête (contact personnel, téléphone, correspondance, télématique), lieu d’interview (domicile,
travail, salle/caravane, point de vente, voie publique), horaires d’enquête, questionnaire (responsable de la
rédaction, durée d’administration, nombre de questions ouvertes, éléments signalétiques pour les critères
d’analyse), réalisation ou absence d’enquête pilote, nombre de relances pour les interviews, matériel d’enquête
particulier, procédures de contrôle.
c. Analyse et rapport
Codification (participation éventuelle du client à l’établissement du plan de code), responsable des fournitures
(bandes, questionnaires remplis), nature des ventilations demandées (tris croisés), utilisation de modèles ou de
techniques statistiques particulières.
\/|
d. Délais
$|
Date de fourniture des produits et matériels, durée des principales phases de l’étude, date de remise des
4$

résultats préliminaires et définitifs.


e. Dispositions diverses
By

Langue de travail (si ce n’est pas le français), présentation des résultats (lieu et durée), utilisation de sous-
traitants, publication éventuelle, mode d’acheminement des documents, conditions de fourniture des tris
supplémentaires. Nom et qualité des responsables de l’étude. Garanties relatives à la qualité de l’institut. Clause
de confidentialité.
2 – Étude qualitative(65)
a. Échantillon
Définition de l’univers, critères servant de base à l’échantillonnage, taille de l’échantillon (nombre de
questionnaires exploitables), nombre de contacts nécessaires pour obtenir une interview, responsable de la
fourniture des listes.
b. Collecte des données
Entretien individuel : méthodes d’enquête (non directif, semi-directif, centré), durée, mode de consignation
(papier, crayon, magnétophone, vidéo), qualification de l’enquêteur, lieu d’enquête.
Réunion de groupe : type de réunion, durée, types de salle et enregistrement.
c. Analyse et rapport
Prestation fournie : bande magnéto ou vidéo, transcription, rapports oraux et écrits, analyses fournies.
d. Délais : identiques à l’étude quantitative.
e. Divers : identiques à l’étude quantitative.

B. Adoption du projet d’étude(66)


Le choix d’un projet d’étude crée des attentes fortes, certaines légitimes, mais d’autres se révèlent
illusoires. Un appel d’offres mal conçu, une formulation floue du problème, des délais de
réalisation irréalistes, un budget d’étude incompatible avec les objectifs, tout cela est source de
malentendus qui, inévitablement, diminueront l’efficacité de l’étude.
Comment apprécier et comparer plusieurs propositions ? Pour répondre à cette question délicate,
plusieurs éléments, parfois subjectifs, sont à considérer :
– cohérence : les questions d’étude sont formulées clairement et précisément ; elles correspondent
bien à la problématique définie par le client ; les choix méthodologiques sont adaptés aux objectifs
et respectent les règles scientifiques établies à ce jour ;
– contrôle : les solutions avancées sont maîtrisées par le soumissionnaire (compétences techniques,
crédibilité des références, maîtrise des éventuels sous-traitants et intervenants extérieurs, etc.) ;
– équilibre : les moyens mobilisés (réseau d’enquêteurs, logistique d’analyse, qualification des
chargés d’études, etc.) sont en rapport avec la demande du client ;
– créativité : la compréhension du problème à résoudre est abordée sous un angle neuf, capable
d’offrir des réponses originales ; les méthodes proposées ont été modifiées et validées pour
s’adapter aux spécificités éventuelles du problème à résoudre.
Une manière de simplifier le choix des fournisseurs est de s’engager dans un partenariat durable
avec un petit nombre d’instituts, sélectionnés en fonction de leurs compétences spécifiques pour tel
\/|
ou tel type d’étude : panel, marché-test, étude ad hoc qualitative ou quantitative. Leur prestation
$|
globale est évaluée annuellement, chaque étude étant notée par le responsable des études dans
4$

l’entreprise. Les critères proposés dans la figure 3-15 sont utilisés par une multinationale
américaine pour apprécier la qualité des interventions de ses fournisseurs d’études.
By
Figure 3.15. Critères d’évaluation des prestations des instituts d’études

Critères Modalités d’évaluation


Enthousiasme, serviabilité, rapidité de réaction sur les devis et
Attitude globale et réactivité
propositions d’étude, etc.
Information, compréhension des objectifs, capacité de traitement
Éclairage marketing
des données, qualité des recommandations.
Qualités des
Format, échelles appropriées, pré-test, instructions enquêteurs, etc.
questionnements
Tableaux des résultats Qualité de présentation, exactitude.
Rapidité de réponse aux questions, qualité du suivi des étapes de
Disponibilité quotidienne
l’étude en cours.
Rapport écrit Qualité de rédaction, concision, clarté, résumé managérial.
Présentation orale Préparation, concision, pédagogie.
Coûts et délais Respect du budget et du planning.
Excellente : dépasse les objectifs sur tous les points.
Très bonne : respect des objectifs sur tous les points.
Performance globale Bonne : travail satisfaisant, quelques points peuvent être améliorés.
\/|
Acceptable : performance un peu juste sur un ou plusieurs points.
$|
Faible : performance inacceptable.
4$

Source : Adapté de CHURCHILL G.A. Jr., Marketing Research : Methodological Foundations, 7e éd.,
By

The Dryden Press, 1999, p. 88.

Nous terminerons ce paragraphe sur une note humoristique, en présentant dans la figure 3.16. tout ce
qu’il convient de faire « pour être sûr(e) de rater son étude »... Certains points sont bien sûr un peu
caricaturaux, mais ils témoignent aussi de pratiques quelque peu abusives.

(67)
Figure 3.16. Dix conseils pour rater son étude (67)

1 - Formulation du problème : achetez d’abord des solutions


• Pas de temps à perdre à définir votre problème, seules les solutions comptent.
• C’est à l’institut de faire l’effort de comprendre votre demande
• Les gens de l’extérieur n’ont pas à connaître les problèmes de l’entreprise.
2 - Méthodologie : demandez l’impossible, il en sortira bien quelque chose
• La réalité n’est pas si complexe que cela.
• Sachez faire des compromis : le bon sens vous aidera à simplifier
3 - Consultation : n’hésitez pas à faire jouer la concurrence et faites votre prix
• Plus vous contactez d’instituts, mieux c’est.
• Choisir le projet le moins cher, puis négocier encore les prix
4 - Choix d’un projet : vérifiez l’épaisseur
• Un institut qui n’écrit pas quelques dizaines de pages ne prend pas votre problème à cœur.
5 - Évaluation du prix : montrez que vous êtes un bon gestionnaire
• Une étude cela s’achète comme n’importe quel autre produit
• N’hésitez pas à imposer vos référentiels, c’est à l’institut de s’adapter
6 - Évaluation des délais : gagnez du temps
• Choisissez le délai le plus court, puis divisez par deux.
7 - Échantillons et terrain : gardez votre bon sens \/|
• Ne vous laissez pas raconter des histoires d’échantillon aléatoire, quota...
$|
• Pas de contrôleurs, de relecture d’interviews, cela économise 10 % du prix du terrain.
4$

• Vos vendeurs sont des enquêteurs, car ils connaissent le consommateur.


• Une étude cela s’achète comme n’importe quel autre produit.
By

• La qualité d’un terrain, c’est la cuisine de l’institut.


• On trouve une réponse à tout avec un terrain par Internet : c’est facile, plus rapide et moins
cher.
8 - Questionnaire : profitez de l’occasion
• Ajoutez d’autres questions qui vous préoccupent (on n’est jamais à une près).
9 - Analyse des données : croisez tout avec tout
• Dans le doute, demandez le maximum de tableaux et de tris.
• N’hésitez pas à jouer les prolongations en demandant de nouveaux traitements après la remise
des conclusions.
10 - Résultats et rapport d’étude : soyez sans pitié
• Si les résultats ne vous plaisent pas, c’est la faute de l’institut.
• Une dizaine d’exemplaires du rapport d’étude, c’est un minimum.
• Tant que vous avez l’institut sous la main, profitez-en pour lui soumettre d’autres problèmes
en lui faisant miroiter la perspective d’autres études.

V. Marché des études


Nous présenterons successivement les grandes lignes du marché français, puis celles du marché
mondial, en nous attachant à mettre en évidence les évolutions majeures intervenues durant les vingt
dernières années.
A. Marché français
Si les études demeurent un marché globalement porteur depuis une vingtaine d’années, le chiffre
d’affaires du marché français reste modeste. Le fait marquant sur les dix dernières années est le
bouleversement des méthodes de collecte de données consécutif à la pénétration massive d’Internet
dans les foyers.

1. Évolution globale
Le marché français des études s’est fortement développé durant les années 2000 à 2005, avec une
progression annuelle de l’ordre de 5 % à 10 %. La croissance s’est ralentie à partir de 2006,
accusant en 2009 une première baisse depuis plus de 15 ans. La reprise a eu lieu l’année suivante.
Depuis 2011, la situation est de nouveau ralentie avec un taux de croissance nul.
Figure 3.17. Chiffres d’affaires des études en France

Chiffres d’affaires
Années Variation annuelle (en %)
(en millions d’euros)
2013 2 000 – 0,1%
2012 2 013 \/| – 1,7%
2011 2 067 +1,3%
$|
2010 2 041 + 5,8 %
4$

2009 1 930 – 3,4 %


2008 1 999 + 3,7 %
By

2007 1 928 + 4,1 %


2006 1 852 + 2,5 %
2005 1 807 + 5,2 %
2004 1 717 + 5,6 %
2003 1 626 + 4,6 %
2002 1 555 +6%
2001 1 467 + 8,5 %
2000 1 352 + 10 %
Source : d’après Syntec, Études Marketing et Opinion, Marché français des études, 2013.

2. Structure
Depuis une vingtaine d’années, le secteur des produits de grande consommation est le plus fort
demandeur d’études, l’alimentaire représentant la majeure partie du chiffre d’affaires. En 2013, la
grande consommation représente 37 % du total, suivie par la distribution (8 %), la finance-banque-
assurance (7 %), l’automobile (6 %) et les administrations (6 %)(68).
3. Méthodes
Les méthodes quantitatives progressent de manière constante depuis plus de trente ans au détriment
des méthodes qualitatives : ainsi, elles représentaient 65 % des études en 1985 contre 90 % en
2013 (voir figure 3.18). Les techniques de collecte des données sont, depuis 2010, majoritairement
effectuées via Internet. Si la percée est fulgurante dans le domaine des études quantitatives, elle
reste plus modeste pour les études qualitatives. Elle reste plus modeste pour les études qualitatives,
mais une percée se manifeste depuis 2012.
Figure 3.18. Répartition des études ad hoc selon l’approche et le mode d’administration

\/|
$|
4$
By

Source : d’après les statistiques de Syntec Études.

La ventilation des budgets selon les objectifs et le type d’étude est globalement assez équilibrée
(voir figure 3.19.). Les études répétitives (panels et baromètre) représentent 43 % du budget et les
études ad hoc 51 %. Dans cette dernière catégorie, les études quantitatives ont un poids
prépondérant par rapport aux études qualitatives.
Figure 3.19. Ventilation des budgets d’études des entreprises

Type
Objectif Répartition Répartition
d’études
Études longitudinales (panel et
43 % Panels 22 %
baromètres)
Baromètres 21 %
Études ad hoc 51 %
Études stratégiques 22 % quantitatives 37 %
qualitatives 14 %
Études tactiques (marketing-mix) 35 % Autres 6%
Source : TNS-Sofres pour UDA, 2011.

4. Instituts
Marketing Magazine publie chaque année, dans son numéro de mai(69), le classement des
100 premiers instituts d’études marketing. Malheureusement ce classement n’est plus représentatif
du marché français, du fait de la législation américaine : cette dernière interdit aux filiales
\/|
françaises de fournir leur bilan. Cela explique que ni Nielsen, ni Kantar-TNS ne figurent dans ce
$|
classement. Par ailleurs, les informations fournies reposent sur les déclarations des instituts et non
4$

sur leurs bilans ou comptes de résultats.


Cependant, en 2013, le magazine Stratégies a fait appel à l’institut Coface-Service de manière à
By

résoudre ce problème. La figure 3.20 montre le classement conforme à la réalité du marché, avec un
trio de tête composé des instituts d’études Kantar, Ipsos et GfK. On observe que le marché est très
concentré, les 10 premiers instituts représentent 40 % du chiffre d’affaires total.
Figure 3.20. Les dix premiers instituts d’études en France (2013)

(1) source GfK (2) Comptes consolidés.


Source : Coface service (http://www.strategies.fr/etudes-tendances/chiffres-cles/).
B. Marché mondial
Avec un chiffre d’affaires de 40,3 milliards de dollars, le marché mondial des études a augmenté de
près de 3 % en 2013, si on ne tient pas compte de l’inflation, et a légèrement baissé (– 0,7 %) si on
corrige l’inflation, selon Global Market Research, l’enquête annuelle d’Esomar. Si, depuis une
dizaine d’années, les pays émergents constituent un levier de croissance marqué, l’Amérique du
Nord et l’Europe représentent encore près de 70 % de la part de marché mondiale. Enfin, la
concentration se poursuit depuis le début des années 2000 ; chaque année ou presque, on assiste à
un regroupement ou à un rachat d’instituts. Kantar (groupe WPP) a ainsi racheté en 2008 TNS, Ipsos
a absorbé Synovate en 2011 et Nielsen a acquis Arbitron l’année suivante. Les Anglo-Saxons
dominent largement le marché, avec cinq sociétés américaines et deux entreprises britanniques
parmi les dix premiers instituts au monde.
Figure 3.21. Le marché mondial des études 2013

Taux de
CA 2013 Part de
Région croissance*
(Millons $) marché
(2012/2013)
Europe 16 005 \/| – 1,4 % 40 %
Amérique du Nord 15 705 +2,9 % 39 %
$|
Asie-Pacifique 5 998 +1,6 % 15 %
4$

Amérique latine 1 920 – 0,1 % 5%


Afrique/Moyen-Orient 382 – 1,2 % 1%
By

Monde 40 287 – 0,7 % –


* Après élimination de l’inflation.
Source : Esomar Global Market Research 2014.

Figure 3.22. Les cinq premiers marchés mondiaux des études en 2013

Chiffres
Part de
Pays Rang d’affaires
marché
(Millions $)
USA 1 14 991 37 %
GB 2 5 065 13 %
Allemagne 3 3 468 9%
France 4 2 679 7%
Japon 5 1 843 5%
Reste du monde 12 242 30 %
Source : Esomar Global Market Research 2014.
Figure 3.23 Le top 10 des sociétés d’études mondiales en 2013

Source : Esomar Global Market Research 2014.

Conclusion \/|
Nous avons vu, dans le présent chapitre, les principales décisions qui doivent être prises avant le
$|
démarrage effectif d’une étude de marché : adoption d’une démarche d’investigation et choix d’une
4$

approche méthodologique. C’est sur ces bases que la rédaction du projet d’étude est réalisée. Cette
dernière tâche marque la fin des travaux préparatoires.
By

Nous aborderons dans les chapitres suivants les phases de terrain et d’analyse des données. Dans
un souci pédagogique, et parce que les méthodes sont sensiblement différentes, notre présentation
distinguera les techniques qualitatives, qui font l’objet de la deuxième partie de cet ouvrage, puis
les outils quantitatifs, exposés dans la troisième partie.
Test de connaissance
(Cochez une seule réponse par question.)
Q1. L’objectif majeur d’une étude qualitative est de :
(1) pondérer des variables
(2) regrouper des hypothèses ou des variables
(3) formuler des hypothèses
Q2. L’étude quantitative vise à :
(1) la représentativité des résultats
(2) neutraliser l’influence de l’inconscient
(3) recenser les composantes d’un problème
Q3. Un instrument fiable doit :
(1) mesurer ce qu’il cherche à mesurer
(2) reproduire le même résultat dans des conditions d’administration identique
\/|
(3) permettre de généraliser les résultats sur d’autres populations
$|
4$

Q4. L’appel d’offres est une procédure qui consiste habituellement à :


(1) proposer un même sujet d’étude à plusieurs sociétés d’études de marché
By

(2) offrir plusieurs sujets d’étude à une même société d’études de marché
(3) offrir plusieurs sujets d’étude à plusieurs sociétés d’études de marché
Réponses : voir annexes téléchargeables sur www.vuibert.fr

Bibliographie
BOSS J.-F. et LINDON D., « L’efficacité des études de marché », Revue française du marketing,
no 134, 1991/4, pp. 35-49.
BRUN M. et THOMAS J., « Plus vite et moins cher : avons-nous encore besoin de bonnes études de
marché ? », Revue française du marketing, no 217, mai 2008, pp. 9-26.
CHURCHILL G.A. Jr., « A paradigm for developing better measures of marketing constructs »,
Journal of Marketing Research, février 1979, pp. 64-73.
DION D. et SITZ L., « Enrichir la compréhension des comportements de consommation : pistes
opérationnelles et enjeux organisationnels », Décisions Marketing, vol. 71, 2013, pp. 45-58.
EVRARD Y., PRAS B. et ROUX E., Market : fondements et méthodes des recherches en marketing,
Dunod, 4e édition, 2009.
FAIVRE J.-P., « 12 conseils pour rater vos études », Revue française du marketing, nos 142-143,
1993/2-3, pp. 109-111.
LE MAIRE P., « Comment améliorer les relations entre les cabinets d’études et leurs clients ? »,
Revue française du marketing, 1979/4, pp. 41-49.
PETER J. P., « Reliability : a review of psychometric basics and recent marketing practice », Journal
of Marketing Research, février 1979, pp. 6-17.
PETER J.P., « Construct validity : a review of basic issues and marketing practices », Journal of
Marketing Research, mai 1981, pp. 133-145.
SCHILLEWAERT N., « Market research is in a state of limbo », International Journal of Market
Research, vol. 53, no 4, 2011, pp. 560-562.
SYKES W., « Validity and reliability in qualitative market research : a review of the literature »,
Journal of the Market Research Society, vol. 23, no 3, juillet 1990, pp. 289-328.
VERNETTE É., « L’efficacité des instruments d’études : évaluation des échelles de mesure »,
Recherche et Applications en marketing, vol. 6, no 2,1991, pp. 43-66.

\/|
$|
4$
By
Deuxième partie

Approche qualitative
Cette deuxième partie de l’ouvrage présente les principales formes d’investigation qualitatives et
les techniques associées. Elle montre au lecteur comment recueillir et traiter les informations en
fonction de la démarche suivie.
Nous commencerons par les investigations fondées sur l’entretien individuel (chapitre 4), nous
aborderons ensuite celles faisant appel aux interactions entre membres d’un groupe (chapitre 5) et
poursuivrons avec les investigations effectuées par observation (chapitre 6), pour terminer par la
présentation des principales techniques d’exploration et d’interprétation du sens (chapitre 7).

\/|
$|
4$
By
By
4$
$|
\/|
Chapitre 4

Investigation par entretien individuel


Le désir refoulé continue à subsister dans l’inconscient
S. FREUD, Cinq leçons sur la psychanalyse.

L’entretien individuel est la façon la plus simple d’approcher un consommateur. Cette investigation
qualitative permet de mieux comprendre les ressorts d’une décision humaine. Nées aux États-Unis
dans les années 1940, sous la conduite d’Ernest Dichter(70), les premières études qualitatives
appliquées aux problèmes de marketing ont été baptisées « études de motivation ». Leur utilisation
s’est développée de manière spectaculaire dans les années 1950 à 1970, puis a lentement décliné
jusqu’au milieu des années 1980, probablement en grande partie parce que les praticiens
\/|
« qualitatifs » ne se sont guère sentis concernés par la nécessité de valider leurs techniques, à la
$|
différence des partisans de l’approche quantitative.
4$

Depuis la fin des années 1990, l’entretien qualitatif individuel a connu un regain d’intérêt, avec la
nécessité de comprendre l’expérience de consommation dans sa globalité et les perspectives
By

ouvertes par des logiciels de plus en plus performants. Après une présentation générale des
approches, ce chapitre détaille les méthodes d’investigation traditionnelles issues de la
psychanalyse, puis il en développe les nouvelles formes, issues des courants philosophiques du
début et du milieu du XXe siècle (voir la figure 4.1.).
Figure 4.1. Plan du chapitre

\/|
$|
4$

I. Présentation générale des approches


By

A. Domaines d’investigation et postulats fondamentaux


Dans les études de marché, les différentes approches individuelles explorent une palette très large
des processus de choix et de consommation. De manière générale, elles visent à identifier les
motivations et les freins propres au choix dans une catégorie de produits ou de services, à décrire
et comprendre la formation des croyances et des attitudes vis-à-vis de marques, à explorer le sens
des comportements et expériences de consommation (figure 4.2.)(71).
Figure 4.2. Domaines de l’investigation qualitative individuelle

Comportements
Motivations et
Attitudes et expériences
freins
de consommation
Connaissance
Forces, pulsions
Opinions : « Ce qu’on pense » ; Environnement
« Ce qui pousse vers »
« Ce qui se dit » « Pourquoi cela passe comme
« Pourquoi agit-on comme
« Quels a priori ? Quels cela, ici et maintenant ? »
cela ? »
stéréotypes ? »
Affectif
Jugements :
« Ce qu’il faut faire » ; « Ce qui
Émotion
est bien ou mal »
« Que ressent-on ? »
Conventions, valeurs
« Quelles formes de plaisir,
Freins, inhibitions Évaluations :
joie, colère, angoisse, peur ? »
« Ce qui retient » « On aime ou aimerait ceci, mais
« Quelles sensations ? »
« Ce qui fait peur » pas cela. »
« Pourquoi n’a-t-on pas fait Attentes, idéal, points favorables
\/|
cela ? » et défavorables
$|

Usage et expérience
4$

Conatif « Comment fait-on ? »


Intention : « Ce que l’on va « Comment utilise-t-on ? »
By

probablement faire. » « Que vit-on ? »


« Comment vit-on ? »

L’investigation individuelle part, dans un premier temps, d’une vision imprécise, non structurée et
superficielle de l’information, puis elle s’efforce de la décoder ou de l’interpréter en termes de
motivations, d’attitudes, de comportements ou d’expérience.
Ces approches sont sous-tendues par trois postulats communs(72) :
– les comportements individuels ne sont pas aléatoires. Toute conduite a une signification et une ou
plusieurs raisons que l’on peut mettre au jour en utilisant une forme d’investigation appropriée. Si
l’interview individuelle en profondeur est un moyen privilégié, d’autres formes sont envisageables,
comme l’entretien introspectif, phénoménologique ou herméneutique ;
– la signification d’un comportement n’est pas immédiatement accessible au sujet lui-même. En
conséquence, l’individu n’est pas toujours en mesure d’expliquer la raison de ses actes : l’analyse
et l’interprétation de ceux-ci nécessitent une approche indirecte. Il convient de distinguer
l’apparent, le manifeste qui sont directement accessibles, du latent, enfoui dans les profondeurs de
l’inconscient ;
– la réalité n’est pas unique. Elle est sujette à plusieurs interprétations et/ou constructions. Plus
particulièrement, la réalité est sujette à une double perception : celle du sujet qui la vit ou qui la
ressent au travers d’une « expérience » personnelle, et celle du chercheur qui doit en comprendre le
sens, puis le restituer de manière intelligible. Dès lors, la subjectivité est revendiquée, l’analyse
privilégie le « je », marque d’une vision personnelle de cette réalité.

B. Points méthodologiques communs


La figure 4.3. met en relief les trois temps forts communs à toute démarche qualitative individuelle :
la collecte des discours : « Pourquoi et comment cela se dit, quand, où et comment cela se
passe ? », les principes de traitements : « Description, schématisation, construction, interprétation
et représentation » et les résultats : « Qu’est-ce que cela implique ou signifie ? ». Les entretiens en
profondeur et introspectifs se situent sur le premier axe (Pourquoi, comment cela se dit ?), les
entretiens phénoménologiques et herméneutiques occupent le second axe (Quand, comment et où
cela se passe ?).
Figure 4.3. Les trois temps d’une investigation individuelle

\/|
$|
4$
By

Nous détaillerons dans les paragraphes suivants ces différents temps pour chaque forme d’entretien
individuel.
Les différentes approches de l’entretien qualitatif individuel présentent deux caractéristiques
méthodologiques communes :
– questions flexibles. Alors que les techniques quantitatives privilégient les questionnaires
rigoureux comprenant un éventail de réponses limité, les études qualitatives considèrent que de tels
instruments n’ont guère de sens. Dans un questionnaire, les questions sont posées de la même
manière et dans le même ordre pour chaque interviewé. Or, si ces contraintes facilitent la
quantification des données, elles présupposent que tous les répondants réfléchissent de la même
manière et abordent dans les mêmes termes une question donnée. De surcroît, les questions
contraignent les interviewés à n’utiliser que des réponses standardisées et prévues : que faire si les
réponses proposées ne conviennent pas ? Par conséquent, lorsqu’il est nécessaire de poser des
questions, les méthodes d’entretien individuel s’efforcent de s’adapter le plus possible à chaque
enquêté. Pour ce faire, elles offrent à l’enquêteur un guide d’entretien, plus ou moins structuré et
détaillé, mais très différent, comme nous le verrons plus loin, d’un questionnaire ;
– subjectivité dans l’interprétation des données. C’est un axiome majeur, parfois déroutant au
premier abord. Certaines techniques d’analyse de données qualitatives sont puissantes, mais
d’autres peuvent prêter le flanc à la critique, dans la mesure où leurs validité et fiabilité n’ont pas
clairement été établies dans un contexte d’étude du consommateur.

C. Orientations et spécificités des différentes approches


Le chargé d’études peut choisir, voire combiner, quatre approches : l’entretien en profondeur,
l’entretien introspectif, l’entretien phénoménologique, l’entretien herméneutique. Chaque approche,
issue de champs disciplinaires différents, répond à des objectifs marketing différents et présente
des spécificités méthodologiques. Leur application à un contexte d’étude de marché impose des
adaptations et des simplifications, que l’on peut parfois questionner en termes de validité.
La figure 4.4. résume les grandes lignes de chaque approche ; celles-ci seront successivement
approfondies dans les paragraphes suivants. Les entretiens en profondeur et introspectif trouvent
leurs racines théoriques dans la psychanalyse et la psychologie ; l’usage des premiers est très
fréquent dans les études qualitatives, les seconds sont rares. Les entretiens phénoménologiques et
herméneutiques s’appuient sur les théories philosophiques développées au début et au milieu du
XXe siècle ; leur usage dans les études qualitatives est plus récent et répond à une demande
prioritaire du marketing expérientiel, à savoir la compréhension du sens de la consommation d’un
\/|
produit ou d’une marque.
$|
Figure 4.4. Les différentes approches d’une investigation individuelle
4$

Principaux
By

Objectif majeur Spécificités


champs
Approches pour les études méthodologiques
disciplinaires
marketing de l’entretien
concernés
Non-directivité ou semi-
Identifier les directivité. Psychanalyse
Entretien en motivations et les freins Effacement de Psychologie
profondeur d’un comportement. l’intervieweur. Sociologie
Explorer l’inconscient. Guide d’entretien Marketing
formalisé.
Recueil de croyances et
de représentations
individuelles et sociales
(produits, marques).
Comprendre Psychanalyse
Entretien l’expérience de Auto-interview du sujet.
Psychologie
introspectif consommation et ses Penser à voix haute.
Marketing expérientiel
représentations
individuelles et
sociales.
Décrire l’expérience
(le « vécu ») de
consommation.
Faire raconter et revivre
Découvrir
des expériences (récits
« l’intention » donnée Philosophie
Entretien et narrations
aux choses par Sociologie
phénoménologique personnelles).
l’individu. Marketing expérientiel
Participation active de
Décrire le sens que
l’intervieweur.
l’individu attribue aux
objets, produits et
marques.
Situation dans le
Comprendre (dévoiler) contexte culturel, social
l’expérience en et historique. Philosophie
l’inscrivant dans une Prise en compte de Histoire
Entretien temporalité (passé, l’environnement du Littérature (hermétisme)
herméneutique présent, futur). répondant (projet Théologie (exégèse)
Découvrir le sens caché personnel). Droit
\/|
à partir du sens Guide d’entretien souple Marketing expérientiel
$|
apparent. et flexible (variable
4$

selon les interviewés).


By

II. Entretien en profondeur


L’étude qualitative du consommateur a été caractérisée dans les années 1950 à 1970 par la
prédominance de techniques empruntées à la psychologie clinique. Nous retracerons d’abord
l’arrière-plan théorique, puis nous présenterons les différentes méthodes de collecte et terminerons
par l’analyse des familles de traitement des données qualitatives.

A. Arrière-plan théorique
Ces techniques d’investigation trouvent leurs racines théoriques dans la psychanalyse – ou
« psychologie des profondeurs » – dont l’objet principal est la compréhension de la vie psychique
de l’individu. Elles s’intéressent prioritairement au « pourquoi » d’un comportement d’une
personne ; c’est la raison pour laquelle, par abus de langage, ces techniques sont souvent
dénommées « étude de motivation ».

1. Concepts fondamentaux
La psychanalyse, née à la fin du XIXe siècle, est aujourd’hui fragmentée en une nébuleuse d’écoles ;
son enseignement s’est progressivement déplacé de la médecine à la psychologie(73).
La fiche technique 4.1. présente les concepts de conscience, d’inconscient et de besoin, jugés
prioritaires par Freud, Adler et Jung, pour la compréhension de l’investigation en profondeur(74),(75).

Fiche technique 4.1. Conscience, inconscience et besoin chez Freud, Adler et


Jung
1 – Sigmund Freud
Né à Freiberg en 1856, il acquit une audience internationale grâce à ces cinq célèbres leçons, véritables textes
fondateurs de la psychanalyse, prononcées en 1904 à la Clark University. La psychanalyse « ramène à la surface
de la conscience tout ce qui en a été refoulé ». Pour Freud, la conscience est un « obstacle sérieux » à
la compréhension des angoisses, des complexes et des inhibitions de l’individu. L’investigation a pour objet
d’apprendre du patient quelque chose qu’on ne sait pas et que lui-même ignore. Les traumatismes passés sont
refoulés dans l’inconscient, sous l’effet de forces durables qui s’opposent à leur remontée à la surface. Des
techniques spécifiques peuvent vaincre cette résistance : hypnose, entretien non directif, rêve éveillé, analyse
des rêves et des actes manqués, etc.
Le besoin résulte d’un état de manque de quelque chose de fondamental (physique ou physiologique) lié à la vie
humaine. Le désir et la pulsion sont à l’origine du comportement et découlent de l’existence d’un besoin. Le désir
est une représentation mentale ou une image interne qui sert de fondement aux motivations. La pulsion
s’apparente à la motivation, mais elle n’a pas de force motrice à proprement parler : la libido, l’agressivité,
l’autodestruction ou la destruction sont les expressions des pulsions liées à la vie et à la mort ; à ce titre, la
sexualité occupe une place déterminante dans la réflexion freudienne. À partir de 1923, Freud représente le
psychisme par trois instances. Le « ça », domaine du plaisir et de l’inconscient, est le réservoir des pulsions
\/|
archaïques ; c’est « une marmite pleine d’émotions bouillantes » ; les pulsions sexuelles constituent sa principale
$|
nourriture. Le « surmoi » se forme durant l’enfance par l’éducation : il représente les valeurs morales et la culture
de la société à laquelle l’individu appartient : c’est le domaine du conscient et de la perception du monde
4$

extérieur ; le surmoi inhibe les pulsions du « ça ». Le « moi », stade du préconscient, est l’intermédiaire entre le
sur-moi et le ça ; il gère les besoins en prenant des décisions qui conduisent à la satisfaction ou au refoulement
des pulsions et besoins initiaux.
By
Les trois instances du psychisme freudien

\/|
$|
4$
By

Source : WEINBERG A., « Comment Freud a inventé la psychanalyse », Sciences humaines, no 113, février 2001,
p. 29.

2 – Alfred Adler
Adler, né à Vienne en 1870, est un contemporain de Freud. À la différence de ce dernier, il considère que l’instinct
sexuel n’est pas le moteur déterminant du comportement humain. L’accent est mis sur la dimension sociale et les
rapports avec l’entourage. L’homme est gouverné par des pulsions sociales qui se concrétisent par un style de vie
et une recherche de rapports de coopération. La conscience est le centre de la personnalité. L’homme est
conscient de ses motivations et de ses infériorités. En revanche, ses actions peuvent être planifiées pour
atteindre un futur but inconscient ou confus.
Le comportement résulte d’arbitrages entre des pulsions primaires qui sont le pendant de la constatation d’un
manque ou d’un état d’infériorité (physique ou psychologique) et des pulsions supérieures qui visent à
compenser, sous une forme plus agressive ou créative, le déséquilibre constaté.
Cet équilibre est difficile à atteindre et à maintenir : les défauts de la personnalité sont une déficience de
l’adaptation. Si le sentiment de l’état d’infériorité est permanent, on entre dans le domaine de la névrose du
complexe d’infériorité ; le symétrique est le complexe de supériorité, qui est une forme de surcompensation
agressive (culte du héros, abus de pouvoir, etc.). En marketing, on fait l’hypothèse que ces équilibres ou
traumatismes s’exprimeront, de façon généralement inconsciente, lors des choix d’un acheteur.
3 – Carl Gustav Jung
Né en 1875, Jung a été le grand rival de Freud. Leurs théories se sont d’abord enrichies mutuellement, puis ont
nettement divergé à partir de 1913. Un des désaccords majeurs porte sur les mécanismes du refoulement. Jung
développe une vision de la personnalité plus philosophique et mystique ; il explore les profondeurs du « monde de
l’âme ». Pour lui, être conscient, « c’est percevoir et reconnaître le monde extérieur ainsi que soi-même dans ses
relations avec le monde extérieur ». Sa vision de l’homme est plus optimiste que celle de Freud, car la
perturbation psychologique est pour Jung une chance à saisir pour élargir sa personnalité. Sa pensée, complexe
et touffue, contient de nombreux germes qui alimenteront les théories postmodernes, comme l’intérêt pour la
globalité – le « holisme » – et les phénomènes d’opposition et de complémentarité : l’individu et le cosmos,
l’individualisme et l’universalisme, l’âme et la matière(76).
La structure de la personnalité totale, la psyché, est formée de cercles en interaction. La « persona », masque
construit par les règles de l’entourage, est le reflet idéal de l’individu, censé répondre aux attentes de la
collectivité ; elle protège le « moi » des regards indiscrets. Le « moi » est une constellation de représentations
conscientes ; il possède un pouvoir propre, celui des sentiments et des pensées personnelles que nous taisons,
s’ils sont contraires à nos projets et intentions véritables. Le « soi » est l’essence de la véritable personnalité,
une sorte de guide intérieur qui n’apparaît que si le « moi » accepte de se mettre à son écoute : il est en partie
conscient et inconscient. Pour Jung, « l’inconscient personnel forme une couche psychique faite d’éléments qui
pourraient être tout aussi bien conscients, mais qui, pour certains motifs, de nature fort diverse, demeurent
\/|
inconscients ». Une partie de ce soi est enchâssée dans « l’ombre » qui se compose d’un mélange de traits
personnels et de potentialités ignorés de l’individu ; seules des techniques projectives, telle la méthode des mots
$|
inducteurs, permettent sa mise au jour (voir le paragraphe I-A du chapitre 7). L’animus est la personnification du
4$

principe féminin pour l’homme, l’anima représentant le principe masculin pour la femme ; ce sont les expressions
de l’image de l’âme dont la connaissance réciproque dans un couple rendrait les relations durables et
harmonieuses. Les représentations inconscientes et récurrentes de la personnalité humaine sont dénommées
By

« archétypes » ; elles découlent du patrimoine culturel et biologique de l’homme et « elles donnent la possibilité
formelle de reproduire des idées semblables ou au moins analogues ».
Les besoins fondamentaux de l’homme sont satisfaits par les sources physiologiques (nourriture), mais surtout
par l’adaptation de l’énergie psychique aux modifications de l’environnement. La sérénité est atteinte par
l’exploration intérieure, la recherche d’une expérience personnelle fondée sur le « laisser-venir », la
différenciation et la confrontation étant un préalable à cette unité.
Structure de la psyché jungienne

Source : EDINGER E. F., « An outline of analytical psychology », Quadrant, no 1, 1968, cité par PELLEMANS P.,
1998, p. 292.

\/|
$|
2. Implications pour l’entretien qualitatif
4$

Pour conduire et analyser un entretien en profondeur, le chargé d’études doit garder à l’esprit les
principaux axiomes des théories psychanalytiques. Trois points émergent :
By


1 – Un acheteur n’est pas forcément conscient de ses motivations.
Les angoisses, les complexes ou les traumatismes passés resurgissent fréquemment lors de l’achat
d’un produit. Pour Freud, les véritables besoins sont latents (inconscients) et leur satisfaction
s’exprime par une réaction d’opposition. Chez Adler, les besoins d’estime et d’affirmation de soi
sont source de motivations (pulsions, désirs de compensation) et de créativité. Chez Jung,
l’archétype, le mythe et la sublimation (besoin de se transcender) motivent le comportement ; ainsi,
le produit ou la marque représenterait un miroir de soi sur lequel l’individu projette des contenus
psychiques inconscients.

2 – Les mécanismes de défense de la personnalité compliquent l’investigation.
Les différentes strates de notre personnalité peuvent être source de conflits intérieurs. La protection
du psychisme met en jeu des mécanismes de défense (tel le refoulement) qui sont autant de pistes
délicates que le chargé d’études doit explorer. L’achat d’une marque ou d’un produit peut être un
moyen de réduire ces tensions, par un phénomène de projection inconsciente (identification à autrui,
déplacement, transfert, sublimation), ou un moyen de compenser un manque quelconque (le
complexe).

3 – Les discours ne peuvent être analysés directement : ils doivent être interprétés.
Les différentes théories s’opposent sur le sens des symboles et actes inconscients de l’individu :
interprétation des rêves, association d’idées, lapsus, archétypes, etc. En revanche, l’écoute non
directive et le test projectif (voir chapitre 7) sont des techniques d’interprétation communes aux
différents auteurs.

B. Échantillonnage
Si, dans une démarche qualitative, l’échantillonnage ne vise pas à la représentativité quantitative de
la population mère étudiée, il doit néanmoins être effectué avec méthode. Deux questions se posent.

1. Qui interroger ?
Le choix des répondants ne s’effectue pas au hasard : il est orienté, c’est-à-dire qu’il répond à une
logique dictée par les questions d’études. Plusieurs séquences sont envisageables(77).

a. Du cas général au cas particulier


Les paramètres d’échantillonnage découlent de la question d’étude. On commence par interroger les
\/|
individus qui sont a priori les plus concernés par la problématique centrale. On peut aussi
$|
découvrir, en cours de réalisation du terrain, des cas particuliers ou des pistes non prévues. Dans
un tel cas, l’enquêteur suit son intuition, en orientant ses interviewers pour approfondir telle ou telle
4$

piste. Par exemple, si le sujet est « le moment du goûter à l’école primaire », on commence par
interroger différents enfants de la maternelle au cours moyen, puis leurs parents. Il peut apparaître,
By

par exemple, qu’au cours des entretiens, les instituteurs et institutrices jouent un rôle de
prescripteur en suggérant ou en bannissant des aliments particuliers, des emballages, etc. Dans ce
cas, on interrogera des professeurs d’école, voire des directeurs (directrices) d’école. S’il apparaît
ensuite que le mode de transport influence la nature du goûter, on diversifiera les entretiens en
fonction de ce critère et de la distance du domicile par rapport à l’école.
b. Homogénéité vs hétérogénéité
L’homogénéité permet d’approfondir une question d’étude récurrente ou très délimitée.
L’hétérogénéité est préférable si l’on veut explorer ou découvrir un nouveau marché. Dans le
premier cas, les répondants sont homogènes (sexe, âge, professions, etc.), en cohérence avec
l’objectif d’étude, et inversement pour le second. Les critères découlent de la cible marketing
visée : selon le cas, on définira plusieurs groupes hétérogènes sur une ou plusieurs variables (par
exemple l’âge et le sexe) et homogènes sur une autre (par exemple, le niveau de revenus).
c. Typique/normal vs atypique/extrême
La confrontation des contextes typiques de consommation à des situations extrêmes ou à des
consommateurs atypiques est intéressante, si l’on désire identifier des constantes et des régularités.
Le cas extrême ou déviant permet des découvertes à partir de manifestations inhabituelles du
phénomène étudié ; le cas typique met en évidence ce qui relève de la norme ou de la moyenne.
2. Combien de personnes interroger ?
Dans la pratique des études, la taille usuelle d’un échantillon qualitatif est d’une vingtaine de
répondants, oscillant dans une fourchette comprise entre 15 et 30. Ce nombre assure une
« saturation » satisfaisante des données, c’est-à-dire qu’un interviewé supplémentaire n’apportera
pas de nouvelles informations pour enrichir ce que l’on avait déjà obtenu. La saturation théorique
ou sémantique est atteinte si l’on n’obtient pas de nouveaux éléments dignes d’intérêt, depuis au
moins deux interviews. Au-delà, il est contre-productif de continuer la collecte, car la surcharge
d’informations peut nuire à la compréhension du problème(78).
Les recommandations pour fixer le nombre d’interviews optimal varient selon le type
d’investigation individuelle et les champs théoriques (voir figure 4.5.). Certains considèrent que le
point de saturation peut être atteint dès 10, voire 6 interviews(79).
Figure 4.5. Taille de l’échantillon pour une étude qualitative

Approches et/ou champ Taille ou intervalle d’échantillon


disciplinaire recommandé
Entretien en profondeur/approche Minimum 10
qualitative générale Moyenne 30
\/|
Minimum 6
Phénoménologie
Intervalle de 5 à 25
$|

Théorie enracinée (grounded theory) Intervalle de 20 à 50


4$

Ethnographie et anthropologie Intervalle de 30 à 60


By

Source : D’après MASON M., « Sample Size and Saturation in PhD Studies Using Qualitative Interviews »,
Qualitative Social Research, vol. 11, no 3, 2010, 14 pages.

3. Méthode de collecte
Il existe trois grands principes de conduite d’un entretien en profondeur : la non-directivité pure, la
semi-directivité et l’investigation « papier-crayon ». La figure 4.6. compare ces approches. Le
point commun de ces formes d’entretien est leur caractère de discussion « non structurée ».
L’enquêteur est plutôt en retrait, l’interviewé est le véritable centre de l’investigation. La forme non
directive pure est très proche de l’entretien clinique en profondeur : compte tenu des contraintes de
collecte des données et des difficultés d’interprétation, elle est modérément utilisée en marketing.
Nous ne présenterons donc que l’entretien semi-directif et l’entretien papier-crayon.
Figure 4.6. Les différentes formes d’entretien en profondeur

Entretien Entretien semi- Entretien


Caractéristiques
non directif directif papier-crayon
Motivations, freins.
Motivations, pulsions. Recueil d’éléments
Recueil d’éléments
Thèmes d’études Inhibitions. d’image de marque.
d’image de marque.
privilégiés Représentations, Usage réel d’un
Usage réel d’un
symboles. produit.
produit.
Compréhension. Bienveillance.
Bienveillance.
Écoute totale. Relance systématique.
Attitude enquêteur Relance progressive.
Neutralité Liste précise
Orientation thématique.
encourageante. de thèmes.
Magnétophone.
Support Interrogations fondées Magnétophone. Stylo.
d’interview sur un schéma Guide d’entretien. Guide répertoire.
« clinique ».
Fondations théoriques Interview plus Grande flexibilité de
solides fournissant un « maniable ». l’interview.
\/|
Avantages
cadre explicatif du Bonne adaptation à un Formation rapide des
$|
discours. contexte marketing. enquêteurs.
4$

Formation de
« clinicien ». Formation spécifique Investigation
By

Inconvénients
Adaptation à un des enquêteurs. superficielle.
contexte marketing ?
10-20 personnes. 20-30 personnes. 30-50 personnes.
Échantillonnage
Profils variés. Profils très variés. Profils plus segmentés.

4. Conduite de l’entretien semi-directif


L’entretien semi-directif se déroule selon une progression en quatre étapes autour desquelles
s’articule le guide d’entretien (cf. fiche technique 4.2.). Sa durée totale est normalement d’une à
deux heures.
a. Structure générale d’un entretien : les quatre phases
– Phase d’introduction
Elle doit permettre au répondant d’évacuer des préoccupations voisines, mais pas véritablement
rattachées au sujet de l’étude. Cette phase est importante pour deux raisons. Elle met en confiance
l’interviewé, en le laissant parler de ses sujets favoris, pour éviter ultérieurement des replis vers
ces « territoires-refuges » qui permettraient d’éluder des questions embarrassantes. Ensuite, c’est
durant cette phase que l’on doit recueillir le discours rationnel, les clichés qui constituent autant de
« défenses » susceptibles de masquer les mécanismes d’une motivation ou d’un frein. Dans
l’exemple de la fiche technique, le fait de raconter ses dernières vacances permet à l’interviewé de
se trouver en terrain connu, de rationaliser a posteriori son choix, voire d’enjoliver celles-ci. Peu
importe, car le discours recueilli durant cette phase ne servira guère pour l’analyse de l’entretien.
Sa durée varie, selon les individus, de 5 à 15 minutes.
– Phase de centrage du sujet
Dès qu’un bon climat de confiance a été établi, l’interviewer aborde le véritable sujet de l’étude.
Une technique fréquente consiste à placer l’enquêté dans un cadre imaginaire : c’est le rêve éveillé,
symbolisé ici par « Imaginez que vous gagniez une semaine de vacances... ». Cela favorise
l’apparition de thèmes qui auraient pu être censurés par le répondant, si l’on s’en était tenu à une
situation habituelle. Cette phase peut durer une dizaine de minutes.
– Phase d’approfondissement
Logiquement, à ce stade de l’entretien, le répondant est pleinement immergé dans le thème et les
mécanismes d’autocensure de la pensée sont réduits au minimum. Il importe alors de pénétrer dans
le cœur du sujet, pour déceler d’éventuels freins (peurs, tabous sociaux) ou motivations (fantasmes,
etc.) qui pourraient expliquer une décision d’achat, ou au contraire conduire à son rejet. Les
questions importantes de l’étude sont seulement véritablement abordées à ce moment. Si l’interview
a été bien conduite, le répondant est largement en confiance et approfondit, sans difficulté, les
points suggérés par l’enquêteur. Phase la plus longue de l’entretien, elle atteint souvent une bonne
demi-heure.
\/|
– Phase de conclusion
$|
4$

Quand tous les thèmes prévus ont été creusés, l’entretien pourrait s’arrêter là. Mais ce type
d’investigation n’étant pas sans danger, il convient de ramener le répondant à la réalité quotidienne,
By

très différente du « rêve éveillé » que l’on a pu conduire durant une à deux heures. Il est important,
avant de clôturer l’entretien et durant quelques minutes, d’aider le répondant à reconstituer ses
défenses psychologiques.

Fiche technique 4.2. Construction d’un guide d’entretien


1 – Définition
Le guide d’entretien est un document écrit résumant les axes essentiels autour desquels l’interview s’orientera.
Il ne s’agit pas d’une liste de questions, mais plutôt d’un canevas assez souple destiné à aider l’interviewer en lui
fournissant des points de repère pour la conduite de l’entretien.
2 – Caractéristiques
Le guide d’entretien remplit plusieurs fonctions :
a) Indiquer succinctement à l’interviewer les objectifs généraux de l’étude et les thèmes cruciaux devant être
abordés. Le cas échéant, il précise le degré et la nature des interventions possibles, le ton général de l’interview,
la durée prévisible, etc.
b) Répertorier les phrases d’introduction et de transition qui seront répétées à l’identique pour tous les
entretiens. Celles-ci précisent au répondant ce que l’on attend de lui et sont formulées de manière très ouverte
pour favoriser le démarrage et la poursuite de l’entretien.
Exemples : « J’aimerais que vous me disiez ce que représente pour vous une voiture... », « J’aimerais savoir
comment cela se passe quand vous vous asseyez derrière un volant... Maintenant, je souhaiterais que vous nous
racontiez la dernière fois où... »
c) Recenser les principaux points devant faire l’objet d’un approfondissement ou de relances de la part de
l’enquêteur.
3 – Exemple d’application : « Les étudiants et les voyages organisés »
Cette étude avait pour objectif la mise au jour des motivations et freins des étudiants vis-à-vis des voyages
organisés. La difficulté majeure résidait dans le fait que l’on s’attendait à ce que, sur un tel sujet, la population
visée tienne un discours plutôt négatif sur le produit, car le modèle social dominant, valorisé par la cible, était
plutôt le voyage-découverte entre copains que l’on organise soi-même. Pourtant, de nombreux voyagistes, tels
que Nouvelles Frontières, Jumbo ou même le Club Méditerranée proposent des formules vacances organisées
largement consommées par la cible étudiée. Voilà comment le guide d’entretien a été bâti :
a) Phase introductive
Objectif : évacuer les stéréotypes sur les vacances organisées.
« Voulez-vous me raconter vos dernières vacances d’été... »
Sous-thèmes de relance pour l’interviewer :
– Comment cela s’est-il passé ? (Faire décrire l’environnement, le cadre, les personnes autour...). Raconter une
journée type.
– Quelle serait une journée idéale, la pire des journées ?
b) Phase de centrage du sujet
Objectif : suggérer, crédibiliser une éventualité de vacances organisées.
« Maintenant nous allons imaginer la chose suivante : vous venez de gagner une semaine de vacances gratuites
avec une formule de voyage organisé, dans le pays de votre choix... Ça y est, vous imaginez bien cela ? Alors
pourriez-vous me dire comment vous vous y prendriez pour choisir ce voyage... (Attendre au moins 15 secondes
avant de relancer, sur « quelle serait votre réaction, votre premier mouvement,... et puis après,... quoi d’autre
\/|
encore ?...).
$|
Sous-thème no 1 : le tout début
4$

Quel mode de transport ? Faire décrire le premier jour, une journée type, l’organisation générale de la semaine.
Évoquer le rôle de l’animateur et/ou accompagnateur (faire décrire le « bon » et le « mauvais »), etc. Relancer à
fond.
By

Sous-thème no 2 : les compagnons de voyage


Combien seront-ils ? D’où viennent-ils ? Que font-ils ici et dans leur vie professionnelle et privée ?
Sous-thème no 3 : les activités
Recenser les activités les plus probables, puis l’activité idéale, la plus mauvaise, etc. Relancer à fond sur
l’environnement, le rôle des animateurs ou des accompagnateurs.
c) Phase d’approfondissement
Objectif : construire le produit « Vacances organisées idéales ».
« Maintenant, si vous le voulez bien, nous allons imaginer que vous avez changé de profession... Vous êtes devenu
l’organisateur d’un groupe d’une vingtaine d’étudiants comme vous. Racontez-moi comment vous leur
organiseriez un voyage d’une semaine (silence à marquer, attendre au moins 15 secondes avant de relancer).
« Qu’est-ce que l’on ferait, où cela se passerait-il ? », etc.
Sous-thème no 1 : accueil, lieu
Comment les accueilleriez-vous ? Qu’est-ce qui serait bien, ce qu’il ne faudrait pas faire ? Quelles difficultés
pourrait-on rencontrer ?

Sous-thème no 2 : formule générale, activités, animation


Faire raconter une journée type, un événement, etc.
Faire décrire l’étudiant type qui viendrait, le « client idéal », « le pire ».

Sous-thème no 3 : prix à prévoir


Quel budget, quelles options, quelles facilités de paiement ? (Relancer à fond.)
d) Phase de conclusion
Objectif : retour en douceur vers le réel, vers les vacances réellement pratiquées.
« Maintenant, j’aimerais que vous me disiez si, tout compte fait, vous vous verriez partir avec l’une ou l’autre des
formules de voyages organisés qui existent actuellement ? Pourquoi ? Quelles précautions prendriez-vous avant
de vous inscrire ? À qui conseilleriez-vous ce genre de voyages ? »
« Voilà, nous sommes parvenus à la fin de notre entretien, et je voudrais vous remercier pour votre participation.
Je vous souhaite d’excellentes vacances d’été ! »

b. Rôle de l’enquêteur
Dans l’entretien semi-directif, l’enquêteur applique trois principes de base :
– respect des silences, minimum de 10 à 15 secondes, avant d’utiliser en dernier recours les
différents types de relances présentés ci-dessous ;
– initiative laissée au répondant pour aborder les thèmes prévus dans l’ordre qu’il souhaite. Éviter
de l’interrompre, mais relancer plutôt ultérieurement sur les thèmes effleurés ou partiellement
évoqués. Ne pas hésiter à faire référence à l’imaginaire, au rêve éveillé, etc. ;
– absence de commentaires des réponses, ou de marques de surprise. Bannir toutes les interjections
du type « Ah oui ? Tiens ? Ah bon ? ». Se contenter d’encourager par des « oui » réguliers et
hochements fréquents de la tête. Au besoin, une installation légèrement décalée par rapport à
l’interviewé et une mise du magnétophone à droite ou à gauche de l’enquêté favorisent la création
\/|
d’un climat de confiance.
$|

c. Formulation des questions


4$

Il s’agit plus d’évocations, de suggestions que de véritables questions. La place laissée à


By

l’imaginaire du répondant est importante. Bon nombre d’interventions de l’enquêteur se terminent


par des points de suspension, plutôt que par des points d’interrogation.
Les relances sont pratiquées à l’initiative de l’enquêteur, elles sont destinées à faciliter le
cheminement naturel de la pensée de l’interviewé. Elles permettent d’approfondir ou de préciser un
point obscur du discours, voire de faire réagir le répondant. Les psychosociologues les appellent
« réitérations » et les considèrent comme une demande d’explicitation ou une confirmation d’écoute
de la part de l’interviewé. Les relances doivent cependant être maniées avec parcimonie, car leur
répétition systématique finit par être ressentie comme agaçante par les enquêtés(80). Il en existe trois
types :
– Relance simple
Elle sert surtout à éviter qu’un trop long silence dégénère en blocage complet. Pour cela, il convient
de répéter lentement les derniers mots utilisés par l’interviewé, comme un « écho », et de laisser la
phrase en suspens. Parfois, cette relance est interprétée par le répondant comme une remise en
cause de ses propos, surtout si le ton de l’interviewer laisse filtrer une part d’étonnement. Dans la
quasi-totalité des cas, le répondant embraye sur ses propres mots et repart dans une phase
d’approfondissement.
Exemple
– Répondant « ... J’aimerais pouvoir partir plus souvent en vacances, mais les fins de
mois risqueraient d’être difficiles... » (silence d’au moins 10 secondes).
– Interviewer (ton neutre et calme) « ... vos fins de mois risqueraient d’être
difficiles. »
– Répondant « ... Oui, difficiles, parce que vraiment quand je regarde certains
catalogues, je me demande où les gens prennent l’argent pour se payer de telles
vacances, etc. »

– Relance différée
L’objectif de cette relance est de revenir sur un point précédemment évoqué par le répondant, mais
de manière jugée superficielle par l’interviewer. Comme la règle est le respect du fil du discours,
cette relance ne doit être utilisée que lorsque le répondant a épuisé les thèmes qui le préoccupent.
L’enquêteur reprend les mots utilisés par le répondant, lorsque le point avait été abordé, en faisant
précéder son intervention de : « Tout à l’heure, vous m’avez dit que... ».
\/|
Exemple
$|
4$

– Interviewer (ton calme et neutre) « Tout à l’heure, vous m’avez dit que vous n’aimiez
pas trop partir avec des gens que vous ne connaissiez pas... »
By

– Répondant « ... Oui, c’est vrai, je n’aime pas cela. On ne sait jamais à l’avance sur
qui l’on va tomber, etc. »

– Relance interprétative
Cette technique permet à l’enquêteur de clôturer un aspect important de l’étude, avant de passer à
un autre point. Elle permet d’être sûr que le répondant a bien dit tout ce qu’il avait en tête. Parfois,
elle sert à faire reformuler par l’interviewé des propos jugés obscurs ou ambigus.

Exemple
– Interviewer « Si je vous comprends bien, pour vous, les vacances en groupe c’est
quelque chose que vous rejetez définitivement... »
– Répondant « C’est exactement cela ! Et même, je dirai que si on m’en offrait je les
refuserais ! Croyez-moi, rien ne vaut les vacances que l’on organise soi-même... »

5. Conduite de l’entretien papier-crayon


Fréquemment dénommée « Questionnement qualitatif à l’anglo-saxonne », cette investigation
n’aborde pas les problèmes d’étude dans leur profondeur. Son objectif est la compréhension des
règles d’un comportement ou l’analyse des perceptions d’un objet ou d’une situation.
La méthode s’appuie sur un « guide-répertoire » qui recense la liste des points clés que l’enquêteur
doit balayer durant l’interview. Le point commun avec l’entretien semi-directif est la mise en retrait
de l’enquêteur. Mais, dans l’ensemble, son rôle est plus actif que pour un entretien semi-directif,
puisqu’il doit veiller à ce que tous les thèmes prévus soient bien abordés par le répondant.
L’enregistrement des réponses est réalisé manuellement par l’enquêteur durant l’interview. C’est
une source d’économie, puisque, à la différence de l’entretien semi-directif, la transcription des
données est immédiate. La conversation se déroule dans un climat constructif et ne doit pas
comporter d’évaluation de la part de l’interviewer qui reste neutre face au thème de la discussion,
et sans réponse face aux éventuelles sollicitations du répondant (« Et vous, qu’en pensez-vous ? »).
Il est possible d’utiliser les différentes formes de relance.
D’un abord plus facile, ce type d’entretien ne permet pas toujours d’éviter des rationalisations des
discours. Le matériau collecté est généralement moins riche qu’avec l’entretien semi-directif, mais
plus facile à interpréter. L’entretien papier-crayon est bien adapté aux cas suivants : apprentissage
d’un vocabulaire technique, préparation d’un questionnaire quantitatif, recensement d’axes de
recherche, etc. Nous présentons, dans la fiche technique 4.3., un exemple de guide-répertoire, tel
qu’il fut utilisé sur le « terrain ». \/|
$|
4$
By
Fiche technique 4.3. Construction d’un guide-répertoire(81)
1 – Contexte
L’étude portait sur l’attitude et les comportements en matière de tri des déchets domestiques à la maison.
L’objectif était d’évaluer la « sensibilité » d’une population face au programme mis en place et de lister quelques
pistes de réflexion quant aux futures actions à mener (information, programmes de sensibilisation). On
suspectait l’existence d’écarts entre les opinions déclarées et les pratiques quotidiennes. L’étude a été réalisée à
Chambéry et Dunkerque, villes pilotes. Une dizaine d’interviews ont été réalisées, à domicile, auprès d’individus
de sexe, d’âge et de CSP variés. La durée des interviews s’est étalée entre 55 et 80 minutes.
2 – Liste des thèmes à aborder par chaque interviewé
Consigne pour l’enquêteur : si un thème est abordé avant l’autre, laisser le répondant l’évoquer et noter
directement les réponses dans la rubrique concernée. Relancer sur chaque thème trop brièvement abordé.
a) Thème de départ
Consommation et environnement
01 – Croissance de la consommation
02 – Danger pour l’environnement
03 – Autres thèmes évoqués
b) Phase 1 : Les pratiques et les attitudes
1.1. – Description de la préparation du repas et des comportements associés.
1.2. – L’individu et ses déchets. \/|
1.21. Quels déchets ? (classification)
$|
1.22. Que fait-il avec ses déchets ? Avec ses poubelles ?
1.23. Sait-il comment ses déchets sont éliminés ?
4$

1.24. Se pose-t-il des questions sur les déchets ?


1.25. Autres thèmes abordés.
By

1.3. – Que faire ?


1.31. La solution idéale ?
1.32. Quelles méthodes d’élimination des déchets ?
1.33. Qui doit être chargé de l’élimination ?
1.34. Quels sont les pays précurseurs ?
1.35. Quelle est la situation de la France ?
1.36. Autres thèmes abordés.
c) Phase 2 : L’évaluation du projet
2.1. Le projet de Chambéry (décrire le projet).
Avantages perçus.
Inconvénients – difficultés.
Que font « les autres » ?
2.2. Position de l’interviewé.

Le guide-répertoire est plus rigide que le guide d’entretien semi-directif, dans la mesure où l’ordre
dans lequel les questions sont posées tend à être le même. Mais celles-ci restent toujours formulées
de façon ouverte.
Exemple
Pour les deux premiers points de la phase d’introduction du guide-répertoire, la
formulation retenue était :
« D’après vous, quelles sont les conséquences de la croissance économique sur la
production de déchets ? »
« Est-ce que cela pourrait être un danger pour notre environnement ? »

Tout comme pour l’entretien semi-directif, on évacue, le plus tôt possible, le discours rationnel ou
les « clichés » liés à la protection de l’environnement, en démarrant par la croissance économique,
la consommation de matières premières, etc. Ici, cependant, on entre plus vite dans le vif du sujet.
La phase no 1 part du vécu des interviewés, en leur demandant de décrire concrètement ce qu’ils
font des produits utilisés pour la préparation de leurs repas, puis des déchets restant après le repas.
Les thèmes prévus sont généralement abordés spontanément, parfois dans un ordre différent selon
les individus. Dans ce cas, l’enquêteur enregistre les réponses en face du thème prévu dans la
rubrique de la grille.
La phase no 2 permet de relever les réactions spontanées des individus face à l’énoncé du projet.
\/|
Leurs évaluations sont plus lucides et critiques, car ils gardent en mémoire leur propre
$|
comportement, évoqué dans la phase précédente. Ceci limite le biais de complaisance, c’est-à-dire
donner un jugement trop indulgent par rapport à sa position réelle.
4$

6. Analyse de contenu
By

a. Qu’est-ce que l’analyse de contenu ?


C’est une technique d’analyse d’un « discours » (article, interview, document, etc.) fondée sur un
ensemble de procédures structurées de classification. C’est une méthode de description objective,
systématique du contenu manifeste des données qualitatives(82). Elle permet de justifier les
jugements portés sur l’émetteur du discours, sur le message lui-même, et le cas échéant, sur
l’audience du message(83).
b. Principaux domaines d’application
Comme le montre la liste suivante, l’analyse de contenu n’est pas une technique exclusivement
réservée à l’entretien individuel, mais peut tout aussi bien servir à analyser une réunion de groupe
qu’à décoder un message publicitaire.
– Étude de marché : analyse d’entretiens individuels ou de réunions de groupe, codage de questions
ouvertes dans un questionnaire.
– Communication : comparaison de publicités, détermination de l’orientation de médias.
– Psychologie et sociologie : évaluation de l’état psychique d’une personne ou d’un groupe.
– Politique : suivi de l’évolution de programmes politiques, détection de propagande.
c. Étapes de l’analyse de contenu
Le processus complet exige sept étapes successives (voir figure 4.7.)(84).

1 – Transcription sur support papier du contenu des interviews enregistrées
C’est un travail long et fastidieux, mais indispensable pour la suite du processus. Cette mise à plat
doit respecter exactement le discours de l’interviewé : tous les lapsus, répétitions, silences sont
fidèlement reportés par le transcripteur.
Figure 4.7. Étapes d’une analyse de contenu

\/|
$|
4$
By

2 – Définition de l’unité d’analyse de contenu
Ce choix majeur découle directement de l’objectif poursuivi par l’étude, et est important à un
double titre : il détermine la nature du schéma de codage permettant l’interprétation du discours et
conditionne le choix des indices de quantification. Les trois niveaux les plus fréquemment utilisés
sont(85) :
– le mot : c’est l’unité primaire d’analyse. Par extension, on peut élargir ce niveau aux synonymes.
Cela suppose la création de tables d’équivalence. Ce choix peut être intéressant pour l’analyse
d’une campagne publicitaire, le recensement de caractéristiques de produits ou de marques, ou
encore pour la construction d’un questionnaire nécessitant un vocabulaire technique ;
– la phrase : cette solution est intéressante pour repérer des enchaînements systématiques ou des
relations de dépendance entre deux ou plusieurs phrases. Par exemple, on peut choisir ce type
d’unité pour l’étude d’argumentaires ou d’entretiens de vente ;
– le thème : c’est un groupe de phrases jugées équivalentes, car faisant référence à des situations, à
des objectifs ou des concepts proches. Il est possible d’affiner ces thèmes en développant une
arborescence fondée sur des sous-thèmes successifs. Les études d’image de marque, d’usage
produit adoptent souvent cette solution.
La figure 4.8. récapitule les principaux types d’analyse de contenu pratiqués selon l’unité de
\/|
traitement retenue. Dans une étude de marché, l’analyse thématique est la plus fréquente, complétée
$|
éventuellement par l’analyse lexicale.
4$

3 – Construction de la grille générale


L’objectif est de créer une grille de dépouillement applicable à l’ensemble des interviews. La
By

construction se fait par tâtonnements successifs et vise à identifier et à dénommer les rubriques
(catégories) qui apparaissent comme les plus pertinentes pour l’analyse. Ces rubriques
s’appelleront, par exemple : « Confort », « Agressivité » ou « Arguments », etc.
Figure 4.8. Types d’analyse de contenu

Type Exemples d’indicateurs de


Unités
d’analyse quantification
Structure du discours.
Analyse syntaxique Mots, phrases
Ex. : temps, mode des verbes.
Nature et richesse du vocabulaire.
Analyse lexicale Mots, phrases Ex. : fréquence d’apparition des mots, fréquence
d’association, nombre moyen de mots par phrase.
Découpage par thèmes.
Phrases, paragraphes,
Analyse thématique Ex. : fréquence d’apparition des thèmes, fréquence
thèmes
d’association.
La constitution des catégories suit trois logiques différentes. Elle peut être établie a priori, sur la
base du guide d’entretien, émerger progressivement par lecture « flottante » des interviews, en
tenant compte des objectifs de l’étude et à l’aide du guide d’entretien, ou encore être induite par les
données (voir figure 4.9.). Selon les besoins de l’étude, les catégories seront mutuellement
exclusives ou redondantes. Si l’on souhaite s’orienter vers une quantification par fréquences (voir
étape 6), il est préférable d’opter pour des catégories exclusives.

\/|
$|
4$
By
Figure 4.9. Types de catégorisation pour établir la grille générale

Types Principes méthodologiques Évaluation


Les catégories sont établies à l’avance sur la base d’une Convient pour les
connaissance théorique ou pratique. études simples et
Catégorisation
La grille est préétablie à partir du guide d’entretien ; des répétitives.
a priori
ajustements mineurs sont effectués après une lecture Risque de routine et
flottante. de conformité.
Permet un regard neuf
Les catégories sont guidées par les connaissances et une découverte de
préalables du chargé d’études dans le domaine, puis nouvelles pistes.
émergent progressivement sur la base d’une analyse de Utile pour la
Catégorisation trois ou quatre interviews. Les interviews suivantes recherche de
émergente permettent d’affiner et/ou d’ajuster les catégories. nouveaux
positionnements sur
Peu d’ajouts théoriques nouveaux, mais on cherche à des marchés
adosser une situation spécifique à un cadre théorique. fortement
concurrentiels.
Le regard est vierge de tout a priori théorique ; des
\/|
concepts inconnus ou des théories nouvelles vont être
$|
révélés par les données.
Trois formes de codage existent(86) :
4$

– ouvert : le discours est « mis en pièce » à la recherche Convient plutôt pour


By

de concepts, unités de base de la pensée, et catégories des marchés


d’informations saillantes. Celles-ci sont subdivisées en nouveaux ou mal
sous-catégories, appelées propriétés ; chaque propriété se délimités.
représente par un continuum ou dimension. Par exemple, la Problèmes complexes
Catégorisation « couleur » est une catégorie qui se subdivise en plusieurs ou mal formulés.
inductive propriétés (teinte, saturation, contraste) ; chaque propriété Surtout réservé à la
s’évalue selon une intensité plus ou moins forte recherche de
(continuum) ; nouvelles théories ou
– axial : l’analyste sélectionne une catégorie jugée la plus concepts (théorie
centrale pour décrire ou comprendre ce qui se passe, puis
enracinée(87)).
il recherche et évalue des liens de causalité entre cette
catégorie et les autres, selon les contextes ;
– sélectif : c’est le réseau final d’interrelations entre les
concepts, jugé le plus pertinent et vraisemblable, et qui
constitue le socle théorique produit par les données.

La figure 4.10. présente les catégories retenues dans une étude conduite auprès de futurs dentistes.
L’objectif était d’identifier les relations existant entre les patients et les praticiens. On remarquera
que chaque catégorie de thèmes est identifiée par un code, ce qui facilite les traitements ultérieurs.
Figure 4.10. Exemple de catégories (étude menée auprès de dentistes)

1. École
1.1. Travaux pratiques avant tout
1.2. Écoute du patient possible, pas possible en cabinet
2. Sanction
2.1. La sanction affecte la représentation que le praticien a de sa compétence
2.2. La sanction affecte la relation praticien/patient
2.3. La douleur est perçue comme une sanction par le praticien
3.Typologie des clients
3.1. Le type de client influence la relation praticien/client
3.2. La typologie est fonction de critères affectifs (sympathique, antipathique)
3.3. La typologie est fonction de la peur
4. Douleur
4.1. Objective ou subjective
4.2. Élément de dissymétrie patient/praticien
4.3. Nécessité d’une empathie du praticien
Source : Extraits adaptés de GHIGLIONE R., BEAUVOIS J.-L., CHABROL C. et TROGNON A.,
\/|
Manuel d’analyse de contenu, Armand Colin, 1980, p. 55.
$|
4$

4 – Codification des interviews et remplissage de la grille


Après avoir défini les catégories de la grille, on reprend une à une les transcriptions des entretiens
By

et on affecte à chaque unité du discours le code prévu. D’un point de vue pratique, on peut utiliser
des fiches bristol comportant trois colonnes : une pour le codage, une pour le texte de l’entretien,
une pour les éventuels commentaires ou observations de l’analyste.
Une bonne codification des interviews doit être fiable, c’est-à-dire que la même grille utilisée par
deux codeurs différents doit conduire à des affectations aussi proches que possible. Le degré de
fiabilité du codage entre deux analystes peut être calculé avec la formule suivante(88) :
Exemple
Deux analystes A et B ont codé indépendamment dix interviews en utilisant une grille
identique. Pour simplifier, imaginons qu’ils devaient catégoriser l’ensemble discours
en deux catégories : motivation vs frein pour l’achat. L’unité de traitement est la
phrase. L’échantillon a produit un total de 200 phrases qui ont été codées de la
manière suivante :

Juge A
Motivations Freins Total
Juge B
Motivations 72 16 88
Freins 25 87 112
Total 97 103 200

Proportion d’accords observée = (72 + 87) / 200 = 0,795


Proportion d’accords due au hasard = [(88 × 97) + (112 × 103)] / (200 × 200) = 0,5018
\/|
$|
4$

Le coefficient Kappa est égal à :


Dans la pratique le nombre de catégories est largement supérieur à deux. On calcule un tableau de
By

contingence (voir chapitre 14), c’est-à-dire les fréquences absolues associées à chaque couple de
catégories. On obtient un coefficient Kappa pour chaque catégorie et un coefficient global. Le
premier permet d’identifier précisément les catégories sur lesquelles il existe un désaccord entre
les analystes, le second donne une idée de l’intensité de la concordance des jugements entre les
deux partenaires(89).
Le coefficient Kappa varie entre 1 et – 1. S’il est proche de 1, il indique un très fort degré d’accord
entre les juges et un degré marqué de désaccord s’il est négatif. Dans la pratique, on estime que
l’accord est moyen si le coefficient est compris entre 0,4 et 0,6 ; l’accord est jugé bon dans
l’intervalle 0,6 à 0,8 et excellent au-delà(90).
Lorsque toutes les interviews ont été codifiées, on établit une feuille de synthèse, à partir des
éléments les plus significatifs de chaque entretien. On enrichit cela par des verbatims, c’est-à-dire
des citations courtes et illustratives des propos des répondants, jugées parlantes ou
caractéristiques. La figure 4.11. donne un aperçu de ce type de document. Il s’agit d’extraits
d’interviews (fictives), portant sur les attentes des hommes d’affaires vis-à-vis d’une compagnie
aérienne.
Figure 4.11. Grille de synthèse des attentes vis-à-vis d’une compagnie aérienne

Catégories
Interview no 1 Interview no 2 Interview no 3
de thèmes
« par téléphone,
1. Avant le vol « rapide et fiable »
Internet »
1.1. Réservation « très aimable »
« reports possibles »
« impersonnelle, « trouver un coin
1.2. Attente aéroport
froide, longue » tranquille »
« parc à moutons » « combien de temps
1.3. Enregistrement
« dure une éternité » avant le vol ? »
1.4. Embarquement
2. Pendant le vol
« sourire mielleux » « superbe » « impersonnel »
2.1. Accueil
« me laisser
« reste à votre
tranquille »
2.2. Services disposition »
« discrétion »,
« ni trop, ni pas assez »
\/| « souple »
« se reposer dans le « sièges, espaces,
$|
2.3. Confort « très bien fait »
calme » ambiance feutrée »
4$

« grande ponctualité »
3. Après le vol « que des retards » « respect des rendez-
« difficile,
By

3.1. Exactitude « grèves fréquentes » vous »


embouteillage »
3.2. Livraison bagages « grand bazar »
« priorités dans
l’attente »
3.3. Transports « terminaux immenses »
« bus de la
compagnie »
3.4. Services « réserver taxis,
complémentaires hôtels »

5 – Analyse (thématique ou lexicale)


Elle se décompose en deux branches principales : l’analyse verticale et l’analyse horizontale.
• Analyse verticale. C’est un traitement intra-interview, c’est-à-dire conduit au sein d’une même
interview. Il permet de voir comment le répondant a abordé, et selon quel schéma, l’ensemble des
catégories prévues dans la grille. Concrètement, l’analyste retrace l’ordre d’apparition des thèmes,
puis se concentre sur les catégories les plus souvent évoquées ou omises par le répondant. En
dernier lieu, le chargé d’études établit une fiche de synthèse sur chaque interview.
• Analyse horizontale. C’est une opération transversale qui a pour but d’établir comment chaque
élément figurant dans la grille a été abordé par l’ensemble des interviewés. Cette analyse est
précieuse parce qu’elle constitue la base du rapport de synthèse de l’étude qualitative. On repère
ainsi les catégories et sous-catégories les plus fréquentes sur l’ensemble des interviews ; on
compare la richesse du vocabulaire utilisé, le nombre de synonymes employés selon les catégories,
les enchaînements les plus courants entre les catégories, etc.
Avant d’aborder la phase de quantification du discours, le chargé d’études évalue qualitativement
les propriétés des catégories qui composent la grille, en se fondant sur les analyses verticales et
horizontales. Trois points sont notamment approfondis :
– les différentes manières dont un même concept a été évoqué. Par exemple, l’enregistrement des
bagages peut évoquer, selon les répondants, « un parc à moutons », « une jungle », « une fatigue »,
« un éclair », etc. ;
– l’orientation du discours. Est-il centré sur une expérience individuelle ou sur un vécu collectif ?
Les événements évoqués sont-ils contrôlés ou subis par les répondants ? Les décisions sont-elles
spontanées ou réfléchies ? ;
– l’organisation des polarités. Les discours individuels peuvent se focaliser sur des pôles
favorables ou défavorables d’une catégorie, ou à l’inverse se répartir de manière équilibrée. Par
exemple, la réservation d’un billet peut être associée à des croyances favorables, telles que
rapidité, amabilité, personnalisation, ou également répartie entre des croyances favorables et
\/|
défavorables.
$|
4$

6 – Quantification : utilisation d’indices


By

Deux calculs d’indices sont fréquents : fréquence d’apparition et fréquence de concomitance.


• Fréquence d’apparition. C’est la mesure de base utilisée dans l’analyse de contenu. Elle consiste
à comptabiliser le nombre de fois où une même catégorie (mots, phrases, thèmes) a été évoquée par
un même interviewé (analyse verticale), ou sur l’ensemble des interviewés (analyse horizontale).
Pour comparer les poids respectifs de chaque catégorie, on calcule le rapport suivant :
Exemple
Reprenons notre exemple des compagnies aériennes. L’interviewé no 1 a évoqué
trois fois la catégorie « Réservation » durant son entretien (voir figure 4.12) : elle doit
être « rapide », « fiable » et « aimable ». La catégorie « Attente » est mentionnée deux
fois : « impersonnelle » et « longue » et ainsi de suite. Au total, le thème no 1 « Avant
le vol » est abordé sept fois, le thème no 2 « Pendant le vol » apparaît deux fois, et le
thème no 3 « Après le vol » est traité cinq fois. Donc, pour cet interviewé, les attentes
avant le vol sont prioritaires, puisqu’elles représentent exactement la moitié (50 %)
des différentes catégories répertoriées durant toute son interview. À l’inverse,
l’interviewé no 2 est essentiellement préoccupé par le seul déroulement du vol (66 %
des catégories). Quant à l’interviewé no 3, ses attentes sont très nombreuses
(15 catégories mentionnées) et se répartissent de manière à peu près équivalente entre
les trois parties du vol. La figure 4.13. récapitule ces différents résultats.

De la même façon, on calcule les fréquences d’apparition sur la base de l’analyse horizontale : cela
permet de comparer, sur l’ensemble des interviewés, les différents poids des catégories. En
d’autres termes, on cherche à savoir quels sont les mots, phrases ou thèmes qui reviennent le plus
\/|
souvent auprès des interviewés.
$|
Figure 4.12. Analyses horizontale et verticale
4$
By
Figure 4.13. Exemple d’analyse par les fréquences d’apparition

(1) 3 signifie que cette catégorie a été évoquée trois fois par l’interviewé. (2) 50 % = (3 + 2 + 2)/14. (3) 17 % = 6/35.

Exemple
Dans notre exemple, les attentes des trois hommes d’affaires sont, dans l’ensemble, un
peu plus fortes durant le déroulement du vol, puisqu’elles représentent 37 % du
\/|
nombre total des catégories évoquées. Rappelons que la généralisation de ce résultat
$|
n’a de sens que si l’échantillon est représentatif de la population « Homme
4$

d’affaires », ce qui est très rarement le cas dans une telle étude.
By

Cependant on peut tester, au sein de l’échantillon, la pertinence des classements proposés par
l’analyse horizontale. Les tests non paramétriques (voir chapitre 13) permettent de valider des
différences observées ou des associations entre deux variables, dans le cas d’échantillons de très
petite taille (inférieure à 20 personnes). Par ailleurs, le calcul des fréquences en analyse verticale
garde tout son sens, puisqu’il se déroule sur une même interview. Ainsi il sera possible, toujours
grâce aux tests non paramétriques, de dire que, pour une interview donnée, tel thème ou tel mot
revient plus souvent qu’un autre.
• Fréquence de concomitance ou d’association. Le principe consiste à relier les catégories qui se
précèdent ou se succèdent durant le discours d’un individu, puis à comptabiliser leur fréquence
d’association. Tout comme le calcul des fréquences d’apparition, l’analyse des associations peut se
faire à différents niveaux de catégories : mots, phrases, thèmes. Cette analyse permet de découvrir
les différents sens d’une même catégorie, les contextes dans lesquels les enquêtés l’emploient et les
enchaînements logiques existant entre deux catégories. L’analyste peut ainsi aisément orienter sa
réflexion sur les couples dont la fréquence d’association est particulièrement élevée.
Exemple
Imaginons qu’un chef de produit d’un fabricant de voitures veuille déterminer les
attentes des consommateurs en matière de confort. On a extrait d’une dizaine
d’interviews en profondeur tous les fragments de discours contenant le mot « confort »
et ses dérivés : « confortable », « confortablement ». Voici la liste obtenue :
1 : ... piloter pour juger du confort de conduite...
2 : ... une tenue de route confortable, c’est un plaisir...
3 : ... le confort, c’est le silence...
4 : ... un siège confortable évite la fatigue...
5 : ... le confort d’un siège enveloppant...
6 : ... conduire confortablement, sans fatigue...
7 : ... rouler confortablement assis...
L’analyse des associations montre que le confort est associé à :
* des conditions : silence, tenue de route, siège (5 mentions) ;
* un but : piloter, conduire, rouler (4 mentions) ;\/|
* des sensations : plaisir, fatigue (3 mentions).
$|

Sur un total de 12 associations identifiées, 5 (soit 41 %) concernent les


4$

caractéristiques jugées nécessaires pour obtenir une voiture confortable, le reste


correspond à des bénéfices procurés par le confort : conduite agréable, plaisir du
By

pilotage, absence de fatigue. L’analyse de ces associations permet au chef de produit


de recenser les différentes dimensions du « concept de confort », puis d’orienter les
ingénieurs de la recherche et développement : par exemple, l’accent peut être mis sur
la conception d’une nouvelle suspension pour faciliter la tenue de route, ou au
contraire sur l’ergonomie des sièges pour diminuer la fatigue des déplacements.

Il est possible d’analyser et de représenter graphiquement les associations entre les différentes
catégories. Deux perspectives sont envisageables :
– analyse des couples d’associations. On construit d’abord un tableau à double entrée, avec en
ligne les catégories i et en colonne les différents mots j associés aux catégories. Dans chaque
cellule ij, on note le nombre de fois où une catégorie i a été reliée à un mot j par les répondants.
Nous verrons dans le paragraphe 8 comment une analyse textuelle quantifiée permet de visualiser la
proximité de ces couples d’associations dans un espace géométrique ;
– élaboration des réseaux associatifs. Les associations peuvent relier plusieurs catégories entre
elles : l’ensemble des chaînes forme le réseau associatif d’un individu. Par exemple, « confort » est
associé à « siège » qui est associé à « moelleux », lui-même relié à « mal au cœur », etc. Les
réseaux individuels peuvent être agrégés et déboucher sur une carte graphique qui montre les poids
des nœuds et la proximité des associations (voir chapitre 7).
7 – Rapport de synthèse
C’est le document remis au demandeur de l’étude. En ce sens, sa construction suit les grandes lignes
que nous développerons dans le chapitre Conclusions et recommandations. Cependant, il convient,
dès à présent, de préciser les spécificités du rapport qualitatif. Celui-ci a pour ambition de rendre
clair un raisonnement souvent complexe. Le cheminement suivi par l’analyste doit être
compréhensible par l’homme de marketing : l’obscurité ou un discours jargonnant décrédibilise le
document. En revanche, la (ou les) théorie(s) qui a (ont) guidé l’interprétation des données
devrai(en)t être précisée(s). Voici quelques recommandations pour la rédaction du rapport.
• Préciser le schéma global d’interprétation des données. Un diagramme clair, par exemple une
arborescence, subdivise le problème initial en plusieurs dimensions, elles-mêmes éclatées en sous-
dimensions. Chaque composante fait l’objet d’une partie spécifique.
• Ne pas bâtir le rapport sur une succession d’extraits d’interviews (verbatims). Il est utile de
sélectionner les verbatims jugés les plus parlants pour illustrer telle ou telle interprétation ou
conclusion. Néanmoins, il convient d’être sélectif et de ne pas tomber dans l’excès. Le document de
synthèse cherche surtout à dégager les thèmes majeurs révélés par l’analyse. Sa valeur ajoutée
consiste, par exemple, à faire apparaître le plus clairement possible les grandes composantes du
problème, les différentes hypothèses que l’on est en mesure de formuler, etc.
\/|
• Résister à la tentation de la « pseudo-quantification ». L’inconvénient du calcul des fréquences de
citation ou d’association est qu’il permet d’établir une hiérarchie entre les différents thèmes ou
$|

aspects d’un problème : on sera tenté de dire que celui-ci est plus important (ou plus souvent
4$

associé à) que celui-là. Cette quantification n’a de sens que si l’on dispose d’un échantillon
représentatif de la cible étudiée. Or, nous avons vu que, compte tenu de leur objectif, la grande
By

majorité des études qualitatives n’ont pas à respecter cette contrainte. Il est donc important de
cerner les limites des conclusions, en indiquant dans quelle mesure celles-ci peuvent être étendues
à d’autres segments ou populations.
• Éviter le jargon systématique. L’analyse qualitative utilise un vocabulaire spécifique découlant
principalement des théories psychologiques ou sociologiques. Il est nécessaire de définir, dès le
début du rapport (ou éventuellement dans une brève annexe), les principaux termes et concepts
employés.

7. Analyse transactionnelle
Alors que l’analyse de contenu vise à expliquer le pourquoi d’un comportement passé, l’analyse
transactionnelle, dérivée des travaux de Berne, se focalise sur la compréhension « ici et
maintenant » des transactions entre les individus. Cette dernière technique complète la précédente
en appliquant aux données une grille d’investigation particulière (voir fiche technique 4.4.).(91)

Fiche technique 4.4. Principes de l’analyse transactionnelle


Éric Berne est le fondateur de l’analyse transactionnelle. Conçue à l’origine pour le traitement des troubles
affectifs, sa méthode se fonde sur une théorie du comportement humain, appréhendée à partir de quatre
analyses (92) : structurale pour comprendre le psychisme de l’homme, transactionnelle pour saisir le sens d’un
échange interpersonnel, jeux et rackets pour décortiquer une relation et scénario pour comprendre le plan de vie
d’une personne. Nous nous limiterons ici aux deux premiers angles.

Les trois états du « moi » selon Berne

\/|
$|
1 – Analyse structurale : les trois états du « moi »
4$

– Le moi « parent », domaine de l’appris, représente l’ensemble des comportements reproduits par imitation des
valeurs parentales et des règles sociales ; par exemple, « Tiens-toi droit à table » ou « Tu joueras quand tes
devoirs seront finis » sont des manifestations du moi « parent ». La plupart du temps, la relation s’exprime du plus
By

âgé vers le plus jeune ou du chef vers l’employé ; le contraire est possible, comme par exemple lorsqu’une
adolescente dit à sa mère : « Ta coiffure est démodée. »
– Le moi « adulte » est le siège du raisonnement et du traitement des informations en vue d’une décision, comme
pour les interrogations suivantes : « Qu’est-ce qui est important dans cette affaire ? » ou « Pourquoi aller dans
cette direction ? » Une délibération intervient, même si la logique sous-jacente est erronée ou tortueuse. L’adulte
est souvent en conflit avec le parent qui impose des décisions conditionnées par le passé.
– Le moi « enfant » est le refuge de l’inné, des sensations, des émotions et désirs, comme dans les phrases
suivantes : « J’ai envie d’un bon film pour me détendre » ou « Non, je ne ferai pas cela, un point c’est tout ». Il se
décompose en enfant adapté (celui qui intériorise les règles) et en enfant spontané (celui qui joue, imagine et
invente). Cet état existe tout au long de la vie et remonte à la surface, plus ou moins fortement selon la maturité
de l’individu.
2 – Analyse transactionnelle : l’échange avec autrui
Tout rapport d’échange entre personnes s’apparente à une transaction. La rencontre se caractérise par des
signes non verbaux qui indiquent que l’on reconnaît la présence d’autrui, tels le hochement de tête, le
haussement des sourcils, etc. La réponse à cette manifestation est appelée « réaction transactionnelle » : c’est
l’unité de mesure de l’échange. Les transactions peuvent être simples (interprétables au premier degré) ou à
double sens (deuxième degré). L’analyse les décode pour leur donner du sens. Dans le premier degré, l’émetteur
vise un certain état du moi du récepteur et c’est celui-là qui répond, comme dans : « Pourriez-vous venir, c’est
urgent ? » (adulte) et « J’arrive tout de suite, Monsieur » (adulte) ; la relation est qualifiée de parallèle. Elle peut
aussi être croisée, si c’est un autre état du « moi » du récepteur qui répond : « Vous devriez faire une pause, vous
êtes épuisé » (adulte) avec « D’accord, c’est vous qui terminez mon rapport » (parent).
Les transactions du second degré sont plus complexes, car le message est en apparence adressé à un état du
« moi », mais s’adresse en fait à un autre état. Le sens caché (message réel) est derrière une transaction écran.
Par exemple, un directeur général convoque son responsable achat : « Nos coûts d’approvisionnement ont
progressé de 10 % l’année dernière » ; la réponse du subordonné est : « Notre concurrent principal a subi une
hausse de 13 % ». En apparence les états « adulte » sont sollicités ; dans la réalité, le directeur induit une relation
parent-enfant cachée : « Votre incompétence en matière de négociation pose un problème » ; la réponse codée
est celle de l’enfant : « Qu’est-ce que cela peut faire, nos concurrents font pire que nous. »

Dans un contexte d’étude de marché, l’analyse confère au produit ou à la marque une personnalité
propre supposée refléter les traits de personnalité conscients ou inconscients de l’acheteur.
L’analyse de contenu repère dans un premier temps les catégories du discours, leur structuration et
leur fréquence d’apparition. L’analyse transactionnelle identifie ensuite la nature des relations
profondes qui existent entre le consommateur et une marque : les besoins et désirs latents sont
décelés au travers de l’analyse des transactions simples ou à double sens. Elle conduit ainsi à des
orientations utiles pour le positionnement d’un produit, le choix d’un axe de communication ou la
compréhension des composantes d’une image de marque. Le flash-étude 4.1. développe un exemple
portant sur le papier recyclé.

Flash-Étude 4.1.
Freins et motivations vis-à-vis du papier recyclé
Contexte
\/|
$|
Comment développer l’usage du papier recyclé chez les étudiants, cible importante de
consommation ? Quels sont leurs obstacles à l’usage et leurs motivations ? Les discours d’un
4$

échantillon d’étudiants ont été retranscrits et soumis à une analyse de contenu. Ensuite, les
différents registres du « moi » appelés par les relations entre les étudiants et le produit ont été
By

recherchés. La projection porte sur la personne qui utilise du papier recyclé et sur le produit en
lui-même.

Résultats
Si les trois états du « moi » sont présents, c’est le discours orienté « parent » qui l’emporte
largement, puisque 47 % des jugements émis sur l’utilisateur entrent dans cette catégorie et 80 %
des évaluations sont jugées favorables. Par exemple, l’utilisateur est vu comme « quelqu’un qui
protège les générations futures », « Ne gaspille pas les ressources naturelles ». En revanche,
lorsqu’il s’agit de juger le produit, le registre « parent » est nettement moins utilisé (31 %) et
80 % des jugements deviennent négatifs, comme par exemple : « l’environnement fait vendre »,
« c’est le papier des pauvres », etc. Le registre « adulte » est le plus employé pour évoquer le
produit (34 %), mais les jugements sont là encore majoritairement négatifs : « On voit rarement
de la publicité pour le papier recyclé », « le recyclé coûte cher ». L’état « enfant » représente
34 % des jugements émis sur l’utilisateur et 35 % pour le produit ; à la différence des états
précédents, les croyances favorables et défavorables sont également réparties : « Soyez pas
ringards, achetez du recyclé », « On a l’impression de toucher l’arbre » ou « Le recyclé me fait
penser à une idée de déchets », etc. L’analyse des transactions montre par ailleurs que la
majorité des relations entre le consommateur et le produit se déroulent au niveau « parent à
parent », mais les réponses se situent sur le plan « adulte à adulte ».

Conclusion
L’étude montre l’existence de croyances défavorables solidement ancrées vis-à-vis du produit.
Les freins l’emportent sur les motivations : l’étudiant « parent » est convaincu que l’avenir
appartient à la protection de l’environnement, mais l’étudiant « adulte » rejette le produit, car il
lui reproche de ne pas être compétitif et de renvoyer une image dévalorisante. La communication
devrait privilégier une relation du type « parent à parent » ou « adulte à adulte », sur un registre
informatif démontrant les qualités objectives du produit, la compétitivité des processus de
fabrication, les gains concrets pour la protection de l’environnement.
Source : OBSOMER C., PONDEVILLE S. et PELLEMANS P., « Une application de l’analyse
transactionnelle »,
Revue française du marketing, no 163, 1997, 3, pp. 81-99.

8. Analyse automatisée des données textuelles


C’est une technique d’analyse de discours fondée sur un ensemble de statistiques textuelles qui
enrichissent les résultats de l’analyse de contenu. Les logiciels de traitement automatisé des textes
\/|
ouvrent aujourd’hui de nouvelles perspectives. Nous présenterons deux techniques
$|
complémentaires : la lexicologie et la lexicométrie.
4$

a. La lexicologie
By

Elle utilise le texte d’un discours comme donnée d’entrée. Son objectif est de disséquer,
« démonter » un discours pour mettre au jour et dénombrer ses traits originaux.
Les statistiques révèlent d’éventuels écarts significatifs dans les discours, selon les individus ou
selon les situations. La lexicologie analyse les « énoncés », c’est-à-dire le contenu intrinsèque des
messages, dans deux perspectives(93) :
– identification et analyse des écarts, sur le plan du lexique (liste des mots différents contenus dans
le discours) et de la syntaxe (arrangement des mots selon les règles de la grammaire) ;
– mise au jour des relations entre la structure d’un énoncé et ses destinataires pour apprécier
l’efficacité du message.
• Définitions de base (94)
L’unité d’analyse est la « forme graphique », c’est-à-dire toute chaîne de caractères qui n’est pas
séparée par un espace, un tiret ou un signe de ponctuation : par exemple, « écart-type » se
décompose en deux formes graphiques « écart » et « type ». La plupart du temps, le mot est l’unité
de base. On distingue les mots « outils » (article, préposition, conjonction) qui servent de liaison
dans un texte, et les mots pleins (tous les autres mots) qui portent généralement le sens du message.
Le texte à analyser est appelé « corpus » : ce peut être un texte brut, tous les mots sont conservés,
ou un texte réduit, les mots outils sont supprimés. Avant l’interprétation, la lemmatisation des unités,
c’est-à-dire des opérations de différenciation et de regroupement, est opérée. La différenciation
revient à séparer les homonymes et résoudre les ambiguïtés syntaxiques. Par exemple « avions »
sera reconnu, selon le contexte, comme une forme verbale ou comme un nom commun. Le
regroupement dépend des définitions des champs lexicaux, ce qui conduit à établir une table de
correspondance pour les synonymes et les évocations qui renvoient au même concept. De la même
façon, les différentes formes grammaticales d’un même mot (singulier et pluriel, temps de
conjugaison, genre) sont souvent regroupées. Les champs lexicaux correspondent aux catégories de
l’analyse de contenu.
• Statistiques textuelles
La figure 4.14. définit les principales statistiques applicables aux textes bruts ou réduits. Des
logiciels sont disponibles pour effectuer les traitements automatisés des discours, tels que
ALCESTE, NeuroText, SPADT, SPHINX lexica, TROPES, etc(95).
L’indice d’intensité lexicale i est équivalent à la fréquence d’apparition d’une catégorie i dans
l’analyse de contenu, dans le cas où les champs lexicaux sont égaux aux catégories. En effet nous
avons vu que la fréquence d’une catégorie est égale au nombre de fois où une catégorie i est
évoquée (= nombre d’unités d’un même champ lexical i divisée par le nombre total d’évocations (=
taille du texte).
Figure 4.14. Principales statistiques textuelles

Indices
\/|
Définitions
$|
Taille Nombre total d’unités (mots) contenues dans un texte (corpus)
4$

Richesse Nombre de mots différents contenus dans un texte


Répétition moyenne Taille/Richesse
By

Nombre moyen d’unités (mots) contenues dans une phrase du texte


Fluidité
(corpus)
Lexicalité Nombre de mots pleins/Nombre de mots-outils
Nombre d’unités (mots pleins) se rapportant à un même champ
Intensité lexicale(i)
lexical(i)/Taille
Exemple
Une série d’entretiens a permis d’obtenir un ensemble de verbes naturellement
associés par les répondants à une liste de champions. L’analyse de contenu a identifié
quatre champs lexicaux : « Gagner », « Jouer », « Combattre » et « Engager ». Pour
chaque champ, une liste de synonymes est établie. Ainsi, pour « Gagner » on obtient :
battre, briller, dépasser, dominer, écraser, exceller, gagner, réussir, vaincre, surpasser.
On comptabilise le nombre de fois où un de ces mots est attribué à un champion X et
l’on divise par le nombre total de mots associés à X : on obtient l’intensité lexicale de
chacun des quatre champs. La figure 4.15. compare les intensités lexicales (exprimées
en %) des différents champions. Leurs images ne sont pas identiques, les profils
d’intensité lexicale révélant des perceptions différentes. Ainsi, Marie-Josée Perec est
plutôt perçue comme quelqu’un qui lutte, Michel Platini est vu comme un professionnel
qui gagne, etc.
Figure 4.15. Intensités lexicales et champions (en %)

Champions Entraîner Combattre Jouer Gagner


Carl Lewis 12,4 5 \/| 9 3,3
Marie-Josée Perec 15,8 12,4 5,5 3,5
$|
Jean-Pierre Papin 14,6 15,1 11,4 4,3
4$

Michel Platini 13,9 13,5 0 9,5


Magic Johnson 12,4 8 3,8 2,5
By

Michael Jordan 8,3 0 0 10,4


Pourcentage moyen 17,4 7,5 5,2 4,6
Source : GAVARD-PERRET M.-L. et MOSCAROLA J., Recherche et Applications en marketing, 1998, op. cit.,
p. 44.

• Segmentation et typologie lexicale


La plupart des logiciels d’analyse textuelle (notamment Alceste) sont en mesure de segmenter les
discours en plusieurs classes définies par un ensemble de mots caractéristiques communs. Le
corpus initial est découpé en unités de contexte élémentaires (UCE), généralement des phrases, des
groupes de mots. Celles-ci sont ensuite lemmatisées, puis soumises à une double classification
descendante hiérarchique (voir chapitre 14). Des partitions successives mettent au jour des classes
de mots. L’interprétation des classes se fait par l’étude des formes les plus représentatives,
identifiées par un χ2 d’association élevé (voir chapitre 12). Le flash-étude 4.2. présente un exemple
d’application au tourisme durable qui montre la multiplicité des représentations qui se cachent sous
ce terme.
Flash-Étude 4.2.
Les différentes visions du tourisme durable
Contexte
L’étude vise à identifier les représentations des Français en matière de tourisme durable.
L’objectif marketing est d’esquisser, sur ces bases, les différentes formes de produit que l’on
pourrait construire en termes de « voyage durable » et les contraintes de futurs cahiers des
charges.

Méthodologie
L’échantillon est composé de 630 répondants. Il comprend 48 % d’hommes et 52 % de femmes ;
56 % des répondants ont des enfants. L’âge moyen est de 42 ans. 73 % de l’échantillon habitent
en zone urbaine ou périurbaine. La répartition des revenus se rapproche de la moyenne française.
Les réponses à trois questions ouvertes ont été traitées sous Alceste : (1) « Pour vous, à quoi
ressemblerait un voyage durable par excellence ? » (2) « D’après vous, quelles formes de
voyage seraient contraires au principe du tourisme durable ? » (3) « Pour vous, qu’est-ce qui
symboliserait le mieux le tourisme durable (un lieu, un personnage, un objet, etc.) ? ».
\/|
$|
Résultats
4$

Les représentations globales du tourisme durable se structurent en quatre segments qui permettent
de classer 90 % des unités de contexte élémentaires (UCE). La classe 1 renvoie à des vacances
By

privilégiant la simplicité et le contact avec la nature ; la classe 2 évoque la minimisation des


pollutions liées au transport et aux déplacements sur place ; la classe 3 tourne autour d’actions
liées au respect des valeurs durables ; la classe 4 décrit des vacances en immersion dans des
destinations lointaines, réalisée avec discrétion et respectueuse des populations locales.
Classes
Formes caractéristiques de la classe
% des UCE
(Nombre de citations)
classées
Classe 1 Camping/tente (70), camping (55), séjour en montagne (47),
14,61 % des UCE éviter le tourisme urbain (41), montagne (36),
randonnée/trekking (29), France (23), gîtes ruraux (22), partir
Vacances de plein air, loin (18), scout (17), belle étoile (16), région française (15),
proches de la nature contact avec nature (15).
Classe 2 Transport en commun (51), vélo (28), transport non polluant
32,39 % des UCE (26), éviter destination lointaine (24), séjour cher l’habitant
(17), éviter hébergement en hôtel (16), manque de lien avec
Transports « propres » locaux (13), petits commerces (13), transports propres (13),
Simplicité éviter avion (13), vie simple (11).
Respect environnement (113), non-respect lieux visités (82),
Classe 3
non-respect des populations (64), écotourisme (52), respect
26,23 % des UCE
des valeurs (38), respect des populations (29), retombées
économiques locales (29), île (29), éviter safari (15), grands
Respect des « valeurs
\/|
espaces (14), petits groupes (13), découverte culture locale
durables »
$|
(13).
4$

Afrique (46), rencontre population (33), éviter croisière (31),


Classe 4
projet humanitaire (30), immersion (29), Amazonie (25),
26,76 % des UCE
By

voyage à l’étranger (25), éviter voyages organisés (25), séjour


long (22), action humanitaire (20), immersion culture lointaine
Tourisme durable lointain en
(18), voyage organisé par soi-même (18), destination lointaine
immersion
(14).

Source : FRANÇOIS-LECOMPTE A. et PRIME I., « Les Français et le tourisme durable. Étude des
représentations »,
o
Décisions Marketing, n 64, octobre-décembre 2011, pp. 47-58.

• Champ d’application
Le calcul de statistiques textuelles satisfait plusieurs objectifs d’étude :
– connaissance, caractérisation et comparaison d’un vocabulaire. Celle-ci permet de construire
des messages publicitaires spécifiques pour chaque cible, de bâtir un argumentaire de vente
compréhensible par les clients potentiels ou encore de décrire des concepts de produits nouveaux.
Ainsi, la connaissance des indices de richesse ou de fluidité d’une cible facilite la construction
d’un message en donnant une idée sur l’étendue de son vocabulaire, le nombre moyen de mots par
phrase, etc. De même, la segmentation de discours en classes lexicales permet de décrire les
attentes ou les représentations de consommateurs pour une catégorie de produits ou de services ;
– recensement des positionnements. Si l’intensité d’un champ lexical est significativement plus
forte pour une cible, il est possible de positionner un nouveau produit répondant à l’attente sous-
jacente au champ lexical ;
– évaluation du capital d’image. La richesse d’un champ lexical d’une marque et l’intensité des
champs lexicaux des concurrents donnent un aperçu du volume et de la nature des croyances
attachées à chaque marque.
b. Lexicométrie
La lexicométrie prolonge la lexicologie, car elle cherche des associations entre des formes
particulières d’expression (style, vocabulaire, etc.) et une cible particulière.
• Objectifs et principes
L’analyse ventile les discours dans des tableaux à double entrée, appelés tableaux de contingence ;
elle offre la possibilité de projeter dans un espace à plusieurs dimensions l’emplacement des mots
ou des champs lexicaux. Par exemple, on croise les lieux de vacances préférés avec l’âge : à
chaque intersection ligne/colonne, on comptabilise le nombre de fois où le champ i (ou la
catégorie) a été évoqué par la tranche d’âge j. La représentation graphique fait appel à l’analyse
factorielle (ACP ou AFC) que nous exposons dans le chapitre 14.
• Domaine d’application \/|
Cette technique est utile pour rechercher un positionnement pour un nouveau produit, pour
$|
comprendre la structure d’une image de marque ou celle des concurrents, pour préparer la copy
4$

stratégie d’une campagne publicitaire, ou encore pour analyser les valeurs d’une cible. On ainsi
montré qu’un acheteur peut être sensible à la tradition lorsqu’il achète une voiture, tout en
By

recherchant l’aventure pour ses vacances. À titre d’illustration, nous présentons ci-dessous deux
résultats d’études lexicométriques, l’une faisant appel à l’AFC et l’autre à l’ACP.

Flash-Étude 4.3.
Les Français et les mots
Les inquiétudes des Français selon l’âge(96)

Contexte
L’étude a pour but d’analyser l’évolution des préoccupations des Français selon leur âge. La
question, posée à un échantillon représentatif de la population, est la suivante : « Qu’est-ce qui
vous inquiète le plus en ce moment en ce qui concerne votre avenir ? » Les réponses sont libres.
Source : LEBART L., Revue française du marketing, op. cit., 1998, p. 41.
\/|
$|
Résultats
4$

L’analyse lexicologique fait apparaître 400 mots cités au moins 10 fois par les répondants ;
4 tranches d’âge sont retenues. On repartit, selon l’âge de chaque individu, les différents mots
By

dans l’une des 1 600 cellules (= 4 × 400). L’analyse factorielle des correspondances est
appliquée à ce tableau. La représentation graphique donne un axe horizontal orienté « Passé-
Présent » et un axe vertical « Vie privée-Vie sociale ». L’étude montre que les préoccupations
varient nettement selon l’âge : santé, argent, retraite pour les plus de 60 ans, études,
environnement pour les moins de 30 ans.

Les attitudes des Françaises vis-à-vis de la fourrure(97)

Contexte
La profession de la fourrure a été confrontée, au début des années 1990, à une crise dont les
professionnels suspectent les écologistes d’être à l’origine. Une étude lexicométrique, baptisée
par la Sofres « sémiométrie », évalue les valeurs respectives des consommatrices et non-
consommatrices de fourrure. Une liste de 270 mots concepts est notée par un échantillon de
femmes âgées de plus de 18 ans, sur la base de leur plus ou moins grande proximité par rapport à
leurs propres centres d’intérêt ou préoccupations. Ainsi, une note de 3 attribuée au mot
« Argent » signifie qu’il est jugé proche de soi, une note de – 3 pour « Musique » évoque un
centre d’intérêt très éloigné.
\/|
$|
4$

Source : DEUTSCH E., Revue française du marketing, op. cit., 1989, p. 13.
By

Résultats
L’ACP identifie deux grandes dimensions : un axe horizontal « tradition-ouverture » et un axe
vertical « rigueur-plaisir ». Chaque mot est projeté sur ces dimensions. On calcule ensuite les
scores moyens du segment des consommatrices régulières de fourrure : elles sur-notent des mots
tels que vertu, souverain, noble, prier, ancien, règle. De leur côté, les non-consommatrices
préfèrent des mots comme différent, vitesse, féconder, eau, montagne, fleuve, légèreté, gratuit.
Ces résultats montrent que l’image de la fourrure est très typée et associée à des valeurs
traditionnelles et de récompense ; en outre, les non-consommatrices sont plus sensibles aux
valeurs écologiques et au naturel.

c. Évaluation
Les analyses textuelles jettent un pont entre les approches qualitatives et quantitatives. Elles
enrichissent l’approche qualitative par une lecture quantifiée des données, tout en respectant les
spécificités de l’investigation en profondeur. Des recommandations originales et innovantes
peuvent être formulées à partir de cet éclairage. Cependant, l’échantillon sur lequel les statistiques
textuelles sont calculées doit être représentatif de la population étudiée, si l’on désire généraliser
les résultats observés à l’ensemble du marché visé (voir chapitre 8).
III. Entretien introspectif

A. Définition
Sous un angle philosophique, l’introspection est vue comme l’effort d’une conscience qui se prend
comme objet, dans un but de connaissance de soi. En psychologie, l’introspection est une méthode
d’observation et d’analyse de soi, en vue d’étudier sa propre personne pour acquérir une meilleure
connaissance de soi.
Dans son application aux études de marché, elle se présente comme une investigation individuelle
auto-centrée qui consiste à faire appel à sa propre mémoire pour explorer un sujet particulier, pour
extraire des souvenirs ou des événements jugés significatifs. L’individu revit alors une expérience
particulière, souvent forte et intime, puis il rapporte à lui-même ou à un enquêteur ce qu’il
découvre. Ces éléments intimes sont progressivement accessibles à la conscience du narrateur, au
fur et mesure qu’il s’immerge dans ses souvenirs.

B. Spécificités méthodologiques
Fondamentalement, l’introspection revient à « penser à voix haute » sur un sujet d’étude, tout en
\/|
interprétant soi-même les informations qui viennent à notre conscience. Les données sont
$|
consignées par écrit ou enregistrées par un magnétophone.
4$

Le rôle de l’enquêteur varie selon les formes d’introspection : il peut être absent, interagir ou
guider la production d’informations. Parmi les différentes formes d’introspection, il convient
By

notamment de mentionner(98) :
– l’introspection subjective personnelle. Dans cette forme, le chercheur s’étudie lui-même : il est à
la fois producteur et analyste des informations ;
– l’introspection interactive. L’interviewer et l’interviewé pratiquent simultanément l’introspection
sur le sujet d’étude et s’assistent mutuellement dans leur propre parcours introspectif. L’empathie
crée un climat favorable qui facilite la production d’informations ;
– l’introspection guidée. Un échantillon de répondants pratique une introspection personnelle en
relation avec l’objet de l’étude. Concrètement, les sujets répondent à un questionnaire comportant
une série de questions ouvertes. Leurs discours peuvent être enregistrés par un enquêteur ; ce
dernier, au besoin, fait préciser tel ou tel point. D’une façon générale, la consigne est de « penser à
voix haute », tout comme pour la méthode d’observation par protocoles verbaux (voir chapitre 6) ;
– l’introspection syncrétique. Dans cette dernière forme, l’introspection du chercheur et celles des
répondants sont combinées pour former l’échantillon, mais elles sont analysées séparément. Dans
les premiers temps, Sigmund Freud a appliqué cette démarche, combinant une auto-analyse de ses
rêves personnels, parallèlement à celle pratiquée par ses patients.
La mise en œuvre d’un entretien introspectif amène à résoudre différentes questions
méthodologiques. La figure 4.16. récapitule les plus importantes et formule des recommandations
pour orienter le chargé d’études.
(99)
Figure 4.16. Questions et recommandations méthodologiques (99)

Aspects Évaluations
Alternatives
méthodologiques et recommandations
Perte de mémoire, sélectivité et
– Sur le passé (proche ou reconstruction du souvenir passé
éloigné). sont des biais fréquents.
– Présent (direct ou léger Recours à la prise de note
Focalisation temporelle
différé). quotidienne.
– Futur (projection dans un état Réduire l’intervalle temporel
possible ou imaginaire). entre l’événement et
l’introspection.
Difficulté pour l’individu de
– Général (expérience usuelle : dégager des lois de
ce qui arrive toujours ou comportement régulier :
d’habitude). tendance à généraliser à partir
Champ de focalisation
d’un événement singulier.
– Spécifique (événement Préférence pour introspection
critique). \/| sur des expériences jugées
significatives, emblématiques.
$|
– Enregistrement.
4$

– Prise de note manuelle,


régulière et quotidienne (carnet – Transparence : documenter
By

Collecte des données de bord). précisément les conditions de


– Échantillonnage des collecte des informations.
événements (variété, spécificité
vs régularité).

C. Évaluation(100)
L’introspection a du sens dans des contextes de consommation où les émotions et les sensations
ressenties sont fortes, tels les loisirs, les spectacles culturels ou sportifs. Dans d’autres situations
évoquant la nostalgie, le rêve ou au contraire angoissantes ou stressantes, cette technique
d’investigation peut également être intéressante pour restituer les vécus expérientiels des
consommateurs. L’introspection immédiate, pratiquée sur les lieux d’achat ou de consommation, et
dans le feu de l’action, favorise la restitution d’événements, des sensations ou des émotions
saillantes, avant qu’un travail de rationalisation a posteriori ou de sélectivité mémorielle
n’intervienne.
Néanmoins, l’accès à l’expérience personnelle pratiquée par introspection n’est pas sans risque. La
sélectivité de la mémoire, l’égocentrisme et le narcissisme constituent des biais majeurs. La
méthode nécessite donc une grande prudence et du discernement. Par ailleurs, dans un contexte
commercial, l’introspection subjective personnelle du chargé d’études n’a guère de sens,
l’introspection guidée étant plus défendable..
En résumé, l’introspection doit plutôt être réservée à des événements expérientiels récents,
suffisamment forts sur le plan émotionnel ou totalement atypiques. Le flash-étude 4.4. développe un
exemple d’application intéressant montrant comment le consommateur novice s’immerge dans une
expérience musicale, ici un concert à l’Auditorium de Milan.

Flash-Étude 4.4.
L’introspection d’une immersion expérientielle
Contexte
L’objectif de la recherche est la compréhension des modalités d’immersion d’un consommateur
dans des expériences de consommation. Quels sont les chemins et les modalités qui lui
permettent de s’approprier cette expérience ?

Méthodologie
Une introspection guidée, conduite durant deux concerts, a été effectuée sur 11 personnes (3 au
\/|
premier, 10 au second, deux personnes ayant participé aux deux concerts) non habituées à
$|
participer à tous les concerts. Les personnes étaient novices et peu enclines à ce type de loisirs.
Les instructions étaient limitées à « porter son attention sur le sentiment de proximité/distance
4$

vis-à-vis de toutes les composantes de l’expérience, et à prendre des notes selon un schéma
chronologique (avant, pendant, après) en prenant en compte le vécu individuel et les interactions
By

avec les autres personnes présentes ». Les comptes-rendus d’expérience sont remis le lendemain
de l’événement sous forme dactylographiée (deux à quatre pages). Les discours ont été soumis à
une analyse thématique de contenu intra et intertextuelle.

Résultats
Contrairement au modèle postulé au départ, l’immersion dans l’expérience ne passe pas par un
chemin unique et commun (nidification, exploration, marquage), mais par des va-et-vient
successifs entre ces trois opérations. Par ailleurs, l’immersion ressemble moins à « un grand et
unique plongeon [mais] ressemble plutôt à une répétition de petits bains de pied ».
Source : COVA B. et CARU A., « Approche empirique de l’immersion dans l’expérience de
consommation »,
o
Recherche et Applications en Marketing, vol. 18, n 2, 2003, pp. 47-66.

IV. Entretien phénoménologique


La phénoménologie s’intéresse à l’étude et à l’appréhension des phénomènes dans leur apparence,
tels qu’ils apparaissent à notre conscience individuelle. Elle est à la fois un courant philosophique
et une méthode d’accès à la réalité d’une chose. Elle propose un « savoir-voir » différent.
Cette approche s’inscrit dans une vision constructiviste d’une réalité façonnée par le langage et les
normes sociales. Dans cette perspective, il n’existe pas une réalité unique et indépendante de
l’observateur, comme le postule le courant philosophique positiviste, mais au contraire une
multiplicité de manières de voir et de se représenter un même phénomène. La perception du monde
repose sur une double perception : celle de l’individu qui expérimente un objet particulier et celle
du chercheur qui veut décrire cet objet. Ces interactions se nourrissent d’un ensemble de
connaissances et de représentations communes qui façonnent une vision particulière de l’objet de
recherche.
Appliquée aux études de marché, l’approche phénoménologique d’un discours adopte une
perspective environnementale, c’est-à-dire que la vision du phénomène se réalise au travers de
filtres multiples, produits par le contexte : circonstances, événements, incidents, intentions, etc.

A. Objectifs
La phénoménologie se propose de dégager l’essence d’un phénomène, tel que l’individu le vit. Il
s’agit de révéler à la conscience (dans le sens d’intelligibilité) l’expérience vécue. Plus
précisément, la phénoménologie vise à décrire les phénomènes mentaux, tels qu’ils se manifestent
aux sujets, dans le temps et l’espace. Elle ambitionne d’être la science de l’expérience et des vécus
psychiques de la conscience. \/|
Dans un entretien phénoménologique, l’individu propose une description personnelle d’une
$|
expérience qui laisse à sa conscience subjective la capacité de se comprendre elle-même et de se
4$

saisir des objets de façon évidente(101). On laisse les choses devenir manifestes, telles qu’elles sont,
sans les forcer à entrer dans des catégories prédéfinies.
By

La fiche technique 4.5. replace cette approche dans le cadre des sciences humaines. Dans son
application à l’étude d’un marché, les comportements de consommation sont analysés dans une
perspective psychologique ou sociologique, parfois complétée par un regard d’ethnologue (voir
chapitre 6). Ainsi, des actes en apparence insignifiants, tels que le type d’ordures ménagères
rejetées ou le mode de lavage du linge, sont considérés comme révélateurs de structures sociales et
de valeurs culturelles.
Fiche technique 4.5. La phénoménologie dans les sciences humaines
1 – Arrière-plan historique et conceptuel(102)
La phénoménologie trouve ses racines dans les réflexions philosophiques sur l’étude de la connaissance. Hegel a
défini en 1807 la phénoménologie comme une « science de la conscience, la conscience étant en général le savoir
d’un objet extérieur ou intérieur ; [c’est] la science de l’expérience que fait la conscience ». Les travaux du
philosophe et mathématicien allemand Edmund Husserl (1859-1938) sont considérés comme fondateurs d’un
courant qu’il voyait comme la composante majeure d’une philosophie qualifiée de « science rigoureuse ».
Heidegger, disciple d’Husserl, a contribué à ces travaux, avant de faire dissidence, en proposant de compléter,
voire de remplacer, la description phénoménologique par une interprétation herméneutique (voir fiche technique
4.6.). Le courant des philosophes existentialistes français, Maurice Merleau-Ponty (1905-1961), Jean-Paul
Sartre (1905-1980) et Paul Ricœur (1919-2005), qui considère notamment que l’être humain définit l’essence
de sa vie par ses propres actions et expériences, prolonge cette vision, en s’attachant aux concepts de
perception, d’imaginaire, de volonté et d’intentionnalité, considérés comme des modes d’accès au monde du vécu.
2 – Objets et démarche
Les objets étudiés ne sont pas des objets du monde, ni les choses qui existent dans la réalité, mais seulement des
objets qui existent en nous, ceux que l’on rencontre dans notre tête. Par exemple, nous voyons un nuage, nous
approuvons une opinion. Tous ces objets sont des objets du monde. Mais ce ne sont pas les nuages, ni les opinions
qui intéressent le phénoménologue, mais les « vécus » dans lesquels les objets du monde sont pensés, vus,
remémorés, approuvés.
L’approche phénoménologique d’un discours propose une lecture originale, un « savoir-voir » des expériences, une
description de l’ensemble des vécus de la conscience humaine(103). Elle convertit le regard pour aboutir à une
« réduction transcendantale ». Ceci revient à extraire les idées pures, les « essences » qui structurent,
\/|
transcendent notre pensée et qui donnent le véritable sens aux objets. Les essences représentent les formes
$|
épurées, invariantes des choses, des personnes ou des situations. Pour ce faire, il nous faut mettre entre
parenthèses le monde, tel qu’il se présente au niveau de notre expérience ordinaire, en d’autres termes, adopter
4$

un regard radicalement nouveau. Notre champ d’expériences, c’est finalement la conscience elle-même : « La
conscience est toujours conscience de quelque chose. » Chaque chose ou objet porte la marque particulière du
By

sujet qui les produit, sous la forme d’une représentation mentale qui exprime une intention, un désir ou une
volonté. Cette représentation intentionnelle exprime le sens que l’individu attribue aux choses. Les
représentations mentales – qu’il s’agisse d’un parfum, d’une perceuse ou d’un enfant ne sont pas des images
objectives. Elles portent la marque de l’intention du sujet qui les produit : ses désirs, sa volonté, son attirance ou
ses peurs, bref, son « rapport au monde ».
3 – Champs d’application
La phénoménologie embrasse les sciences humaines, dont elle constitue une introduction logique, dans la
mesure où elle cherche à en définir l’objet, antérieurement à toute expérimentation ; elle analyse de façon
critique l’outillage mental utilisé pour produire les résultats.
Elle touche trois disciplines : la psychologie, la sociologie et l’histoire. Dans son approche psychologique, elle
privilégie la réflexion par rapport à l’introspection : en effet, la réflexion permet à l’individu de décrire des faits
pour restituer le vécu « brut » d’une expérience, alors que l’introspection met en jeu une rationalisation et une
interprétation subjective de l’expérience. Les thèses de la Gestalttheorie (psychologie de la forme) dérivent de
l’approche phénoménologique : il ne s’agit pas de savoir si nous percevons le réel tel qu’il est, car le réel est
précisément identifié à ce que nous percevons. Appliquée à la sociologie, la démarche est similaire : le social est
saisi comme un vécu qu’il convient de décrire de manière adéquate pour en reconstituer le sens. Cette
description se fait sur la base de données sociologiques antérieures et du contexte : l’observation de type
ethnologique est précieuse pour opérer cette tâche. Dans sa vision historique, la phénoménologie considère que
l’histoire ne peut se lire au travers d’un facteur, qu’il soit politique, économique ou racial ; elle propose plutôt une
reprise réflexive des faits, une analyse fondée sur les intentions culturelles.
B. Approche méthodologique
1. Collecte des données
L’interview se fonde sur le postulat que les répondants prennent progressivement conscience, au
travers de leurs récits, des relations et des contradictions qui existent entre leurs comportements et
leurs idées. La collecte est centrée sur le recueil des « expériences » : faits, comportements et
points de vue des consommateurs ; les interviews sont enregistrées(104). L’entretien suppose une
égalité entre répondant et enquêteur : ni effacement de l’interviewer, comme pour l’interview semi-
directive, ni domination, comme pour le questionnaire structuré. Un guide d’entretien détaillé n’est
pas nécessaire, seules quelques questions ouvertes portant sur les différentes expériences
potentielles des répondants sont utiles. Bien que proche d’un entretien en profondeur, le mode
d’interrogation comporte quelques particularités :
– faire parler le répondant de ses expériences à la première personne. La référence aux expériences
vécues favorise la mise au jour de faits concrets qui révèlent les véritables motivations ou freins
d’un comportement. L’emploi de la troisième personne produirait un discours banal dont
l’interprétation serait ambiguë ;

Exemple \/|
$|
Si un vendeur dit : « Le client a attendu 10 minutes devant le rayon des chemises et a
finalement choisi une taille trop grande », on ne sait pas si c’est le client qui a refusé
4$

l’aide du vendeur, parce qu’il voulait choisir tout seul, ou si le vendeur était occupé
ailleurs, ou encore si la bonne taille était manquante. À l’inverse, le sens de la
By

narration suivante est clair : « J’ai proposé d’aider ce client, mais il m’a indiqué qu’il
souhaitait regarder les modèles ; je l’ai vu déballer dix chemises, hésiter et s’apprêter
à choisir une taille trop grande ; c’est alors que je suis intervenu en lui suggérant
un 40... »

– établir un dialogue circulaire, plutôt que linéaire. Une conversation à bâtons rompus permet au
répondant de revenir en arrière sur une expérience à sa guise, puis d’enchaîner sur un fait récent
jugé comparable pour expliquer ce qui s’est passé antérieurement. La progression du récit d’une
expérience peut en effet s’écarter de la voie chronologique et nécessiter des apartés pour prendre
conscience de ce qui s’est passé ;
– éviter les questions commençant par « Pourquoi ». Des questions de ce type conduisent à des
justifications empreintes de rationalité et mettent le répondant sur la défensive, car il risque de
percevoir des préjugés de la part de l’interviewer. L’introspection favorise les réponses de façade.
La figure 4.17 récapitule les principales erreurs à éviter durant un entretien phénoménologique.
Figure 4.17. Conduite d’un entretien phénoménologique

Formulations à éviter Formulations préférables


« Racontez-moi votre dernier achat d’un produit
« Qu’est-ce que Chanel symbolise pour vous ? »
de marque Chanel... »
« Si vous repensez à la dernière fois où vous
« Pourquoi ne lisez-vous pas le mode d’emploi avez préparé un plat cuisiné sans lire le mode
quand vous achetez un plat cuisiné ? » d’emploi, comment cela s’est-il passé ensuite,
etc. »
« Repensez à une situation où vous avez loué
« D’après vous, à quoi faut-il faire attention
une voiture et où tout s’est très bien (ou très
quand on loue une voiture ? »
mal) passé... Racontez-moi... »

2. Interprétation et analyse des données


Les entretiens sont d’abord intégralement retranscrits, puis interprétés sur la base de trois principes
de la phénoménologie(105) :
– la focalisation sur le discours du répondant. Les termes et les catégorisations utilisés par
l’interviewé pour décrire ses expériences l’emportent sur ceux du chargé d’études. Par exemple, si
\/|
l’interviewé parle d’un « bon service », celui-ci ne doit pas être interprété par rapport à une grille
$|
théorique prédéfinie, avec des attributs du type courtoisie, efficacité, propreté, mais plutôt à partir
4$

du compte rendu de l’expérience vécue : ainsi, un client désire un service discret, un autre entend
par là un bon accueil et une disponibilité totale ;
By

– l’autonomie. Les discours des répondants sont considérés comme des données brutes qui n’ont
pas à être corroborées par une investigation complémentaire. C’est une interprétation
compréhensive des faits, plutôt qu’explicative. C’est la conception que les consommateurs se font
du monde qui constitue l’objet essentiel de l’analyse et, plus particulièrement, le sens assigné aux
objets, aux situations et aux symboles. Par exemple, si un consommateur X dit que l’achat d’une
crème solaire est important pour lui et qu’il a besoin du conseil de son pharmacien Y, ces faits sont
considérés comme véridiques : ce qui compte, ce sont les représentations que X associe à l’achat
du produit, et non pas le fait que Y soit effectivement compétent ;
– le caractère provisoire. Les modèles théoriques explicatifs sous-jacents ne doivent pas
être appliqués directement aux données pour les interpréter. Il ne s’agit pas de valider des relations
de cause à effet, mais plutôt de décrire les différentes thématiques qui structurent les expériences.
L’interprétation fait abstraction de tout présupposé pour faire émerger le sens.
Les discours sont analysés dans une perspective proche de celle de l’herméneutique, c’est-à-dire
par itérations successives, d’abord au sein d’une même interview pour découvrir le sens des
données, puis sur l’ensemble des interviews pour identifier les thèmes globaux. La grille
thématique est validée par une relecture de chaque entretien. Les analyses se font en équipe, sous
forme de discussion collective, de façon à multiplier les perspectives et pour éviter la monotonie
due à la grande masse d’informations à traiter. Plus spécifiquement, le groupe se pose les questions
suivantes :
– L’interprétation s’appuie-t-elle sur un fait tiré d’un entretien ?
– L’interprétation proposée est-elle cohérente avec ce qui a été dit précédemment par
l’interviewé ?
– Quels sont les autres angles possibles pour décrire ce qui s’est passé ?

V. Entretien herméneutique
L’herméneutique est un courant philosophique qui vise à interpréter les expériences et les choses de
ce monde. Elle propose de compléter et de prolonger le « savoir-voir » phénoménologique par un
« savoir-comprendre ».

A. Objectifs et principes
Dans une perspective herméneutique, l’interprétation du sens ne peut se réaliser par la seule lecture
d’un texte. Celui-ci doit être appréhendé, non seulement à partir de connaissances préalables de son
environnement culturel ou social, mais aussi par une intégration dans une perspective dynamique.
Ainsi, la connaissance du projet de vie individuel occupe une place déterminante dans la
compréhension du discours. Le présent est interprété en termes de trajectoire dans un futur construit,
à la lumière de l’expérience passée.
\/|
$|
La fiche technique 4.6. donne quelques repères pour comprendre les différentes démarches
herméneutiques mises en œuvre dans les sciences humaines.
4$
By

Fiche technique 4.6. L’herméneutique dans les sciences humaines


1 – Cadrage philosophique
L’herméneutique, ou l’art d’interpréter un « texte » (discours, image, monument, œuvre, etc.), s’appuie en grande
partie sur les travaux du philosophe allemand Martin Heidegger (1889-1976), élève, puis dissident d’Husserl.
L’objectif herméneutique n’est pas seulement de savoir comment une chose peut être décrite ou expliquée, mais
de comprendre « l’état de fait phénoménologique ». La qualité de l’interprétation dépend avant tout de la
capacité à (se) poser les bonnes questions. Pour Heidegger, notre présent quotidien est caractérisé par des
préoccupations qui se matérialisent par des outils (« objets du monde ») et par des rapports à autrui
(« sollicitude »). Ces deux éléments représentent les fondements de toute vie en société. Mais ce présent est
« inauthentique », c’est-à-dire qu’il ne permet pas de comprendre ce qui se passe, seul l’avenir représente
« l’authentique »(106). La clé réside dans la compréhension du « pouvoir être » qui définit l’horizon des possibilités
individuelles. Ces deux interprétations de soi, l’authentique et l’inauthentique, s’affrontent fréquemment chez
les individus. L’« authentique », qui donne la primauté à l’avenir, implique de se comprendre soi-même, en tant que
projet et anticipation, puis de se rapporter au monde présent pour lui donner son véritable sens.
L’« inauthentique » parcourt le chemin inverse : il renvoie d’abord au monde des objets présents, puis essaie de
comprendre son propre être, en l’assimilant à une telle ou telle chose présente. La connaissance de soi bien
comprise est la capacité de se connaître en tant qu’être qui peut être ceci ou cela, qui peut réaliser telle ou telle
chose, mais non comme quelqu’un qui est ceci ou cela, ou qui fait ceci ou cela.
Par conséquent, l’interprétation herméneutique d’un discours nécessite de connaître l’histoire du phénomène :
on ne peut comprendre le présent (le « quotidien ») qu’à la lumière du passé (« l’avoir été ») et du projet
(« l’avenir ») du sujet.
2 – Démarches et champs d’application
L’interprétation théologique des Écritures saintes (Bible, Coran), encore appelée exégèse, est un premier
domaine d’application. L’ambition est de définir les règles de l’interprétation des textes sacrés. La tâche est
délicate et donne fréquemment lieu à des conflits interprétatifs entre les exégèses, car la compréhension et
l’importance accordée au contexte changent selon les courants. Des disciplines variées, allant de la philologie
aux sciences humaines en passant par la grammaire, la logique et la rhétorique, sont convoquées pour restituer
le sens du texte qui est supposé exprimer les intentions de l’auteur.
La psychanalyse représente un second terrain d’application. Les écrits de Sigmund Freud ont fait l’objet d’une
interprétation herméneutique de la part du philosophe Paul Ricœur. Les pratiques psychanalytiques sont vues
comme une situation particulière de langage, le dialogue se déroulant dans un espace insolite, aménagé par le
transfert. « Celui-ci est une scène où les événements du passé du patient se trouvent rejoués ou, plus
précisément, re-traduits et attribués, sur le mode de la fiction, au désir de l’analyste. C’est cette traduction que
l’analyste doit assurer et refuser à la fois, pour ouvrir au patient la seule issue possible : celle d’une
interprétation qui inflige un démenti au passé, pour que ce dernier puisse être ré-écrit sous l’horizon d’un avenir
prometteur(107) ». On retrouve ici la caractéristique essentielle d’une interprétation herméneutique : le présent
ne peut être compris qu’au travers du filtre de l’expérience passée et dans une intentionnalité future, contenue
dans un projet individuel, plus ou moins explicite.
Le domaine juridique constitue un dernier domaine, lorsque l’interprétation de la loi devient problématique. La
spécificité de l’herméneutique juridique tient à sa fonction pragmatique, consécutive à la pratique quotidienne
des juristes (108). Dans la plupart des cas, l’interprétation est réduite à son minimum. Ainsi, la détermination de la
peine se fait selon une échelle prévue par la loi, donnant une marge de manœuvre réduite au juriste. Néanmoins,
des difficultés concrètes d’application peuvent exister, ouvrant ainsi à l’herméneutique. L’interprétation
« grammaticale » des textes, fondée sur travail lexicographique, voire étymologique, ou le recours aux règles de
la logique constitue une première forme. Cependant, il existe des situations paradoxales de lacune juridique,
dans lesquelles la loi n’a pas prévu de solution. Les raisonnements par analogie, par dissemblance ou encore a
contrario, sont mobilisés par le juge pour suppléer au vide juridique, afin de dire le droit, ce qui représente une
\/|
seconde forme d’herméneutique. Mais ces derniers ne permettent pas nécessairement de résoudre la difficulté,
$|
s’ils débouchent sur une pluralité de solutions, parfois contradictoires. D’où la nécessité d’une troisième forme
d’herméneutique qui s’apparente à une méthodologie de l’interprétation dont le but est de fixer des canons, c’est-
4$

à-dire des directives d’interprétation. Cette méthodologie interprétative varie selon les pays, les juridictions et
les écoles de la théorie juridique.
By

L’herméneutique comprend une réalité cachée (ou une histoire antérieure) en l’interprétant sur la
base du « hors-texte » : « La première étape d’une investigation herméneutique consiste en une
immersion dans un arrière-plan historique et culturel relevant du domaine d’intérêt. [...]
L’interprétation d’un texte ne saurait se résumer à l’application d’une méthode, mais doit considérer
qu’une méthode fait partie d’un cadre de référence comportant des propositions-clés(109). »
L’objectif est de rechercher ce qui fait sens dans un texte, en partant du langage et des formes
narratives : histoires, mythes et expériences. L’hétérogénéité des histoires personnelles de
consommation structure la perception des besoins, de façon différente selon les individus.
L’expérience ne prend pas nécessairement une forme narrative, mais ce sont plutôt les histoires qui
sont des tentatives pour expliquer et comprendre une expérience.
En résumé, la compréhension d’un élément ne peut se faire que si l’on a une connaissance
approfondie du contexte : « le tout est en relation avec les parties et vice versa ». Le sens apparaît
progressivement par un va-et-vient entre une lecture individuelle et une lecture globale des
interviews.
La figure 4.18. retrace la construction du sens en herméneutique : chaque événement personnel se
replace dans le cadre plus large de l’identité de soi, en y intégrant ses propres contradictions et
croyances. L’individu se construit un sens cohérent qui le conduit à comprendre ses expériences de
vie ; le cadre culturel (appartenance à une catégorie sociale, valeurs et croyances) fournit un
canevas complémentaire pour aider l’analyste à comprendre les constructions personnelles.
Figure 4.18. Modèle de construction du sens : le « cercle herméneutique »

Source : adapté et traduit de THOMPSON C., op. cit., 1997, p. 440.

B. Méthodologie
La conduite d’une démarche herméneutique comporte deux phases(110).
\/|
$|
1. Recueil des textes
4$

Ils sont obtenus à partir d’interviews individuelles non structurées, relativement longues
(1 heure 30 à 2 heures 30), centrées sur les expériences de consommation. Pour chaque participant,
By

deux séries d’interviews sont pratiquées. La première aborde les styles de vie et les perceptions
des situations de consommation, la seconde traite des thèmes de consommation quotidienne. Il
n’existe pas de guide d’entretien commun à toutes les interviews, les questions ouvertes étant
fonction des profils et histoires propres aux répondants. Les interrogations doivent faciliter la
production des « tranches de vie » et des histoires vécues ; l’enquêteur demande ensuite aux
participants de commenter et d’interpréter ces situations. Les questions types sont les suivantes :
« Quand est-ce arrivé ? », « À quelle occasion ? », « Que s’est-il passé avant, après ? »,
« Pourquoi est-ce arrivé à ce moment-là ? », etc.

2. Interprétation des textes


Les interviews sont retranscrites, puis interprétées séparément. Les histoires individuelles sont
vues comme des « trajectoires spatiales et temporelles ». Un événement passé est revécu par un
individu à la lumière d’une situation présente et dans la perspective d’un futur anticipé. Chaque
expérience est située dans son contexte d’occurrence. L’interprétation herméneutique distingue deux
phases.
– Analyse des mouvements narratifs. On reconstitue le fil conducteur des séquences d’expériences
survenues durant la consommation d’un produit ou service quelconque. Dans la culture occidentale,
les narrations s’organisent de façon linéaire, de telle manière qu’une action particulière se situe par
rapport à un passé (antécédents) et se projette dans un futur, appréhendé au travers des
conséquences probables de l’action. L’étude de la chaîne des associations symboliques opérées par
le répondant dégage un sens commun sous-jacent à un ensemble d’événements distincts. Cette
projection s’interprète comme une expression d’un projet de vie. Dans l’étude de marché, cette
constellation passé-présent-futur consiste à analyser les buts poursuivis par l’individu.
– Construction d’un cadre intégrateur. L’analyste élabore la grille de signification qui sert de trame
au répondant pour comprendre ses diverses expériences. On recherche le ou les pivots autour
desquels s’articulent ses narrations, le sens symbolique des métaphores utilisées, le type et la
nature des préoccupations existentielles sous-jacentes, tout en tenant compte des codes et
conventions culturelles en vigueur dans l’entourage de l’interviewé (voir flash-étude 4.5.).
Une fois ce premier travail achevé, l’ensemble des interviews est à nouveau analysé, afin de
construire un cadre de référence commun aux participants, tout en repérant les contradictions et
conceptions particulières des situations individuelles. Dans un troisième temps, chaque interview
est relue à l’aune de la structure commune.

Flash-Étude 4.5.
L’interprétation herméneutique du nettoyage d’un sol
1 – Objectif \/|
Il s’agit d’évaluer le degré de scepticisme des consommateurs vis-à-vis de publicités télévisées.
$|
L’étude est conduite dans le sud-ouest des États-Unis auprès d’un échantillon d’une cinquantaine
4$

de femmes au foyer, ayant de jeunes enfants non scolarisés.


By

2 – Extraits de l’interview de Veronica


« J’ai un sol en vinyle dans ma cuisine. Il était complètement décoloré par rapport à sa couleur
initiale rouge brique et j’ai tout essayé sur lui. J’ai utilisé Mr Clean, 409, Lysol, Pine Sol. Dites-
moi un nom, je l’ai essayé. Je pensais vraiment que ce sol était fichu. Je suis allé voir la femme
d’un entrepreneur qui m’a dit : “Je vais te dire ce qu’il te faut : va chez Smith’s Floor et achète
ce truc appelé New Begining”. J’ai l’air de parler comme une publicité, mais honnêtement, de
tous les produits que j’ai essayés, c’est celui qui m’a le plus impressionné. Vous voyez cela dans
chaque spot : vous l’étalez sur le sol, vous passez votre éponge, et tout d’un coup, vous obtenez
une splendide trace blanche. Mais honnêtement, c’est ce qui s’est passé. J’ai été si
impressionnée que j’ai appelé Smith’s Floor et dit “Je ne peux pas y croire.” J’ai dit à la fille
que si jamais elle avait besoin de quelqu’un pour parler de ce produit, je le ferais. C’est drôle,
parce que Mop & Glo et tous ces produits disent la même chose sur leur étiquette : c’est ce
qu’ils sont supposés faire, mais ils ne le font pas. Ce produit New Beginning l’a réellement fait
et je ne pouvais croire ça. Depuis neuf mois, j’avais tout tenté avec ces produits nettoyants qui
disent tous la même chose, mais qui en fait se contentent de nettoyer en surface. Mon sol semblait
lavé comme jamais il ne l’avait été depuis neuf mois, parce qu’avant j’enlevais la poussière, la
saleté en surface, mais pas celle qui était incrustée dans le sol. »
3 – Interprétation
Un fil conducteur apparaît au travers de la narration, matérialisé par l’enchaînement des défaites
successives, articulé autour d’un contrat impossible : « Faire ressusciter un objet défunt. » Les
échecs répétés des marques témoignent à la fois d’une absence de compétences face à l’action
(nettoyage en profondeur) et de promesses publicitaires non tenues (surestimation,
fanfaronnades). Le « je ne peux pas y croire », répété deux fois, témoigne du miracle que l’on
attendait depuis longtemps, mais dont on finissait par douter sérieusement. Il exprime le
paradoxe entre une image idéalisée, véhiculée par les publicités (« Ce qui se passe au paradis
des nettoyants ») et la dure réalité d’ici-bas où les performances effectives du produit (« Cela ne
marche pas, mais c’est normal, il n’y a pas de miracle... ») New Beginning apparaît comme le
Sauveur, le Seul capable de tenir les promesses annoncées. Le sens se comprend par une
métaphore mystique : l’annonce de la vie éternelle, les doutes quotidiens du croyant et enfin la
résurrection tant attendue. La connaissance de l’environnement culturel et social de Veronica
apporte une confirmation : elle est un membre pratiquant d’une église catholique locale. Les
valeurs de vérité, de morale et de confiance en l’avenir sont une part importante du cadre
intégrateur qui donne du sens à sa vie.
Source : d’après THOMPSON C., POLLIO H. et LOCANDER W., « The spoken and the unspoken : a
hermeneutic approach to understanding the cultural viewpoints that underlie consumers’
expressed meaning », Journal of Consumer Research, vol. 21, décembre 1994, pp. 432-452.
\/|
$|

C. Domaines d’application
4$

L’analyse des freins et des motivations des acheteurs constitue un premier champ d’application.
By

Ainsi, le processus de consommation a été étudié sous l’angle du scepticisme des consommateurs
vis-à-vis des publicités télévisées et de leur nostalgie du passé ; de même, la participation à un
groupe de discussion sur Internet a été interprétée dans une perspective herméneutique(111).

Conclusion
Nous avons examiné, tout au long de ce chapitre, les techniques qualitatives individuelles les plus
courantes, en commençant par celles fondées sur l’interview en profondeur des individus,
l’interview introspective, pour finir par les investigations phénoménologiques et herméneutique.
Sur le plan méthodologique, ces outils présentent un point commun : ils fondent leurs mesures sur
l’étude de chaque individu pris isolément. Les données obtenues grâce aux interviews sont
directement attribuées à chaque sujet. On cherche à éliminer, durant la collecte, les influences que
pourrait avoir l’entourage du sujet (amis, famille, etc.) sur les réponses ou sur le comportement de
l’individu.
Le chapitre suivant procédera d’une logique inverse. Sa démarche reposera sur la collecte et
l’analyse de données résultant des interactions qui surviennent au sein d’un groupe d’individus.
Test de connaissance
(Cochez une seule réponse par question.)
Q1. Le guide d’entretien comporte :
(1) une série de thèmes précis devant être abordés par l’interviewé
(2) une série de questions vagues laissées à l’appréciation de l’enquêteur
(3) une liste de thèmes servant de canevas pour le déroulement de l’interview
Q2. Un entretien papier-crayon comporte :
(1) une série de thèmes précis devant être abordés par l’interviewé
(2) une série de questions vagues laissées à l’appréciation de l’enquêteur
(3) une liste de thèmes servant de canevas pour le déroulement de l’interview
Q3. L’analyse de contenu permet :
(1) une analyse de l’influence des enquêteurs sur les réponses obtenues
(2) une analyse structurée du discours des interviewés
\/|
(3) une analyse informelle du discours des interviewés
$|
4$

Q4. Le calcul d’une fréquence d’apparition sert à :


(1) comparer les poids respectifs de chaque catégorie
By

(2) comparer les associations entre diverses catégories


(3) comparer la fiabilité du codage de deux interviewers
Q5. L’étude herméneutique prend principalement en compte :
(1) le seul discours individuel en faisant abstraction du contexte
(2) l’histoire, le présent et le projet personnel de l’individu
(3) la situation présente et son environnement culturel, économique et social
Réponses : voir annexes téléchargeables sur www.vuibert.fr

Bibliographie
BLANCHET A., GHIGLIONE R., MASSONAT J. et TROGNON A., Les techniques d’enquête en sciences
sociales, Dunod, 1987.
DICHTER E., Handbook of Consumer Motivations, McGraw-Hill, New York, 1964.
EVRARD Y., PRAS B. et ROUX E., Market : fondements et méthodes des recherches en marketing,
Dunod, 4e édition, 2009.
FREUD S., Totem et tabou, Payot, 1965.
FRISCH F., Les études qualitatives, Éditions d’Organisation, 1999.
GAILLARD C., Jung, PUF, 2001.
GAUZENTE C., et PEYRAT-GUILLARD D., Analyse statistique des données textuelles en sciences de
gestion, EMS, 2007.
GHIGLIONE R., BEAUVOIS J.-L., CHABROL C. et TROGNON A., Manuel d’analyse de contenu, Armand
Colin, 1980.
GUELFAND G., Les études qualitatives. Fondamentaux, méthodes, analyses, techniques, EMS, 2013.
HUBERMAN A. et MILES M., Analyse des données qualitatives, Éd. De Boeck Université, Bruxelles,
1991.
JUNG C. G., Essai d’exploration de l’inconscient, Folio essais, 1964.
KASSARJIAN H. H., « Content analysis in consumer research », Journal of Consumer Research,
vol. 4, juin 1977, pp. 8-18.
LAGACHE D., La psychanalyse, PUF, 2005.
LEBART L. et SALEM A., Statistiques textuelles, Dunod, 1994.
LYOTARD J.-F., La phénoménologie, PUF, 1992. \/|
PELLEMANS P., Le marketing qualitatif, perspective psychoscopique, De Bœck Université, 1998.
$|
WEBER R. P., Basic Content Analysis, Sage University Paper, no 49, 2e éd., Londres, 1990.
4$
By
Chapitre 5

Investigation par interactions en groupe


La société se compose de deux groupes : les raseurs et les rasés.
Lord BYRON

Les techniques de groupe forment la deuxième branche des études qualitatives. Bon nombre d’entre
elles reposent sur des principes de collecte et des modes d’analyse similaires aux méthodes
individuelles : nous retrouverons des termes déjà connus, comme non-directivité, analyse de
contenu, etc.
Il ne faudrait pas pour autant en conclure que l’approche suivie par les techniques individuelles a
été simplement transposée au niveau d’un groupe. Cela tient à deux raisons. D’une part, parce qu’un
\/|
groupe n’est pas égal à la somme des éléments qui le composent : des interactions entre individus
$|
conduisent à des résultats différents. D’autre part, il existe des principes et des hypothèses
4$

spécifiques à certaines techniques de groupe, sans équivalent dans les méthodes d’entretien
individuel.
By

Nous commencerons ce chapitre en exposant les principes généraux des techniques de groupe. Nous
développerons ensuite quatre familles, particulièrement adaptées aux études de marché : le focus
group, le groupe nominal, la créativité et l’idéation, le groupe Delphi (voir figure 5.1.).
Figure 5.1. Plan du chapitre

\/|
$|
4$

I. Principes et objectifs généraux des techniques d’interaction en


By

groupe
Nous présenterons les grandes lignes de différentes familles de méthodes, puis nous comparerons,
dans une perspective d’étude de marché, les techniques de groupe et l’entretien individuel.

A. Panorama des méthodes d’interaction en groupe


En schématisant, on répertorie cinq types de techniques de groupe. Nous les comparons dans la
figure 5.2., selon leurs principes, objectifs, taille et durée(112).
Ces techniques présentent les points communs suivants :
– présence d’un animateur, parfois appelé « modérateur »,
– enregistrement (manuel ou automatisé, audio ou vidéo) des informations échangées durant les
interactions.
Les principales différences concernent les hypothèses sous-jacentes, les domaines d’application
des méthodes, le degré de structuration du groupe, les caractéristiques des membres participants et
la nature des interactions.
Les fondements théoriques des méthodes, ainsi que leurs applications dans le domaine des études
de marché, sont succinctement décrits dans la fiche technique 5.1.
Figure 5.2. Comparaisons des différentes méthodes de groupe

Lieu et
Types de Principes Applications Taille
moment
groupes théoriques et objectifs Durée
d’interaction
Non-directivité de
l’animateur. Présence sur un même

Groupe de Projection de Motivations et freins. lieu physique ;
8 membres.
discussion l’individu. Thérapie de groupe. interactions au même
3 à 4 heures.
Investigation non moment (synchrone).
structurée.
Non-directivité de Formulation Présence sur un même
Variante : 4à
l’animateur. d’hypothèses. lieu physique ;
interview de 8 membres.
Plusieurs thèmes Apprentissage d’un interactions au même
groupe. 3 à 4 heures.
abordés. vocabulaire. moment (synchrone).
Dynamique des
\/|
Recueil d’éléments
groupes
$|
Groupe de d’image. Présence sur un même
restreints. 6 à 12
4$

réflexion Identification des axes lieu physique ;


Investigation semi- membres.
ou d’un problème. interactions au même
structurée. 2 à 4 heures.
Apprentissage d’un moment (synchrone).
By

Focus group
Un seul thème vocabulaire.
familier au groupe.
Recueil d’éléments
d’image.
Identification des axes Présence sur des lieux
Groupe virtuel.
d’un physiques différents.
Investigation
Variante : problème. 6à
structurée.
Focus group Apprentissage d’un Connexion sur un 8 membres.
on line vocabulaire. même site Web et 1 à 2 heures.
Un seul thème
Segmentation d’un interactions au même
familier au groupe.
marché. moment (synchrone).
Choix d’un
positionnement.

Alternance de phases
Présence sur un même 4 membres.
non structurées et Recherche d’idées et
Variante : lieu physique. Demi-
structurées. de solutions.
mini-groupe Interactions au même journée
Groupe familier avec Motivations et freins.
moment (synchrone). à journée
le thème.
complète.
Dynamique des
groupes restreints.
Réduction de la
pression vers la Génération de critères 8 à 12
Présence sur un même
Groupe conformité. de choix d’un produit. membres.
lieu physique.
nominal Investigation très Recueil d’éléments 1 à 2 heures.
Interactions au même
(TGN) structurée. d’image. Plusieurs
moment (synchrone).
Phases de groupe et Recherche d’idées. étapes.
individuelles.
Un seul thème
familier par groupe.
Dynamique des
groupes restreints.
5 à 10
Projection et
Présence sur un même membres.
Groupe psychodrame.
Recherche d’idées et lieu physique. Demi-
de créativité
de solutions. Interactions au même journée
ou d’idéation Expertise des
moment (synchrone). à journée
membres réduite. complète.
Investigation non
structurée.
\/|
$|
Co-création Présence sur des lieux
(innovation). Recherche d’idées et physiques différents. 10 à 30
4$

Variante : Bouche-à-oreille. de solutions. Connexion sur un personnes.


Bulletin Board Proximité d’intérêt Test de concepts. Test même site Web. 3 jours à
By

(communautés de produits. Interactions 1 mois.


virtuelles). asynchrones.
Réseaux sociaux.
Présence sur des lieux Plusieurs
Co-création Recherche
Variante : physiques différents. dizaines à
(innovation). individuelle d’idées
Appel à la Connexion sur un centaines de
et de solutions.
participation Bouche-à-oreille. même site Web. personnes.
Test de concepts. Test
communautaire Proximité d’intérêt Interactions 2à4
(communautés de produits.
asynchrones. semaines.
virtuelles).
Prévision par Présence sur des lieux
l’expertise. physiques identiques
Prévision à long ou
Recherche d’un ou différents. 8 à 12
moyen terme
consensus entre Connexion sur un membres.
Groupe (technologie).
experts. même site ou Plusieurs
Delphi Évaluation d’image
Forte expertise des messagerie étapes.
de marque et critères
membres. électronique. 1 à 3 mois.
de choix.
Investigation très Interactions
structurée. asynchrones.
Prévision par le Présence sur des lieux
leadership d’opinion. physiques identiques 8 à 10
Identification de ou différents.
Variante : Recherche d’un membres.
critères de choix et Connexion sur un
méthode consensus 1 à 2 heures.
évaluation d’image de même site ou
Delphi-leader entre les leaders par Plusieurs
marque. messagerie
itérations étapes.
successives. électronique.
Interactions
asynchrones.
Co-création
Une centaine
(innovation). Recherche de Présence sur des lieux
à un millier
Recherche d’un nouvelles idées de physiques différents.
de
Variante : consensus entre produits (nouveau Connexion sur un
personnes.
Brand-Delphi membres du groupe concept, nouvelles même site Web.
Plusieurs
par votes successifs applications d’un Interactions
étapes. 1 à
(communauté produit existant). asynchrones.
4 semaines.
d’intérêt).

\/|
Fiche technique 5.1. Principes théoriques et application des groupes
$|
1 – Dynamique des groupes restreints
4$

Cette théorie a été initiée par Kurt Lewin(113) et développée dans le cadre de la psychosociologie. Ses travaux
ont montré qu’un groupe développe une dynamique propre, source de synergie : la production totale du groupe
By

est supérieure à la somme des productions individuelles.


La dynamique provient de l’effet de stimulation réciproque exercée par chaque membre du groupe. On dit qu’il y a
interaction entre les participants : une idée ou une opinion émise par une personne amène d’autres personnes à
réagir. Bien canalisé par l’animateur, ce courant permet de faire évoluer l’ensemble du groupe : apparition de
nouvelles idées ou solutions, changements individuels de comportement ou d’attitude pour adhérer au choix du
groupe, forte solidarité entre les membres, etc. La dynamique dépend de plusieurs éléments : qualité des
échanges entre les participants, degré de sympathie réciproque, construction de buts communs, existence d’une
expérience source d’émotions, création de normes et de valeurs communes, établissement d’un système de
relations stables.
Lewin a réalisé en 1943, auprès de ménagères américaines, une expérience restée célèbre. Le problème était de
modifier les habitudes alimentaires des Américains, compte tenu des restrictions dues à la guerre. Le message à
faire passer était de les persuader que les abats avaient les mêmes qualités nutritives que la viande de premier
choix. Les actions de publicité classique échouèrent. Lewin réunit plusieurs groupes auxquels il posa le problème
suivant : « Comment, vu la situation économique, changer les habitudes de consommation de viande ? » Les
ménagères parlèrent de leurs attitudes et comportements face à ces problèmes ; elles prirent conscience que
leur aversion vis-à-vis de ces aliments reposait en fait sur des craintes de nature subjective. Les participantes
s’engagèrent à modifier leurs comportements. Effectivement, 32 % d’entre elles changèrent leurs achats.
2 – Non-directivité
Les principes de non-directivité, développés par Carl Rogers, se sont d’abord appliqués à la conduite d’un
entretien individuel en profondeur. Ici, l’animateur du groupe mène en parallèle plusieurs interviews en
profondeur. Une grande importance est attachée aux comportements individuels au sein du groupe : omissions,
associations spontanées, silences ou brouhaha, attitudes non verbales : expressions du visage, position
corporelle, etc.
Cette approche est intéressante pour les produits dont la consommation est influencée par les « normes »
sociales ou culturelles, ou pour lesquels la consommation représente le signe d’appartenance à une classe
sociale, par exemple les parfums, les voitures ou les vacances. Elle permet de poser des hypothèses, qui seront
ensuite testées par d’autres méthodes quantitatives, ou d’apprendre le vocabulaire utilisé par un groupe.
3 – Projection et psychodrame
Freud a donné deux perspectives à ce concept(114) : dans un premier temps, il l’assimile à une expulsion sur autrui
de sentiments inconscients réprimés par l’individu, puis dans un second temps, il le ramène à une ignorance par le
sujet de désirs et d’émotions dont l’existence est attribuée à des réalités extérieures. Cette technique s’emploie
principalement dans le cadre d’un entretien individuel non directif de type clinique : la projection permet à
l’individu de se « libérer » en débloquant ses inhibitions ou en laissant libre cours à son imagination. L’intérêt du
groupe est d’apporter un soutien « moral » permettant une levée plus rapide et plus complète des peurs et
inhibitions de l’individu. Ces principes sont parfois utilisés de façon marginale dans le cadre d’un focus group.
Le psychodrame constitue l’application la plus connue du « jeu de rôle ». Il a été développé par Moreno durant les
années 1920. Selon ce dernier, l’individu est prisonnier des positions qu’il prend, tant sur le plan familial que
professionnel. Le jeu de rôle permet de se libérer de ses émotions, tout en offrant des possibilités d’entrevoir des
solutions nouvelles (115). L’animateur introduit la situation, encourage et analyse les situations. Chaque membre
joue un rôle imaginaire à partir d’un scénario de départ. À la fin, chacun indique ce qu’il a ressenti durant le jeu.
L’aspect thérapeutique réside dans le fait que le jeu dramatique joué par l’individu lui permet d’évacuer ses
émotions et de mieux comprendre les mécanismes de son comportement habituel, d’où l’apparition d’attitudes
plus souples face aux situations conflictuelles.
Pour une étude de marché, ce type de groupe est utilisable dans deux contextes : pour la recherche d’idées de
nouveaux produits ou de nouveaux usages, et pour les études traitant de thèmes particulièrement tabous pour
lesquels la présomption de blocage est forte : argent, alcool, sexe, hygiène, etc.
4 – Consensus entre experts
\/|
Le principe de base est le recours à l’expertise pour résoudre un problème quelconque, le postulat étant que deux
$|
« têtes » valent mieux qu’une. Par ailleurs, il a été montré qu’un groupe réuni en face-à-face produit difficilement
4$

un consensus de qualité, car chacun joue un rôle prévisible. L’anonymat est donc indispensable. Le consensus
s’obtient progressivement selon un processus de va-et-vient très structuré.
Le groupe Delphi constitue la méthode la plus connue dans cette famille. À l’origine, son application était surtout
By

réservée au domaine de la prévision technologique à long terme. Des adaptations sont possibles pour l’étude
d’image de marque, l’identification de critères de choix. De même, il est envisageable de remplacer les experts
par des leaders d’opinion.
5 – Communauté et réseau social
La communauté traditionnelle chez Aristote renvoie aux habitants d’un village vivant heureux et en autarcie : la
famille, le voisinage ou les compétences individuelles définissent la structure et la nature des liens entre les
individus et créent un sentiment commun d’appartenance, source d’influence. En élargissant, l’appartenance à
une classe sociale, une culture, une ethnie ou un groupe de pairs constituent d’autres sources d’influence du
comportement. Le rôle des groupes de référence a été étudié par Hyman(116), notamment leur capacité à édicter
des normes et valeurs qui s’imposent à leurs membres. Le réseau social(117) ajoute au point précédent la
dimension informationnelle. Par le bouche-à-oreille, l’information se diffuse au sein du groupe, via les liens
existant entre les membres. Internet a permis la création de communautés virtuelles (118) qui mettent en
relation à distance des personnes ayant des passions ou des centres d’intérêt communs sur la consommation de
produits, et reliées entre elles par des plates-formes d’échanges sociaux on line (Facebook, Twitter, etc.). Le
repérage des individus qui jouent un rôle d’influenceur dans ces interactions communautaires (leaders d’opinion)
est un objectif majeur. Les techniques varient sensiblement(119) : observation neutre ou participante (voir
chapitre 6), algorithmes comportementaux, questionnaire individuel d’auto-évaluation. Ces études sont
fécondes pour le marketing communautaire, la communication virale, la recherche de positionnement,
l’identification des critères de choix d’un produit ou d’une marque.
6 – La co-création
Une source d’innovation consiste à associer les consommateurs, en amont ou en aval de la création du produit, à
des opérations de co-création avec l’entreprise : recherche d’idées, développement et test de prototypes,
nouveaux usages et services liés à la consommation de produits (120). Cette co-création utilise principalement le
potentiel offert par les communautés virtuelles, via des plates-formes internet dédiées (121). Les groupes se
mobilisent autour de projets communs, soit de manière autonome, soit en répondant à des appels à contribution
(concours, études) gérés par des instituts d’études spécialisés (ex. : e-Yeka, Innocentive, etc.).

Le degré de structuration des réunions de groupe varie sensiblement selon les techniques :
– Le groupe Delphi, le groupe nominal et le focus group sont les plus structurés et les plus directifs.
Pour les deux derniers, l’animateur dispose d’un « plan d’animation » listant les principaux points à
aborder ; pour le groupe Delphi, il s’agit d’un questionnaire structuré complet.
– Le groupe de discussion, le groupe de créativité, l’interview de groupe sont peu ou pas structurés.
La non-directivité de l’animateur est la règle la plus fréquente.
Les qualités demandées aux participants d’un groupe diffèrent également :
– Expertise relative au problème à résoudre : elle est vitale pour la réussite du groupe Delphi.
– Familiarité préalable avec le problème posé ou le sujet de la réunion : elle est requise pour
participer à un groupe de discussion, un focus group, un groupe nominal ou un mini-groupe.
– Distance par rapport au sujet de la réunion : elle est nécessaire pour la plupart des groupes de
créativité.
Enfin, la nature et le lieu des interactions entre les participants sont variables :
\/|
– Réunion dans un même lieu et au même moment : groupe de discussion, focus group traditionnel,
$|
groupe nominal et groupe de créativité.
4$

– Réunion dans des lieux différents (mais connexion à un même site internet) et au même moment :
focus group on line.
By

– Réunion dans des lieux différents (mais connexion à un même site internet) à des moments
différents : Bulletin board, méthode Delphi et ses variantes.

B. Réunion de groupe ou entretien individuel ?


Il est difficile de répondre à cette question avec précision, car on dispose de peu d’éléments
solides pour trancher. Ainsi, différents travaux ont révélé que bon nombre de points,
traditionnellement avancés par les partisans des méthodes de groupe, étaient invalidés par
l’expérimentation(122). Par exemple, il a été montré que le fait de disposer d’un animateur de groupe
qualifié n’est pas nécessaire, et peut même se révéler désavantageux pour la production d’idées(123).
De même, en dépit de l’effet de dynamique des groupes, le nombre total d’idées générées par un
groupe reste souvent inférieur à celui produit par les individus pris isolément. La figure 5.3
propose une synthèse des avantages et inconvénients, fondée sur les résultats de ces travaux.
Figure 5.3. Comparaison entretien individuel et groupe

Évaluation Entretien individuel Entretien de groupe


Rapidité de recueil.
Facile à organiser.
Degré de qualification modéré pour
Génère plus d’idées que le groupe.
Avantages l’animateur.
Climat favorable à la livraison
Les solutions adoptées en groupe sont
d’informations intimes.
plus facilement appliquées.
Pression vers la conformité.
Intervieweur qualifié.
Effet de leadership.
Inconvénients Coût financier.
Difficile à organiser (salle spécifique,
Durée de collecte élevée.
rendez-vous, etc.).

L’avantage majeur de l’entretien individuel est d’ordre pratique : il est plus facile à organiser
qu’une réunion de groupe. De plus, le matériel nécessaire est moindre : la vidéo n’est pas requise,
puisqu’il n’y a pas à suivre les interactions non verbales entre individus. Le lieu de l’entretien
individuel est flexible : domicile du répondant, sur le lieu de travail, dans les locaux de la société
d’étude. Enfin, les entretiens individuels permettent généralement d’obtenir une information plus
précise et, selon le cas, plus profonde, que les méthodes de groupe.
\/|
La réunion de groupe offre un recueil rapide d’informations pour un coût raisonnable. Elle est
$|
particulièrement adaptée aux produits dont la consommation est soumise à l’influence
4$

interpersonnelle : voitures, parfums, vêtements, cigarettes, vacances, etc. On détecte ainsi plus
facilement l’existence de normes sociales ou de tabous communs.
By

En synthèse, nous dirons que la réunion de groupe permet une récolte d’informations large et
rapide ; de son côté, l’entretien individuel favorise la détection des freins et des motivations
profondément enracinées dans les individus. Mais l’inconvénient majeur de la réunion de groupe
réside dans la pression vers la conformité exercée par les membres du groupe sur l’individu
« déviant » (voir flash-étude 5.1.). Pour l’entretien individuel, l’obstacle majeur réside dans le coût
lié au recrutement, difficile, d’enquêteurs qualifiés.
Flash-Étude 5.1.
Pression vers la conformité dans un groupe
« On demanda à un groupe de huit individus de juger une série de relations perceptuelles simples
et clairement structurées, à savoir ‘‘trouver, parmi trois lignes inégales, celle qui correspond à la
longueur d’une ligne donnée’’. Chaque membre du groupe annonce publiquement son jugement.
Au cours de cet exercice monotone, un individu se trouve soudainement en contradiction avec le
reste du groupe, et cette contradiction se répète tout au long de l’expérience. Le groupe en
question avait, à l’exception d’un de ses membres, préalablement rencontré l’expérimentateur et
reçu des instructions pour répondre à certaines questions avec un jugement faux et unanime. Les
erreurs étaient importantes (variant entre 1,5 cm et 4,5 cm) et présentées aléatoirement. La
personne principale – sujet critique – que nous avions placée en position de minorité totale face
à une majorité unanime, était l’objet de l’expérience. Elle se trouvait, peut-être pour la première
fois de sa vie, face à une situation dans laquelle un groupe contredit de manière unanime
l’évidence de ses sens [...]
Les résultats quantitatifs [de l’expérience] sont clairs et sans ambiguïté. Il existe un mouvement
marqué vers la majorité : un tiers de toutes les estimations des sujets critiques sont identiques
aux erreurs ou dans la direction des estimations erronées des groupes. Ceci est largement
significatif en comparaison de ce que l’on a observé dans le groupe de contrôle où les individus
\/|
enregistraient leurs évaluations par écrit. [...] À titre d’illustration, nous donnons une brève
$|
description d’un individu indépendant, puis d’une personne ayant suivi le groupe.
4$

Indépendant : après plusieurs essais, il apparaît perturbé, hésitant. Après l’essai no 4, il se


tourne vers le premier membre du groupe, secoue la tête et murmure à son voisin : « Je ne peux
By

croire ça, c’est 1.’’ Sa dernière réponse vint dans un murmure, accompagnée d’un sourire
désapprobateur.
Suiveur : ce sujet suivit la majorité 11 fois sur 12. Il apparut nerveux et quelque peu confus,
mais il ne chercha pas à éviter la discussion : au contraire, il était bien intentionné et cherchait à
répondre du mieux possible. Il ouvrit la discussion avec ce jugement : ‘‘Si j’avais commencé,
j’aurais probablement changé.’’ Il perçut la majorité comme un groupe décidé, agissant sans
hésitation : ‘‘S’ils avaient manifesté quelques doutes, j’aurais probablement changé d’avis, mais
ils répondaient avec tant d’assurance...’’ »
Source : Extraits traduits de ASCH S., « Effects of group pressure upon the modification and
distortion of judgments », in KASSARJIAN H. H., Perspectives in Consumer Behavior, Éd. Scott,
Foresman and Co., Glenview, Illinois, 1973, pp. 315-324.

II. Focus group


Le groupe de réflexion, ou focus group, est la méthode de groupe qui est la plus pratiquée aux États-
Unis. En France, son utilisation tend à devenir de plus en plus fréquente, car cette technique couvre
un large éventail de questions d’études de marché : recueil d’éléments d’image de marque,
apprentissage d’un vocabulaire pour préparer un questionnaire, observation de situations de
consommation, test de packaging, évaluation de publicités, etc. Nous commencerons par présenter
la mise en œuvre d’un focus group traditionnel (constitution du groupe, encadrement, animation et
analyse), puis nous terminerons par la pratique des focus groups on line, administrés via Internet.

A. Constitution du groupe
Deux questions principales se posent : qui réunir et combien ?

1. Taille du groupe
La taille optimale est de 7 à 10 personnes (voir figure 5.4.). Cela permet à l’animateur,
éventuellement assisté d’un observateur, de faire parler plus librement chacun des participants. Des
groupes de taille inférieure sont fortement sensibles au charisme d’un leader éventuel. Un effectif
supérieur à 10 personnes ne permet pas à chaque personne de s’impliquer vraiment, ou alors
l’animateur doit procéder à d’épuisants, et souvent stériles, « tours de table ».
Figure 5.4. Constitution d’un focus group

Questions Points de vue possibles Notre recommandation


Taille 5 à 12 personnes. 7 à 10 personnes.
\/|Intérêt commun dans le produit.
Intérêt commun dans le produit. Hétérogénéité, si créativité recherchée.
$|
Composition Proximité sociale, style de vie proche Brassage modéré, si évaluation de
4$

ou mélange des origines ? produits.


Proximité, si sujet intime abordé.
By

2. Recrutement et composition
Il est préférable que les individus soient homogènes sur certaines caractéristiques, par exemple le
degré d’intérêt pour une catégorie de produits, et légèrement hétérogènes sur d’autres, comme l’âge
ou les revenus. Sauf cas particuliers (étude d’une décision d’achat en couple), les hommes et les
femmes ne sont pas mélangés dans un même groupe, pour éviter un blocage sur les statuts respectifs
de la femme ou de l’homme.

Exemple
Un fabricant s’interroge sur l’opportunité d’une lessive à base de composants
entièrement naturels. En matière de choix de lessive, les femmes jouent un rôle
prépondérant dans le foyer. On pourra réunir ainsi un groupe de quatre ménagères
sensibles à la protection de l’environnement et quatre qui ne le sont pas, en faisant
varier les âges, niveaux d’éducation et autres caractéristiques personnelles dont on
suppose qu’elles peuvent avoir une incidence sur les attitudes en matière de lessives.
Il faut éviter que les participants d’un même « clan » se placent les uns à côté des autres, pour
éviter les apartés. De même, les « habitués » des entretiens de groupe doivent être éliminés, car ils
ont tendance à se comporter comme des experts, en prenant la discussion à leur compte. Enfin, lors
du recrutement, le thème de la discussion est plutôt formulé en termes vagues, pour des raisons de
spontanéité.
Le recrutement d’un groupe se heurte à deux difficultés majeures : l’acceptation du principe de la
réunion et la participation effective. En effet, si on élimine les « professionnels » des entretiens de
groupe, le chargé d’études doit être un bon vendeur pour que l’effectif minimum prévu soit présent
le jour et à l’heure dite. Pour cela, il peut motiver les participants éventuels en s’appuyant sur des
éléments tangibles (intérêt pour le thème de la réunion, rémunération) ou intangibles (satisfaction
intellectuelle, plaisir de donner son avis et d’apprendre, curiosité, valorisation sociale, etc.)(124). La
figure 5.5. propose quelques recommandations complémentaires.
Figure 5.5. Motiver et contrôler la participation des individus à un groupe

Comment convaincre de Comment réduire les


participer ? défaillances ?
– Plus un groupe est difficile à recruter, plus il
– Dédommagement financier : participation faut sur-recruter pour pallier aux désistements :
\/|
financière, plus frais de déplacement et de garde prévoir en général de 20 % à 30 %
d’enfants ; prévoir un cadeau en sus. d’interviewés supplémentaires. Attention à
$|

– Plaisir d’être écouté, de donner son avis : certaines cibles difficiles : retraités
4$

valorisation des participants. (ponctualité), cadres dirigeants, médecins, etc.


– Plaisir d’apprendre, de se distraire : mettre en – Confirmation par écrit de l’accord verbal :
By

avant la qualité de l’animation, l’ambiance l’institut rappelle le jour, l’heure, les moyens de
détendue et harmonieuse. transport, envoie un plan et des remerciements.
– Recrutement par relation : utiliser le Cette lettre insiste sur le caractère impératif de
parrainage des participants précédents. la participation, l’importance de la ponctualité,
– Appui du client : lettre de couverture du client rassure et rappelle le sujet du débat.
qui crédibilise la participation. – Rappel téléphonique le jour précédant la
réunion.
Source : FRISCH F., Les études qualitatives, Éditions d’Organisation, 1999, pp. 48-54.

3. Durée, contraintes matérielles, rémunération


La durée standard d’un focus group est d’une demi-journée, soit environ 2 à 4 heures. Il est
préférable que la réunion se déroule en un lieu neutre pour les répondants, équipé pour la
circonstance d’un circuit vidéo. Les locaux de la société chargée de l’étude représentent souvent un
bon compromis.
L’usage veut que les participants soient indemnisés, soit en numéraire, soit sous forme de cadeaux
ou de bons d’achats. En France, les tarifs sont de 30 euros pour un adolescent, 40 à 50 euros pour
un consommateur standard, 60 à 80 euros pour un recrutement plus ciblé (population rare,
professionnel non cadre), 120 euros pour un médecin généraliste et 220 euros pour un
spécialiste(125). Ce niveau de rémunération, relativement élevé, pose un véritable problème
d’éthique, puisque certaines personnes (chômeurs, femmes au foyer, jeunes médecins) finissent par
devenir de véritables « professionnels des réunions ». Inscrits sur les fichiers des cabinets d’études
et déclarant utiliser toutes sortes de produits, ils sont trop souvent consultés.

4. Enjeux
Malgré les précautions et recommandations précédentes, force est de constater que la qualité du
recrutement des participants pour une étude qualitative en général, et plus particulièrement pour une
réunion de groupe, est devenue un enjeu crucial pour les instituts d’études. D’un côté, les
« toujours volontaires » ont toutes les chances d’être des professionnels de la réunion de groupe.
De l’autre, les consommateurs éligibles ne sont généralement pas disponibles ou motivés pour
participer.
La professionnalisation des membres est un sujet délicat. Face à ce risque, plusieurs réponses
existent(126) :
– constitution d’un contre-fichier qui permet de savoir si un consommateur a déjà participé à une
réunion dans l’année. Ce fichier géré par le Syntec n’est cependant pas toujours une panacée, car
les consommateurs professionnels empruntent souvent plusieurs identités ;
– liste noire de consommateurs identifiés comme « professionnels ». Cette solution n’est pas
possible juridiquement, car contraire aux directives de la CNIL ; elle ne peut être utilisée que de
\/|
manière informelle ;
$|

– recrutement par Internet dans des viviers de volontaires : il permet de repérer et d’éliminer les
4$

éventuels consommateurs professionnels ;


By

– renouvellement des consommateurs potentiels, via le parrainage : chaque participant à une


réunion donne le nom de connaissances susceptibles de participer. Une autre solution consiste à
profiter d’enquêtes quantitatives pour proposer à des consommateurs de faire partie de réunion de
groupes. Le recrutement à partir d’appels sur un fichier aléatoire est possible, mais coûteux ;
– rémunération assez basse (par exemple 30 euros pour 4 heures) : dans ce cas, les consommateurs
professionnels qui ont connaissance du prix moyen des rémunérations sont démotivés par la
faiblesse du gain (ou se font repérer par leurs remarques sur la faiblesse de l’incentive).

B. Encadrement
1. Rôle et caractéristiques de l’animateur
Il n’est pas indispensable que l’animateur (parfois appelé modérateur) du groupe ait une formation
approfondie en psychosociologie. Dans certains cas, cela peut même limiter les capacités créatives
du groupe(127). Cela dit, il est nécessaire qu’il dispose d’une bonne pratique des réunions et évite de
rendre le groupe dépendant de ses interventions.
Les qualités essentielles d’un bon animateur sont les suivantes(128) : amabilité et empathie pour
accueillir chaleureusement et encourager les participants tout au long de la réunion, fermeté pour
faire respecter les consignes de base, implication et fausse naïveté pour faire approfondir les
jugements, flexibilité pour s’adapter à des situations inattendues, intuition pour alterner les niveaux
de discussion (rationnel vs émotionnel) durant les phases de l’entretien.
Compte tenu du caractère semi-structuré d’un focus group, l’animateur se limite à (ré)orienter le
groupe sur le thème de la discussion et, en cas de dérive, à le recentrer sur le guide d’entretien. Il
veille par ailleurs à équilibrer les rôles au sein du groupe entre les leaders naturels, qui ont
tendance à monopoliser la parole, et les suiveurs, au comportement réservé et conformiste. La
figure 5.6. résume les missions de l’animateur d’un groupe.
Figure 5.6. Fonctions de l’animateur d’un groupe

Formule le problème à résoudre, précise la situation de départ, énonce les


hypothèses.
Produire Ne propose pas de solutions.
Centre la discussion sur les points majeurs du guide d’interview.
Improvise pour approfondir un point inattendu.
Fait le point régulier sur le travail du groupe.
Hiérarchise les problèmes posés.
Aider
Reformule les points obscurs.
Suscite des opinions contraires. Relance le débat.
Recherche les causes de blocage du groupe.
\/|
Évite les tensions et les peurs.
Moduler
$|
Contrôle les leaders.
4$

Accepte les piétinements du groupe.


By

2. Rôle et caractéristiques de l’observateur


L’observateur n’est utile qu’en l’absence de vidéo ; sa présence facilite l’analyse des résultats,
grâce aux observations faites durant la réunion.
Il est, si possible, isolé visuellement, de manière à pouvoir saisir les langages non verbaux du
groupe : gestes, non-dits, hésitations, postures, apartés. Si l’observateur est présent dans la salle, on
recommande qu’il soit du même sexe que la majorité des membres du groupe. Dans le cas de
produits traitant de sujets personnels (argent, hygiène, etc.), il est préférable de se passer
d’observateur pour éviter d’accroître les phénomènes de blocage.

C. Supports et techniques d’animation


1. Guide d’animation
Ce guide est un « pense-bête » qui permet à l’animateur de s’assurer que l’ensemble des facettes du
thème étudié a été abordé au cours de la discussion. Sa construction s’apparente à celle du guide
d’entretien individuel semi-directif ou « papier-crayon » (voir fiches techniques 4.2. et 4.3.).
Cependant, le déroulement d’une réunion est plus imprévisible, compte tenu de l’alchimie propre à
chaque groupe : certains sont difficiles à « chauffer » et plus réservés, d’autres partent dans toutes
les directions. L’animateur doit parfois improviser pour s’adapter à chaque session.
D’une façon générale, un guide d’animation comporte quatre parties(129) :
a. Introduction
Elle précise le thème général de la réunion, les raisons d’un éventuel enregistrement ou de la
présence d’un observateur, les consignes à respecter et les conditions de prise de parole. Ceci peut
être réalisé de la façon suivante :
« Tout ce que vous pensez est important : il n’y a pas de bonnes ou de mauvaises réponses : dans
l’idéal, dès que quelque chose vous traverse l’esprit, n’hésitez pas à nous en faire part. Pour
intervenir, il n’est pas nécessaire de lever la main, mais, s’il vous plaît, il n’est pas possible de
suivre deux conversations à la fois ; alors si vous pensez à quelque chose pendant que quelqu’un
d’autre parle, attendez une minute, faites-moi un petit signe, je vous donnerai la parole dès que
possible... »

b. Balayage général
Les thèmes situés à la périphérie du sujet, tels que l’environnement du marché, les produits à succès
ou les échecs récents, les modes de consommation sont recensés. Par exemple, pour une étude sur
les freins et les motivations du renouvellement d’un abonnement à une revue professionnelle, les
\/|
thèmes prévus étaient les suivants :
$|
« Nous nous intéressons aux journaux que vous lisez régulièrement pour votre travail, pour vous
4$

informer, vous tenir au courant des publicités, des nouveaux produits... Pouvez-vous nous dire
comment vous les lisez ? Les lisez-vous par nécessité, par plaisir ? Les lisez-vous en profondeur ou
By

êtes-vous accroché par quelques titres ? Quelle est la durée de vie de la plupart des choses que
vous lisez ? (Stockage, archivage de l’information ?) Qui, dans votre entreprise, décide des
abonnements ? »

c. Centrage et approfondissement du sujet


Le véritable objectif de la réunion n’est révélé que lorsqu’un bon climat s’est installé dans le
groupe. Le guide liste les questions cruciales devant être abordées. Dans l’exemple précédent, les
questions prévues tournaient autour des points suivants :
« Nous allons maintenant nous concentrer sur un titre particulier : Sales & Marketing Management.
Vous le connaissez tous, mais dites-moi comment l’avez-vous connu ? L’avez-vous trouvé en
arrivant dans votre nouveau job ou l’avez-vous vous-même commandé ? Qui décide du
renouvellement de l’abonnement ? Comment cela se passe-t-il ? Qu’est-ce qui vous plaît le plus
dans ce magazine ? En termes de rapport qualité/prix comment situeriez-vous Sales & Marketing
Management parmi les autres revues ? Lisez-vous toujours ce magazine ? Quelles idées avez-vous
déjà mis en application ? »
d. Conclusion et compléments éventuels
Une bonne procédure consiste à faire résumer directement par les membres du groupe les temps
forts de la discussion.
2. Déroulement de la réunion
Les participants s’organisent en cercle, dont l’animateur fait partie intégrante. L’observateur reste à
l’extérieur, généralement dans une autre pièce, d’où il observe le déroulement de la réunion par le
biais d’une glace sans tain ou d’un circuit vidéo interne.
Il est impératif que le groupe soit isolé du « reste du monde » le temps de la réunion : personne ne
rentre dans la pièce et le téléphone est débranché. Après un accueil sympathique visant à favoriser
les contacts (rafraîchissements, légère collation, etc.), l’animateur démarre la réunion par la
première question du guide d’entretien. Cette question permet en même temps au groupe de se
former, et sert, en quelque sorte, d’échauffement.
Ensuite, toute l’habileté de l’animateur consiste, au moyen de ses reformulations, à centrer
progressivement la discussion sur le thème choisi, en se fondant sur le guide d’interview prévu.
Nous retrouvons là la plupart des principes généraux utilisés pour la conduite d’un entretien semi-
directif. Mais l’écueil majeur à éviter durant la réunion est la monopolisation de la parole par un ou
deux leaders qui contaminent les opinions du reste du groupe ou réduisent la production de
jugements contraires. À l’inverse, les participants discrets, ou timides, doivent être encouragés,
voire privilégiés par l’animateur tout au long de la réunion. Le flash-étude 5.2. décrit les quatre
types de participants que l’on rencontre le plus souvent dans une réunion de groupe.
\/|
Flash-Étude 5.2.
$|
4$

Les profils de participation à une réunion de groupe


L’animateur d’un focus group doit s’attendre à rencontrer quatre types de participants à une
By

réunion de groupe. Le type A est consciencieux : il envisage la réunion comme un moment de


travail où il doit se montrer actif, et se sent valorisé par la réflexion et le fait qu’on lui demande
son avis ; parfois pontifiant, car il recherche l’approbation de l’animateur et des « collègues », il
estime normal d’être rémunéré. Le type B est sociable : intéressé par l’ambiance, la réunion est
un moment de détente agréable, un temps de liberté ; il recherche la convivialité et l’intimité ; il
joue le jeu, répond sans retenue, mais comme il a parfois tendance à s’enflammer, l’animateur
devra le recadrer régulièrement ; il accepte la rémunération, mais il n’est pas venu
prioritairement pour cela. Le type C est un poids mort qui ne s’investit pas dans le thème de la
réunion ; soit apathique, soit multipliant les apartés, il est venu pour la rémunération. Le type D
est curieux ; si le thème l’intéresse, il s’investit à fond, mais s’il est déçu, il se mettra en retrait ;
la rémunération est secondaire, mais il considère qu’elle le dédommage du temps perdu.
Source : HERBERT M., « Réunion de consommateurs : comprendre les motivations de la
participation »,
Décisions Marketing, vol. 36, 2004, pp. 27-38.

La figure 5.7. récapitule les objectifs des différentes phases d’une réunion de groupe. Le travail du
modérateur est de veiller à ce que celles-ci s’enchaînent harmonieusement, en respectant les thèmes
prévus dans le guide d’animation.
Figure 5.7. Objectifs des différentes phases d’un focus group

Phase 1 – Établissement d’un sentiment de sécurité entre les participants : faire connaissance et
éviter que les participants soient sur la défensive.
Phase 2 – Acquisition d’une confiance mutuelle : chacun s’exprime librement, expose ses idées
et jugements avec un temps de parole équivalent.
Phase 3 – Naissance du débat : exposés des thèses et antithèses, constitution du groupe par
affrontements et concessions.
Phase 4 – Coopération et progression vers la recherche d’un consensus ; autocontrôle du groupe
sur la gestion des incidents négatifs, directivité réduite de l’animateur.
Phase 5 – Synthèse des moments forts et conclusion.

Source : Adapté d’ANDREANI J.-C., « L’interview qualitative marketing », Revue française du marketing, nos 168-169, 1998, 3-4,
pp. 7-37.

D. Analyse des résultats


L’analyse comporte un grand nombre de points communs avec celle utilisée pour l’entretien
individuel ; seules les particularités de l’entretien de groupe seront présentées.
\/|
1. Fiche de groupe
$|
L’animateur ou l’observateur notent, juste après la réunion, les informations permettant de situer
4$

l’entretien. Ces renseignements seront utiles lors de l’analyse de contenu et permettront de situer
rapidement l’entretien :
By

– heure, jour, lieu, durée de l’interview,


– nombre de participants,
– composition du groupe (fiche signalétique pour chacun des membres),
– place autour de la table,
– ambiance générale, identification des leaders et des suiveurs,
– problèmes particuliers rencontrés (blocages, incidents, etc.).

2. Mise à plat
Les différentes réunions de groupe sont enregistrées (caméra vidéo et magnétoscope), puis
transcrites manuellement sur un support papier. La bande vidéo enrichit l’analyse, en prenant en
compte les informations non verbales, telles que les sourires, les expressions du visage, la position
du corps, etc.

3. Analyse de contenu
La feuille de synthèse est un peu plus délicate à établir que pour un entretien individuel. Il faut en
effet déterminer si l’on effectue l’analyse au sein de chaque groupe, ou si l’on considère, selon la
théorie de la dynamique des groupes, que chaque groupe correspond à une seule observation. Dans
le domaine des études de marché, la plupart du temps, les deux analyses se superposent. Pour le
reste, la technique d’analyse de contenu est similaire à celle que nous avons exposée pour
l’entretien individuel. Nous proposons, dans la figure 5.8., un modèle simplifié de fiche d’analyse.
Figure 5.8. Fiche simplifiée d’analyse du contenu d’un groupe

4. Rapport de synthèse
L’établissement de ce document est similaire à celui d’une analyse qualitative individuelle. La
seule différence notable est la possibilité de proposer à l’entreprise quelques images, pour
permettre une meilleure compréhension des points essentiels du rapport.
\/|
$|

E. Focus group on line


4$

Le développement d’Internet a rendu possible l’animation de groupes situés dans des lieux
By

différents et connectés simultanément sur un même site Web, tenant lieu de « salle de réunion
virtuelle »(130). Les premiers focus groups on line sont apparus en France au début des années 2000.

1. Mise en œuvre
Le fonctionnement est analogue à celui d’un focus group en face-à-face. La différence essentielle est
que les participants ne se voient pas. Quelques jours avant la session prévue, le chargé d’études
envoie un e-mail aux participants pressentis, en précisant l’adresse du site Web, le mot de passe, le
jour et l’heure de la réunion. Les individus sont accueillis dans une « salle d’attente », puis passent
dans la « salle de réunion ». Le client dispose d’une salle propre d’où il peut suivre les échanges et
intervenir auprès de l’animateur (voir figure 5.9).
Figure 5.9. Déroulement d’un focus group on line

a. Salle d’attente
L’invité pénètre dans la « salle d’attente ». Il remplit un questionnaire d’identification (nom,
adresse, âge, profession, type de navigateur utilisé, marque de micro-ordinateur et autres questions
de situation) qui permet au modérateur de vérifier que cette personne est bien celle qui a été
conviée. Chacun fait connaissance avec les autres membres, les prénoms apparaissant sur les
\/|
écrans. Lorsque l’ensemble des invités s’est connecté, l’animateur bascule les membres dans la
$|
salle de réunion.
4$

b. Salle de réunion
By

Le modérateur expose le but de la réunion et invite chacun à se présenter. Les vingt dernières lignes
des messages des participants apparaissent avec un code couleur personnalisé sur les écrans des
participants et du modérateur. Elles disparaissent peu à peu, selon le flux et la rapidité des
échanges ; un bouton permet éventuellement de revenir en arrière, pour retrouver des propos
antérieurs. La transmission des messages est fonction de l’encombrement du réseau, mais un délai
de 2 à 5 secondes est courant. On peut télécharger des photos ou des dessins numérisés, faire
visionner des pages Web – voire de petits films vidéo – mais la durée de transmission est très
variable selon l’encombrement du réseau et le débit propre à chaque connexion des participants.
L’animateur dispose de messages préprogrammés, généralement des phrases tirées du guide
d’entretien et des relances standardisées. Il peut interroger individuellement chaque membre, soit
directement (la question est visible sur tous les écrans), soit en aparté (la question apparaît sur le
seul écran de la personne concernée). De même, chaque participant dispose d’une fonction
d’interrogation directe du responsable du groupe (la question apparaît sur le seul écran de
l’animateur). Enfin, en cas de problème (si un participant ne respecte pas les consignes ou tient des
propos condamnables, etc.), l’animateur peut à tout moment le déconnecter du groupe.
c. Salle des clients
L’acheteur peut assister au déroulement de la réunion, en suivant les échanges sur son micro-
ordinateur. Il dispose d’une communication directe avec l’animateur pour suggérer, le cas échéant,
des questions ou lui faire part de ses remarques.
Les praticiens recommandent de limiter la taille d’un focus group on line à 6 ou 7 membres. La
durée d’une session varie de 1 heure à 1 heure 30 : elle est nettement plus réduite que pour un
groupe en face-à-face. L’analyse des données se fait à partir des verbatims de la session, aucune
saisie n’étant nécessaire : les discours peuvent être intégrés directement dans un logiciel d’analyse
textuelle, d’où une quasi-automatisation du traitement.

2. Évaluation
L’avantage majeur d’un groupe on line est son coût réduit : pas de frais de déplacement des
participants, pas de coût de transcription des données, des frais de location de salle informatique
réduits. En revanche, la validité des groupes en ligne reste à établir. L’absence de dynamique de
groupe, la suppression des signes de communication non verbaux, l’implication relativement faible
des participants, l’impossibilité matérielle de savoir réellement qui est qui (il est tout à fait
possible de s’inventer une identité) réduisent l’intérêt de tels groupes(131). Par ailleurs, le clavier
limite sensiblement la vitesse et la quantité d’informations échangées, tant que les systèmes de
reconnaissance de la parole ne seront pas banalisés.
En contrepartie, le groupe en ligne réduit le biais de leadership et les participants timides
s’expriment plus facilement ; l’anonymat facilite la mise au jour des freins et inhibitions sur des
sujets tabous. Par ailleurs, la privation des sens (ouïe et vue) donne une meilleure concentration sur
les textes échangés qui de, surcroît, restent visibles assez longtemps. Enfin, la généralisation des
\/|
Webcam rend possible l’observation à distance des comportements du groupe, sur un mode
analogue à celui de la téléconférence. La figure 5.10. résume les avantages et limites d’un groupe
$|
on line par rapport à un groupe en face-à-face.
4$

Figure 5.10. Avantages et limites d’un groupe de discussion on line


By

Avantages Limites
– Anonymat : réduction des inhibitions
– Disparition des signes de communication non
des interviewés.
verbaux.
– Effet de leadership limité.
– Contrôle de l’identité réelle des participants.
– Biais d’animation modéré.
– Contraintes du clavier : perte de spontanéité,
– Gains de temps : distances abolies, possibilité
lenteur de saisie, réduction des interactions
de mener plusieurs groupes en parallèle.
entre participants.
– Frais réduits : absence de frais de
– Durée du groupe limitée (1 heure à
déplacement.
1 heure 30).
– Traitements des données automatisables
– Formation spécifique des animateurs.
(analyse lexicale, lexicologie).
– Nécessité d’un guide d’animation plus
– Possibilité de constituer des groupes sur une
structuré.
base nationale, voire internationale.

De leur côté, les praticiens considèrent que le groupe en ligne complète mais ne se substitue pas au
groupe traditionnel. S’il présente des avantages ceux-ci sont contrebalancés par nombre
d’inconvénients (voir flash-étude 5.3.). De fait, force est de constater, qu’à la différence des études
quantitatives, la pénétration des études qualitative on line reste modérée dans les instituts
d’études(132).

Flash-Étude 5.3.
Le focus group on line : le point de vue des praticiens
Dans l’ensemble les praticiens considèrent que les avantages d’un focus group on line sont réels,
mais limités. Tout d’abord le focus group en ligne n’est pas une simple transposition de la
version en face-à-face. Dans la forme traditionnelle, la dimension interpersonnelle permet de
réagir aux perceptions, alors que sur Internet, le discours est plus typé, tous les sens ne peuvent
pas être sollicités (le toucher est absent) et l’expression non verbale est exclue. Cela se
concrétise par trois inconvénients : un ressenti moindre qu’en face-à-face, moins de spontanéité
et de richesse dans des échanges contraints par la forme écrite, et impossibilité de relancer, en
cas de réponse à côté. Certains déconseillent le qualitatif on line dans des phases d’exploration
d’idées ou alors proposent de le mixer avec le face-à-face ou le téléphone. Néanmoins, ils
reconnaissent que la méthode offre des avantages. D’abord le coût d’un groupe on line est
moindre qu’un groupe en face-à-face, mais l’économie est relativement réduite, de l’ordre de
15 %. Ensuite, il s’adapte à tous les secteurs d’activité, notamment ceux liés aux nouvelles
technologies, à la téléphonie, etc. Enfin, il permet de réunir des personnes éloignées
\/|
géographiquement ou des cibles difficiles à réunir en face-à-face (experts, adolescents). Cette
$|
grande souplesse simplifie la logistique et réduit les coûts de déplacement. Néanmoins, il n’est
4$

pas possible de s’adresser à tous les types de population. Les plus modestes et le quatrième âge
sont exclus, les premiers parce qu’ils ne disposent pas d’une capacité à interagir suffisante, les
By

seconds parce qu’ils ne sont pas familiers de l’outil.


Source : Adapté d’HEURTEBISE C. et MÉOT V., « Les études quali en ligne prennent du galon »,
Marketing Magazine, no 151, 01/09/2011. Pour un point de vue sur l’organisation pratique d’un
focus group on line, voir par exemple : http://www.theinnovation.eu/article/96.

III. Pratique d’un groupe nominal

A. Principes généraux
La technique du groupe nominal (TGN) se différencie du focus group par son caractère nettement
plus structuré. Son objectif prioritaire est la production du plus grand nombre d’idées et d’opinions.
Les utilisations les plus courantes de la méthode sont mentionnées dans la figure 5.11.
Figure 5.11. Applications de la méthode TGN

– Recherche et évaluation d’idées nouvelles (produit, service).


– Connaissance des informations recherchées par le consommateur avant un achat.
– Apprentissage d’un vocabulaire technique ou d’expressions utilisées par un segment de marché.
– Génération et identification de critères de choix d’un produit ou service utilisés par l’acheteur.
– Recensement des utilisations (actuelles ou potentielles) d’un produit ou d’un service.

B. Fonctionnement
Huit à dix personnes sont réunies dans une salle comportant un grand tableau visible de tous. Le
principe de base de la méthode consiste à alterner les phases de réflexion individuelle et la
discussion de groupe. L’animateur gère l’enchaînement de ces séquences.
La durée totale d’une session varie entre 30 et 60 minutes. Durant la réunion, les membres du
groupe utilisent, en guise de questionnaire, une grille de réponse établie à l’avance. La fiche
technique 5.2. donne un exemple de grille utilisée pour recueillir les critères de choix retenus par
des jeunes cadres pour acheter une voiture.
Bien que plusieurs variantes de la méthode existent(133), elles se fondent toutes sur un mélange de
phases individuelles et de groupe. Nous proposons la démarche suivante :
\/|
$|

1. Phase individuelle : génération d’idées


4$

L’animateur démarre la réunion en proposant une question, ou un sujet de réflexion relatif au thème
By

de l’étude. Il est préférable de n’aborder qu’un seul thème par session.

Exemple
– Qu’attendez-vous d’un hôtel pour vos vacances ?
– Quels sont les critères de choix que vous utilisez pour l’achat d’une voiture ?
– Comment rester en forme toute l’année ?

Après cette brève introduction, les membres du groupe sont invités à réfléchir individuellement et à
noter sur la grille de réponse l’ensemble des idées qui leur traversent l’esprit. Cette étape se fait en
silence, sans aucun échange entre les membres du groupe. Sa durée varie en fonction de la
complexité et de la richesse du thème proposé, dans une fourchette allant de 5 à 20 minutes.

2. Phase de groupe : mise en commun des idées


L’un des participants, choisi au hasard par l’animateur, donne oralement l’une des idées figurant sur
sa feuille. Cette idée est répertoriée (i.e. codée) par l’animateur et notée sur un tableau, visible de
tous. À tour de rôle, chacun des participants énonce une idée, de manière à ce qu’elle soit claire
pour tous. On fait autant de « tours » des participants que nécessaire pour épuiser l’ensemble des
idées générées. À l’issue de cette seconde étape, un très grand nombre d’idées figure généralement
au tableau.

3. Phase de groupe : regroupement des idées


L’animateur passe à nouveau en revue l’ensemble des idées et s’assure qu’elles sont comprises de
la même manière par tous. Ceci permet d’éliminer les idées qui, bien que formulées de manière
différente, ont la même signification pour leurs auteurs respectifs. On inscrit ainsi au tableau une
liste épurée, comportant généralement à ce stade 15 à 30 éléments.

4. Phase individuelle : évaluation préliminaire


Les participants sélectionnent ensuite les seuls éléments ou idées qui leur semblent importants pour
résoudre la question posée en début de réunion(134). Ils les inscrivent directement sur leur feuille de
travail. Selon les objectifs de l’étude, la réunion peut s’arrêter là. On calcule la fréquence de
citation (Fi) de chaque idée ou élément, en faisant le rapport suivant :

\/|
$|

5. Phase de groupe : discussion des résultats


4$

L’animateur recueille les listes individuelles, puis calcule les fréquences de citation des idées. Les
By

résultats sont reportés sur le tableau. Les idées produites lors de la phase no 3, mais qui n’ont été
retenues dans aucune liste, sont à ce stade définitivement éliminées. Une discussion collective
s’engage où chacun exprime son opinion par rapport au score fourni par le groupe. L’animateur ne
doit pas chercher à dégager systématiquement un consensus, mais permettre à chacun d’exposer
librement les raisons de son choix. L’inconvénient majeur est d’introduire à ce niveau des
phénomènes de leader/suiveur, en éliminant la spontanéité des premières réponses. Ce biais,
pratiquement inévitable, diminue les performances de la méthode TGN(135).

6. Phase individuelle : évaluation finale


On demande aux participants d’évaluer une dernière fois les idées ou les éléments restant en course
à l’étape précédente. Ils sont libres de maintenir leurs opinions formulées à l’étape no 4 ou de tenir
compte des arguments échangés dans la discussion collective. Pour recueillir ces jugements, on
utilise généralement des échelles de classement plus sophistiquées qui permettront un traitement
quantitatif des réponses (voir chapitre 9). On calcule ainsi des scores moyens d’importance pour
chaque attribut, ce qui pourrait permettre de sélectionner les idées les plus pertinentes pour le
groupe, malheureusement les limites d’échantillonnage rendent ce travail inopérant(136).
Fiche technique 5.2. Grille de réponse pour la méthode TGN
Objectif de la réunion : connaître vos critères de choix pour l’achat d’une voiture neuve.
Situation de choix : vous venez de finir vos études et vous vous apprêtez à occuper votre premier emploi avec un
salaire mensuel d’environ 1 800 euros. Ce véhicule sera utilisé pour un usage personnel.
PHASE 1 DE LA RÉUNION :
GÉNÉRATION D’IDÉES
Quels seront les critères de choix que vous utiliserez lorsque vous devrez vous décider pour une marque et un
modèle précis, sachant que vous êtes dans la situation précédente ?
Inscrivez chacun d’entre eux, en un ou deux mots (un seul par case), dans la colonne de gauche du tableau
suivant. Le nombre de critères est laissé à votre appréciation : vous ne devez pas vous sentir obligé de remplir
toutes les cases prévues.
Critères de choix utilisés (un seul par case)*

\/|
$|
4$

* Pour des raisons de place, notre grille ne comporte que sept lignes. Normalement, il faut
prévoir une grille d’une vingtaine de lignes.
By

STOP ! NE PAS LIRE OU REMPLIR LA PHASE SUIVANTE AVANT QUE


L’ANIMATEUR NE VOUS L’INDIQUE.
PHASES 2 ET 3 DE LA RÉUNION :
DISCUSSION EN GROUPE
PHASE 4 DE LA RÉUNION :
ÉVALUATIONS PRÉLIMINAIRES
Vous êtes toujours dans la situation d’achat précédente. Vous avez inscrit, sur le tableau situé
en face de vous, tous les critères de choix que le groupe vient de mentionner. Il est probable
que vous ne les utiliserez pas tous pour acheter votre propre voiture.
Après réflexion, quels seront ceux que vous retiendrez réellement ? Inscrivez-les, un par case,
le nombre à inscrire dépendant de votre seul jugement personnel.
Critères de choix utilisés (un seul par case)*
* Pour des raisons de place, notre grille ne comporte que sept lignes. Normalement, il faut
prévoir une grille d’une vingtaine de lignes.
STOP ! NE PAS LIRE OU REMPLIR LA PHASE SUIVANTE AVANT QUE
L’ANIMATEUR NE VOUS L’INDIQUE.
PHASE 5 DE LA RÉUNION :
DISCUSSION EN GROUPE
PHASE 6 DE LA RÉUNION :
ÉVALUATION FINALE
Vous êtes toujours dans la même situation d’achat. Vous allez d’abord reporter tous les critères
de choix que le groupe a conservés après réflexion, en les inscrivant (un par case) dans la
\/|
partie gauche du tableau. Puis vous indiquerez l’importance que vous leur attribuez
$|
personnellement pour cet achat : le chiffre 1 signifie que vous ne lui accordez aucune
4$

importance, le chiffre 2 équivaut à une faible importance, etc. Entourez un seul chiffre par
ligne.
By
\/|
$|
4$
By

Cette réunion est maintenant terminée. Merci de votre participation. Veuillez remettre en
partant ce questionnaire à l’animateur, après avoir complété les lignes suivantes :
NOM : ... Prénom : ...
Âge : ... Sexe : ... Niveau d’études : ...

C. Appréciation
La méthode comporte trois avantages principaux. En premier lieu, elle est très productive pour la
génération d’idées, sans avoir à souffrir des inconvénients liés à l’interprétation des discours émis
lors d’un focus group. Ensuite, la formation des animateurs est rapide, puisque le déroulement des
réunions suit un processus structuré et simple. Globalement, le coût de revient de la méthode est
plus faible que pour un focus group.
En revanche – mais il s’agit d’un problème commun à toutes les méthodes qualitatives – les
résultats observés avec TGN sont difficilement généralisables au reste de la population, compte
tenu de la petite taille et des caractéristiques très spécifiques des groupes recrutés. En d’autres
termes, la méthode permet de faire un recensement rapide et complet d’informations ou d’idées,
mais rend délicate toute conclusion du type : « l’information ou la caractéristique X est plus
importante que l’information ou la caractéristique Y ».

IV. Créativité et idéation


Dans un contexte de marché difficile (forte concurrence, conjoncture défavorable), la recherche de
nouvelles idées (idéation) ou de solutions originales et différentiantes (créativité) est nécessaire.
La production peut se faire, soit à un niveau individuel, soit de manière collective, c’est-à-dire en
s’appuyant sur les interactions des membres d’un groupe. On peut également procéder de manière
séquentielle : individuelle dans un premier temps, puis collective.
L’idéation se réalise de manière directe et spontanée, c’est-à-dire en demandant à chacun de
réfléchir, seul ou en groupe, à de nouvelles idées ou solutions. Elle peut également s’appuyer sur
des techniques spécifiques, fonctionnant hors des sentiers battus, pour stimuler la créativité
\/|
individuelle ou collective.
$|
Nous présenterons d’abord les principes de base du processus créatif, puis nous exposerons les
4$

grandes lignes des méthodes qui sont centrées sur l’idéation.


By

A. Domaine et principes fondamentaux de la créativité


1. Domaines de l’étude créative
La recherche de nouveaux produits et la communication publicitaire sont les champs d’application
privilégiés de l’étude créative. On lui doit des produits tels que la bande Velcro, le lavage des
phares, les « Kleenex », l’ouvre-boîte électrique, etc. D’autres secteurs d’application sont
possibles ; nous les présentons dans la figure 5.12.
Figure 5.12. Domaines d’application des techniques de créativité

Principales méthodes de
Domaines d’application
créativité utilisables
Création de nom de marque, nom de société,
Brainstorming, analogies.
logos.
Brainstorming, matrices de découverte.
Recherche de nouvelles idées de produits,
Analyse fonctionnelle, morphologique.
services, packaging.
Bulletin board.
Recherche de nouveaux usages pour des
Appel à la participation communautaire (co-
produits ou services existant
création).
(Re)positionnement de produits ou marques. Brainstorming, analogies, rêve éveillé.
Communication
(axe et thèmes publicitaires, PLV, jeux et Toutes méthodes possibles.
concours...)
Techniques de vente
Brainstorming, analogies, rêve éveillé.
(argumentaires, supports de vente).
Brainstorming, rêve éveillé.
Distribution
\/|
Matrice de Moles, analogies.
(nouveaux canaux, agencement des points de
$|
Appel à la participation communautaire (co-
vente).
4$

création).
By

2. Principes de créativité
a. Qui peut créer ?
Tout le monde ou presque ! Les praticiens recommandent l’absence, ou une participation réduite,
des « experts » spécialistes du problème à résoudre : ceci évite les impasses habituelles ou les
débats d’école.

b. Comment créer ?
1. Créativité en groupe ou individuelle ?
Si la pensée individuelle reste la base de l’idéation, les solutions créatives naîtraient plus
facilement en groupe : la réunion permet une stimulation réciproque (une idée en amène une autre)
des participants qui devrait favoriser la production d’un nombre plus important d’idées et de
meilleure qualité. Pourtant, les recherches montrent que c’est loin d’être le cas. En fait, c’est une
solution hybride qui se révèle, en moyenne, la plus performante : il est préférable de commencer
par faire appel à la créativité individuelle des individus, puis de les réunir ensuite en groupe, plutôt
que de se contenter d’un seul travail créatif de groupe(137). Dans la pratique, la quasi-totalité des
techniques de créativité peuvent être utilisées comme une gymnastique créative individuelle, ou
activées au sein d’un groupe.
2. Nécessité d’une grande quantité d’idées
L’espoir de voir surgir une « bonne idée » augmente avec le nombre d’idées émises. Pour cela,
l’enquêteur ou l’animateur du groupe invite chacun à explorer tous les enchaînements, les
combinaisons et déclinaisons d’idées possibles.

3. Idéation pure ou recours à des stimulants de la créativité ?


On peut se contenter de faire appel à l’imagination naturelle des individus, c’est-à-dire leur
demander simplement de penser à des nouvelles idées ou applications pour de nouveaux produits
ou services : c’est le domaine de l’idéation pure. On peut aussi stimuler les capacités de créativité
individuelle en enrichissant le processus naturel d’idéation. Les techniques de créativité s’appuient
sur deux principes, souvent combinés. On décompose d’abord le problème en sous-parties, puis on
essaye de trouver une solution pour chacune d’elles. On peut également le déplacer dans un autre
univers, imaginaire ou enfantin, où il est supposé résolu. Libéré des contraintes du réel, l’esprit
devient plus flexible et imagine plus aisément des solutions originales. Voici un exemple de
structuration d’un problème dans une perspective créative(138).

Exemple
\/|
$|
« Il s’agit de votre anorak dont la fermeture à glissière se coince justement quand vous
4$

êtes pressé de l’enlever ; le curseur a pincé un peu de tissu et le mouvement est


bloqué. Comment un fabricant peut-il considérer ce petit problème ? Il peut se
By

contenter d’épaissir le bord du tissu pour éviter qu’il ne se laisse happer par le
curseur. Une autre façon de considérer le problème serait de concevoir une nouvelle
forme de glissière qui chasserait devant elle le tissu. Enfin, une approche plus
générale serait de remettre en question le principe même de la fermeture à glissière. »

c. Quelle mise en œuvre ?


Le processus de création doit être canalisé pour produire des idées exploitables. La figure 5.13.
montre les trois temps forts : évacuation des idées anciennes (« purge »), phase créative et, enfin,
écrémage du travail.
Figure 5.13. Processus de démarche créative (139)
B. Brainstorming
De très loin la méthode de groupe la plus connue pour favoriser la créativité, le brainstorming a été
développé par Alex Osborn aux États-Unis dans le courant des années 1950(140). Le principe de
base consiste à réunir une dizaine de personnes, sous la conduite d’un meneur de jeu et d’un adjoint
qui joue le rôle de secrétaire. La fiche technique 5.3. résume les principales caractéristiques de
cette méthode.

Fiche technique 5.3. La méthode du brainstorming


1 – Composition du groupe
Bien que des expériences aient fonctionné avec des groupes comportant de 40 à 200 personnes, Alex Osborn
recommande de se tenir à un chiffre compris entre 7 et 12 membres. Seules des personnes d’un même rang
hiérarchique doivent être réunies. Il faut mélanger hommes et femmes.
2 – Nature des sujets pouvant être traités
Le groupe n’est pas apte à la formulation d’un diagnostic. En conséquence, le problème à résoudre doit être
clairement identifié et exposé au groupe avant la réunion, puis rappelé en début de réunion : par exemple,
« trouver un nouvel emballage capable de résister aux chocs », « proposer un nouveau système d’échafaudage
démontable », « comment rendre plus captivant un exposé oral », etc. Il est indispensable de sérier au préalable
les problèmes et de ne traiter que d’un problème par réunion.
3 – Préparation de la séance
\/|
L’animateur décompose si nécessaire le problème de départ en sous-parties. Par exemple, « Comment introduire
$|
une nouvelle fibre synthétique Y », sera subdivisé en : « Idées pour introduire une fibre nouvelle chez les tisseurs
4$

et dans les usines », « Idées pour introduire une nouvelle fibre chez les créateurs de mode », « Idées pour
introduire une nouvelle fibre chez les détaillants ».
Deux jours avant la séance, le meneur du groupe rédige une note d’une page maximum précisant aux
By

participants les grandes lignes du problème à résoudre et comportant déjà une série d’idées.
4 – Directives pour la conduite du groupe
Elles doivent être clairement exposées par le meneur de jeu en début de séance, de manière imagée. Les règles
sont les suivantes :
– le jugement critique est exclu durant la réunion : la critique des idées se fera à un autre moment ;
– l’imagination débridée est la bienvenue : plus l’idée semble absurde, mieux cela vaut, car il sera toujours
possible plus tard de la reprendre en la tirant vers le réalisable ;
– la quantité est indispensable : plus le nombre d’idées augmente, et plus les chances d’en trouver une bonne
augmentent ;
– les combinaisons d’idées doivent être systématisées. Les participants reprennent les idées émises par les
autres en cherchant à les améliorer ou en mettant ensemble deux idées distinctes.
L’animateur veille à une stricte application de ces règles et encourage régulièrement la production d’idées. Il
suscite une atmosphère de compétition (qui énoncera le plus d’idées ?), mais dans une ambiance chaleureuse. Il
n’hésite pas à relancer le groupe en suggérant des pistes à explorer, en livrant ses propres idées. L’assistant note
toutes les idées du groupe et participe lui aussi à la production générale.
5 – Suivi
Après la réunion, les idées notées sont reprises par l’animateur et les responsables du problème posé. Un
premier tri rapide élimine la plupart des idées manifestement irréalisables, d’autres sont classées comme pistes
éventuelles de réflexion, d’autres sont mises en chantier pour être approfondies et donneront peut-être lieu à
une formulation plus élaborée, susceptible de déboucher sur une expérimentation.
Une réunion dure de trente minutes à une heure. D’après Osborn, la quantité moyenne d’idées
produite est supérieure à la centaine par séance.
Les secteurs d’application de la méthode sont pratiquement sans limites. Ils concernent très souvent
des problèmes liés à la croissance des ventes, le lancement de nouveaux produits, des thèmes de
campagnes publicitaires ; mais le brainstorming convient aussi pour résoudre des problèmes de
gestion du personnel : « Comment réduire l’absentéisme ? », « Comment développer la
participation aux cours de formation ? », etc. Il est notamment possible de se référer aux cas résolus
par Osborn.

Exemple
« Comment accroître le trafic d’une compagnie d’autobus ? »
« Comment augmenter la participation des employés à la collecte de sang ? »
« Comment améliorer nos relations paroissiales ? »
« Comment améliorer nos méthodes d’enseignement ? »

Les obstacles rencontrés par le brainstorming sont avant tout des blocages institutionnels
\/|
(impression de perte de temps, peur d’être remis en cause) et personnels (peur de ne pas avoir
d’idées, autocensure, peur d’être ridicule, etc.).
$|
4$

C. Matrice de découverte
By

Cette méthode peut s’appliquer au plan individuel ou être introduite au cours d’une discussion de
groupe. Formalisée par Abraham Moles, professeur de psychosociologie, elle consiste à
« rechercher l’interaction de deux listes l’une sur l’autre, et à examiner les problèmes – plus
exactement les cellules – qui émergent d’une classification à double entrée(141) ».
La construction de la matrice nécessite d’identifier une ou deux composantes ou fonctions majeures
de l’objet à créer. Chaque composante est morcelée en sous-parties. Les cellules donnent des
concepts de produits : certains existent déjà, d’autres en revanche sont inconnus. La figure 5.14.
montre un exemple d’application en raisonnant sur une dimension.
Figure 5.14. Matrice de découverte à une fonction

Source : MOLES A. et CLAUDE R., Créativité et méthodes d’innovation dans l’entreprise, éd. Fayard-Mame, Paris, 1970, p. 93.
Nous avons développé dans la figure 5.15 une variante de la matrice de Moles en introduisant une
deuxième dimension. La première dimension représente un produit, les féculents, subdivisé en
différentes variétés possibles ; la deuxième composante représente quelques caractéristiques
sensorielles et physiques propres à un produit alimentaire : couleur, vitesse de cuisson,
présentation. Nous aurions pu y ajouter le goût, l’odeur, la texture, etc. Nous voyons par exemple
que les pâtes ont été largement déclinées, mais qu’il existe des cellules inexploitées : le riz coloré,
les lentilles-minute, etc.
Figure 5.15. Matrice de découverte à deux fonctions

X = produit existe déjà. La case vide signifie que l’idée ne présente pas d’intérêt a priori.
\/|
Une troisième approche consiste à travailler sur des combinaisons conceptuelles par transfert de
$|
propriétés ou de relations entre deux objets (concepts)(142). La figure 5.16. offre différents exemples
4$

de combinaisons entre deux concepts. « L’en-tête » est le concept initial qui sert de support à la
modification, le « modificateur » est le concept perturbateur qui crée le nouveau produit par
By

transfert de propriété ou de relation.


Figure 5.16. Processus de combinaisons conceptuelles

Source : Adapté de GILL T. et DUBÉ L., « Qu’est-ce qu’un fer à repasser le cuir ou un téléphone oiseau ?
L’usage des combinaisons conceptuelles pour générer et comprendre les concepts de nouveaux produits »,
Recherche et Applications en marketing, vol. 22, no 4, 2007, pp. 81-103.
\/|
$|
Le transfert de propriétés peut s’appuyer sur des modifications de forme, comme pour le « bloc-
4$

notes ordinateur » qui représente un ordinateur plat qui se ferme comme un bloc-notes. Le transfert
peut également s’établir sur un transfert de fonction, comme pour le « radio-réveil ». Dans la
By

foulée, on peut imaginer un « radio-chronomètre », un « radio-météo »...


Le transfert de relations consiste à jouer sur des modifications de relations thématiques entre deux
objets (concepts). Par exemple la combinaison « cours d’eau de montagne » ne représente pas une
eau qui aurait la propriété d’une montagne, mais plutôt un cours d’eau qui serait situé dans les
montagnes. Dans la figure suivante, « l’ordinateur de bureau » repose sur un transfert de relation de
lieu d’utilisation. On pourrait également décliner d’autres lieux d’usage de l’ordinateur : avion,
plage, voiture, voile, sous-marin...

D. Analyse des fonctions


1. Analyse morphologique
Développée par F. Zwicky et M. Allen, la méthode généralise le système matriciel précédent. Elle
consiste à décomposer un problème en grandes fonctions, à examiner toutes les liaisons entre leurs
composantes, puis à trouver tous les éléments connus, capables de remplir ces fonctions.
Exemple
Une machine à laver le linge se caractérise par une arrivée d’eau (à la main, pompe,
goutte à goutte), une introduction du linge (devant, dessus, côté, réservoir), un
mouvement (ébullition, rotation, mouvement alternatif, micro-ondes), une énergie
(bois, électricité, vapeur, solaire, etc.), une sortie d’eau (vidange manuelle, pompe,
auto-recyclage, etc.). L’étape suivante est la déclinaison des éléments constitutifs de
chaque fonction. À l’arrivée, on retrouve des produits classiques, mais aussi des
pistes de produits nouveaux.
– Lessiveuse : à la main, chargement dessus, ébullition, bois, vidange.
– Lave-linge classique : pompe, chargement dessus ou devant, rotation, électricité,
pompe.
– Lave-linge écologique : goutte à goutte, rotation, solaire, auto-recyclage.
– Lave-linge futuriste : goutte à goutte, alternatif, vapeur, auto-recyclage.

2. Analyse fonctionnelle
À la différence des autres méthodes, l’analyse fonctionnelle se fonde sur l’observation du produit,
\/|
complétée par un questionnaire administré auprès des consommateurs. Elle vise à identifier des
$|
pistes d’amélioration des produits comme en témoignent les exemples ci-après.
4$

Exemples
By

– Mise en route, ouverture du produit


Micro-ordinateur : combien de temps avez-vous mis la première fois pour découvrir
où se situait le bouton marche/arrêt ?
Produits alimentaires (brick de lait, paquet de gaufrettes, fromage aux noix, etc ?) :
est-il indispensable d’avoir une paire de ciseaux pour ouvrir certains emballages
rebelles ?
– Utilisation du produit
Caméscope, téléphone portable, logiciels : à quoi bon développer des performances
techniques sophistiquées si leur utilisation demande la mémorisation d’un manuel
technique atteignant parfois plus de 200 pages ?
Petit électroménager : à quand un système enrouleur pour le fil électrique pour tous les
produits ? Pourquoi ne pas concevoir des emballages permettant le rangement aisé du
produit dans un placard ?

Tous les problèmes révélés par l’analyse fonctionnelle ne sont pas forcément solvables par
l’entreprise. Ce qui importe, c’est leur fréquence d’apparition, leur gravité pour le consommateur et
le prix supplémentaire qu’est prêt à payer celui-ci, pour voir ces problèmes résolus. Les méthodes
de créativité prennent le relais pour explorer les différentes manières de résoudre les problèmes
identifiés par l’analyse fonctionnelle.

E. Analogies
Le raisonnement par analogie est à la base de nombreuses théories et découvertes scientifiques. Une
analogie est un rapprochement entre deux éléments distincts, mais présentant des ressemblances. En
observant un phénomène, le chercheur émet l’hypothèse que ce qui se passe dans un domaine connu
pourrait s’appliquer à un domaine inconnu. Par exemple, l’observation du saut d’une sauterelle peut
inspirer un nouveau système de chariot élévateur. Le raisonnement par analogie met donc en œuvre
des séries d’associations, plus ou moins hasardeuses et surprenantes, pour déboucher sur une idée
nouvelle. Bon nombre de techniques utilisent ce mode de raisonnement pour stimuler la créativité.

1. Synectique (analogies de Gordon)


La synectique évoque l’imbrication d’éléments différents et combine des disciplines hétérogènes.
La méthode de Gordon(143) repose sur la production d’analogies. Quatre formes sont identifiées :
analogie directe, symbolique, personnelle et rêve éveillé ; la dernière forme, empruntée aux
techniques de psychothérapie, fait d’objet du paragraphe suivant.
\/|
– Analogie directe : fondée sur l’observation des lois existant dans la nature, ou régissant le
$|
comportement humain, elle cherche à transposer ce qui est établi dans un domaine à un autre. Par
4$

exemple, utiliser la forme d’un coquillage comme nouvelle architecture.


– Analogie symbolique : elle utilise des représentations mentales pour traduire des actes, des
By

phénomènes. L’opération chirurgicale peut être vue comme un travail de boucherie, de couturier ou
encore d’architecte, etc.
– Analogie personnelle : c’est l’intériorisation par le chercheur du problème à résoudre. On
s’imagine comme le futur nouveau produit, on mime, on décrit des sensations. Cette forme
d’analogie est proche des techniques de jeux de rôle ou des graffitis.
Ces différentes analogies sont maniées par l’animateur durant les réunions. À l’inverse d’Osborn,
Gordon préconise de ne pas définir clairement le problème en début de réunion, mais de le
formuler en termes vagues. Durant la discussion, le problème est progressivement précisé aux
participants. Les séances sont longues, elles durent au moins trois heures. Outre les analogies,
l’idée de base est de « rendre insolite le familier et rendre familier l’insolite ».

2. Rêve éveillé
Technique de créativité empruntée aux méthodes de psychothérapie, les principes du rêve éveillé
sont simples(144). Allongé dans une demi-obscurité, un groupe de 6 à 7 personnes suit les directives
d’un animateur. La séance dure environ 2 heures et commence par une concentration sur des images
calmes suggérées par l’animateur. Le sujet de la réunion est alors progressivement introduit : par
exemple, « imaginer la voiture de demain », « le lieu de vacances idéal », « l’ordinateur le plus
fabuleux ». Absence totale de critique, fantaisie, évocation de scénarios de rêve et relaxation sont
les mots clés de cette technique.

3. Circept (étude de motivation créative)


Michel Fustier(145) a proposé une nouvelle approche de l’étude des motivations des consommateurs,
fondée sur le recueil de « concepts circulaires », dénommés « Circept ». Celui-ci est défini comme
une représentation imaginaire de personnes ou d’objets, appuyée par des séries d’analogies
contradictoires. Par exemple, une mère de famille sera vue comme « du bon pain », mais la
référence au pain peut faire penser au budget nécessaire à son achat, et donc à « boîte à sous » ; de
même, ses multiples activités suggèrent un chef d’orchestre, mais celui-ci doit aussi savoir
encourager, choyer le groupe, amortir les conflits, d’où la ressemblance à un « édredon », etc.
Le Circept peut être utilisé pour mettre au jour les composantes d’une image de marque ou pour
étudier les motivations d’achat d’un produit. Son application principale est surtout liée à la
recherche créative pour des nouveaux thèmes ou axes de campagne de communication.
D’un point de vue pratique, la mise en œuvre de la méthode se fait de la façon suivante :
1 – réunion de groupe d’une dizaine de personnes appartenant à la cible visée.
2 – production des analogies par le groupe ; les techniques précédentes peuvent être employées
dans ce but. \/|
3 – mise en évidence, par tâtonnements successifs, des grands « axes dialectiques » mettant en
$|
opposition les analogies.
4$

4 – classement, sur ces axes, des différentes analogies émises par le groupe ; plus une analogie
ressemble à une autre, et plus elle sera placée à proximité d’elle sur l’axe ; chaque axe comporte un
By

point central neutre avec deux pôles (favorable et défavorable).


5 – positionnement des divers objets (marques, produits, personnes) sur ces axes.
La construction du Circept soulève de nombreuses difficultés, dont la principale reste l’arbitraire
de la mise à jour des axes et du positionnement des objets sur ceux-ci. Par ailleurs, le postulat de
l’analogie contradictoire est souvent invalidé, car de nombreuses analogies se révèlent inutilisables
ou « unidirectionnelles ». Enfin, la validité et la fiabilité de la méthode restent largement à établir.
La méthode a été appliquée à l’étude du point de vente(146) ; nous proposons dans la figure 5.17. les
principaux résultats concernant l’enseigne du magasin de meubles lKEA.

F. Bulletin board
1. Principes et applications
La méthode reprend les principes d’un forum en ligne modéré par un animateur. Elle consiste en un
dialogue par Internet de dix à trente participants, animé et arbitré par un modérateur. Sa durée varie
de quelques jours à un mois.
C’est un groupe asynchrone, c’est-à-dire que chaque membre se connecte un jour donné, à l’heure
qu’il souhaite, sur un site dédié à l’étude (via un mot de passe donné par l’institut).
Les discussions de groupe s’organisent autour des thèmes suivants : recherche de nouvelles idées
de produits ou de services, nouvelles applications de produits ou marques, amélioration de
produits, évaluation de publicités, test de concepts, etc.
Le flash-étude 5.4. donne un exemple d’application du test de concept.
Figure 5.17. Composantes de l’image interne d’IKEA

\/|
$|
4$
By

Source : adapté de PONTIER S., « Image du point de vente : pour une prise en compte de l’image interne »,
Recherche et Applications en marketing, vol. 3, no 3, 1988, p. 14.

Flash-Étude 5.4.
Un nouveau concept : la boîte aux lettres intelligente
Objectif
Il s’agit d’améliorer un nouveau concept, une boîte aux lettres intelligente pour la livraison de
produits pour des consommateurs ordinaires, de manière à ce qu’il soit un succès commercial.

Méthodologie
Quatre groupes, comportant chacun six consommateurs, ont travaillé sur ce concept durant cinq
jours, via un bulletin board.
Le concept était décrit de la manière suivante : « Mettez au point une boîte qui permettrait de
délivrer à domicile, de manière sûre et confortable, toutes sortes de colis, que ce soit de la
blanchisserie, de l’alimentation ou d’autres choses, même si personne n’est présent au domicile.
En supposant que vous ayez le choix entre différents styles, tailles et lieux d’implantation,
imaginez un système qui pourrait exister chez vous ou à côté de chez vous, ou si vous vivez en
appartement, une boîte qui soit accessible dans votre immeuble. Supposons que FedEx, UPS et
les services postaux, ou encore des services de livraison, comme la grande distribution
alimentaire, le nettoyage à sec, et d’autres personnes autorisées pourraient utiliser cette boîte,
tout aussi bien pour enlever que pour déposer ces produits de manière sécurisée. Construisez un
système intelligent qui permette uniquement les livraisons autorisées et envoie un message à la
fois au consommateur et à l’expéditeur quand la livraison est effectuée. »
Le schéma suivant était fourni pour éclairer le concept :

\/|
$|
4$
By
Résultats
Voici le concept qui a été, par la suite, le mieux évalué par un échantillon de consommateurs :
« La boîte intelligente existe en différentes tailles ; elle est accessible de l’intérieur, comme de
l’extérieur de la maison ou de l’appartement, pour faciliter l’accès aux produits. Chaque
livraison se fait à partir d’un code aléatoire délivré par un ordinateur et qui n’est valable que
pour une seule livraison ; le suivi de la livraison des paquets se fait de la même manière. La
boîte est ignifugée, sécurisée, à l’épreuve du vandalisme, résistante à la saleté, et offre de
multiples options telles que compartiments multiples, réfrigération, et un système d’alarme
similaire à celui des voitures. »
Source : HOFFMAN D., KOPALLE P. et Novak T., « The ‘‘right’’ consumers for better concepts :
identifying consumers high in emergent nature to develop new product concepts », Journal of
Marketing Research, vol. 47, 2010, pp. 854-865.

2. Fonctionnement
Le groupe répond de trois manières différentes aux différentes questions posées par l’animateur :
– sans voir les réponses des autres. Cette possibilité est peu appropriée, car elle ne permet pas de
bénéficier de la dynamique de groupe. Elle s’approche alors d’une interview individuelle ;
– en n’accédant aux autres réponses qu’après avoir soi-même répondu aux questions posées. C’est
\/|
une solution utile, si l’on suspecte la possibilité d’une pression normative, mais cela bride les
$|
interactions ;
4$

– en voyant d’emblée les autres réponses. Dans ce cas, les participants discutent les uns avec les
autres, autant de fois qu’ils le souhaitent. L’animateur laisse les participants interagir, rebondit avec
By

eux, relance ponctuellement et de manière plus ciblée telle ou telle personne. Néanmoins, il est rare
de pourvoir réagir à chaud, puisque les participants se connectent à des moments différents.
Les clients des sociétés d’études ont accès aux discussions du groupe, via une interface sécurisée
par Internet. Ils peuvent contacter le modérateur en suggérant une question, un approfondissement
d’une idée émise par un membre du groupe.

3. Évaluation
Le bulletin board conjugue certains avantages du focus group on line (dynamique de groupe,
dispersion géographique) et y ajoute de la souplesse (discussion asynchrone), avec la possibilité
d’approfondissement des réponses. Néanmoins, la dynamique est moins forte, mais elle est
compensée par des échanges plus profonds. La figure 5.18. compare ces deux méthodes.
Figure 5.18. Comparaison du bulletin board et du focus group on line

Caractéristiques Bulletin board Focus group on line


Asynchrone : les membres
Synchrone : l’animateur donne
répondent quand ils le souhaitent
Moments de discussion rendez-vous aux participants à une
(dans un intervalle de temps donné,
heure fixe.
généralement 24 heures).
Durée 3 à 15 jours. 1 heure 30.
Nombre de questions 10 à 30 questions par jour. 20 à 30 questions durant la séance.
Nombre de participants 10 à 30 membres. 6 à 8 membres.
Le modérateur propose chaque jour
de nouvelles pistes, après avoir
Les idées émises sont reprises par
analysé les réponses des jours
les participants, selon les principes
précédents.
du chat en ligne.
Interactions entre les participants
Interactions entre les participants
(évaluation des idées des autres).
(évaluation des idées des autres).
Modalités de Les idées sont développées,
Les idées sont peu développées
fonctionnement commentées de manière plus
(une à deux lignes par idée).
approfondie (jusqu’à une vingtaine
\/|
Pas de temps de réflexion pour
de lignes par idée).
$|
améliorer les idées des autres.
Temps de réflexion pour améliorer
Possibilité d’insertion d’images, de
4$

les idées des autres.


liens et de vidéos, etc.
Possibilité d’insertion d’images, de
By

liens, de vidéos, etc.


Production importante d’idées. Production limitée d’idées.
Évaluation Nécessité d’une disponibilité Contrainte d’un rendez-vous à
quotidienne des membres. heure fixe.

G. Appel à participation (communautés virtuelles)


L’appel à participation consiste à mobiliser des individus volontaires pour réaliser, gratuitement ou
contre un dédommagement plus ou moins important, une fonction qui, jusque-là, était réalisée en
interne par une entreprise. C’est une forme de crowdsourcing (147), car on externalise la réalisation
d’une action (résolution d’un problème, développement d’un produit ou un service, etc.) sur un
groupe d’individus passionnés qui, généralement, bénéficieront en premier du travail réalisé.
Ces personnes se rassemblent dans des communautés reliées par Internet. Elles s’organisent en
forums ou groupes de discussion centrés sur des thématiques communes : valeurs, activités, centres
d’intérêt, etc. On parle alors de communauté virtuelle, c’est-à-dire une « agrégation sociale qui
émerge d’Internet à partir du moment où un nombre suffisamment important de personnes engagent
des discussions avec un minimum de sentiments humains pour former des toiles de relations
personnelles dans le cyberespace »(148).
Certaines de ces communautés virtuelles se regroupent autour de marques(149) ou de produits(150). Les
premières sont souvent structurées et encadrées par le marketing, les secondes sont plus spontanées
et informelles. Leur point commun est l’existence d’un noyau de membres passionnés qui produisent
à eux seuls une très grande part des contributions du groupe.
L’idée sous-jacente est de profiter des nombreux talents cachés dans ces communautés et de leur
donner la possibilité d’apporter leurs compétences en proposant des idées et/ou en participant au
développement de produits et de services. Les études marketing envisageables prennent deux
formes : une observation des pratiques et des discours de la communauté, appelée « netnographie »
(voir chapitre 6), et un appel à participation pour la recherche d’idées ou de solutions pour de
nouveaux produits ou services.

1. Appel à concours
L’institut d’études ou l’entreprise propose aux membres de se connecter sur des plates-formes
dédiées pour recueillir leurs idées de nouveaux produits ou services, sous la forme d’une
compétition ouverte à tous. De plus en plus d’entreprises, telles que Procter et Gamble, Nivea ou
Danone, ont recours à ces techniques pour la recherche d’idées de nouveaux produits. Deux
approches sont envisageables :
– les idées émises par les membres du groupe sont exposées à la vue de tous. Chacun vote pour
telle ou telle idée et celle qui obtient le plus de voix est considérée comme la meilleure. Il est
\/|
possible de reprendre une idée déjà émise et de l’améliorer. On retrouve ici les principes du
$|
brainstorming. Néanmoins, le concours fondé sur la compétition ne favorise pas les échanges et
4$

peut susciter des biais importants (votes d’amis, fausses identités, etc.) ;
– les idées sont personnelles, seules les gagnantes sont révélées à la fin du concours. Le brief
By

créatif est précisé lors de l’appel à concours. Les idées sont évaluées par un jury composé de
membres de l’entreprise et/ou de l’institut d’études, selon les critères marketing usuels (originalité,
faisabilité, potentiel, etc.). Les membres peuvent interagir avec l’animateur du concours, via une
interface. La figure 5.19. propose un exemple de concours géré par un institut d’études spécialisé.

2. Appel à l’innovation
De nombreuses communautés d’utilisateurs passionnés par une activité ou un produit existent. Les
individus qui composent ces groupes sont souvent des lead-users(151). Ces consommateurs éprouvent
des besoins insatisfaits par les produits disponibles sur le marché ; leurs besoins actuels se
généralisent fréquemment, des mois ou des années après, au reste du marché. Par ailleurs, ces lead-
users ont des idées précises sur des solutions qui résoudraient le problème rencontré. Ils constituent
un réservoir d’innovations potentielles pour l’entreprise.
Figure 5.19. Exemple de plate-forme Internet pour un concours d’idées

Source : http://fr.eyeka.com/groups/call_for_submission
\/|
Deux approches sont possibles(152) :
$|
– l’innovation fondée sur la communauté. L’entreprise intègre, ponctuellement, des lead-users dès le
4$

début du processus d’innovation, via des plates-formes dédiées à la création de produits. De


véritables outils de conception assistée par ordinateur sont mis à la disposition du groupe de projet.
By

Le groupe propose et teste de nouvelles solutions techniques, de nouveaux usages, etc. Le niveau
d’expertise technique des membres est élevé ;
– la communauté d’innovation. La coopération ne se fait plus par intermittence pour des projets
précis, mais de manière plus continue. Le périmètre du groupe est plus large : il inclut des
consommateurs enthousiastes, innovants et fortement engagés dans la communauté. Les interactions
créatives entre les membres sont stimulées par l’entreprise qui les associe régulièrement aux
différentes étapes de création et de développement de nouveaux produits.
La figure 5.20. donne une illustration de graphismes innovants proposés par des communautés de ce
type pour des nouvelles chaussures de sport.
Figure 5.20. Exemple de designs créatifs issus d’appel à innovation

Source : http://www.kicksguide.com/admin/artist_series.asp

V. Groupe Delphi
La méthode, issue des travaux de la Rand Corporation, a vu le jour aux États-Unis au début des
années 1960(153). Cette technique de groupe a eu très vite un succès considérable auprès des
managers, parce qu’elle offre une démarche simple et structurée pour prévoir des événements à un
horizon de 5 à 10 ans.
Nous présenterons d’abord les principes généraux et le fonctionnement de la méthode classique,
puis nous présenterons deux extensions originales : la première respecte à la lettre les principes de
\/|
la méthode traditionnelle, mais remplace les experts par des leaders d’opinion, la seconde n’en
$|
conserve qu’un minimum, mais propose une application originale sur Internet pour une idéation
4$

réalisée par un groupe de consommateurs ordinaires.


By

A. Principes généraux et applications


La méthode Delphi permet de prévoir les ventes à moyen terme et de tester l’acceptabilité
marketing de nouvelles innovations technologiques(154). Les premières applications ont d’abord
concerné les secteurs industriels, tels que l’énergie solaire ou l’informatique, puis ont été étendues
aux marchés de grande consommation et aux services, par exemple les céréales pour le petit-
déjeuner, l’édition, le transport et les loisirs (voir figure 5.21.). Cette liste est loin d’être
exhaustive, car la plupart des applications commerciales restent confidentielles.
Figure 5.21. Exemples d’applications du groupe Delphi

Applications
Groupe Delphi Extensions possibles
classiques
Prévoir les parts de marché.
Évaluer l’image de marque.
Prévoir l’évolution de la
Détecter de nouveaux modes de
technologie.
distribution.
Objectifs Prévoir la demande.
Identifier les critères de choix
Évaluer l’acceptabilité de
d’un produit.
produits nouveaux.
Rechercher et évaluer de
nouvelles idées de produit
Leader d’opinion (Delphi leader)
Membres du groupe Experts Consommateur ordinaire (Brand-
Delphi)TM
Banques et assurances.
Informatique et télématique. Automobile.
Électronique. Hi-fi, télévision, vidéo.
Marchés
Énergie, transport. Édition.
\/|
Santé. Agro-alimentaire.
$|
Tourisme.
4$
By

B. Fonctionnement de la méthode classique


Il implique trois opérations majeures, présentées successivement(155).

1. Réunir un groupe d’experts


a. Comment évaluer l’expertise ?
C’est le problème majeur, car la qualité de la prévision dépend du degré d’expertise. On doit
privilégier les personnes ayant une vue globale du problème et ayant l’habitude de combiner des
sources d’information multiples. Cela élimine les vendeurs, trop proches de leur secteur de vente,
et les cadres débutants. En revanche, les cadres marketing expérimentés (directeurs marketing,
chargés d’études, chefs de produits), les journalistes professionnels, les consultants sont a priori
des experts potentiels.
Pour la sélection proprement dite, la solution la plus simple consiste à demander à chaque personne
d’estimer elle-même son propre degré d’expertise, grâce à une question posée en début de
procédure. On ne retient ensuite que le sous-groupe d’experts le plus compétent. Malheureusement,
ceci entraîne une augmentation fort coûteuse de la taille du groupe.

b. Combien d’experts ?
D’un point de vue statistique, la fiabilité des réponses augmente avec la taille du groupe et l’erreur
moyenne diminue en sens contraire. La fourchette comprise entre 8 et 10 membres offre le meilleur
rapport précision/coût.

2. Rédiger le questionnaire
L’horizon, les éventuelles hypothèses de prévision (situation économique, sociale), la cible
concernée et la situation de consommation du produit doivent être clairement détaillés. La plupart
du temps, on demande aux experts de formuler un jugement personnel.

Exemple
Quelle sera, selon vous, la consommation de céréales pour le petit-déjeuner dans
chaque pays de la Communauté européenne, à l’horizon 2020 ?

Mais il est tout à fait possible de demander aux experts de se mettre à la place d’un consommateur
et de prévoir les perceptions de ce dernier. Ainsi, le flash-étude 5.5. montre que les experts sont
capables d’évaluer avec précision les profils d’image de modèles de voiture que l’on obtiendrait
en interrogeant les consommateurs d’un segment de marché très spécifique.
\/|
Le questionnaire est généralement long et nécessite des réflexions approfondies de la part des
$|
experts : une durée de 1 heure à 1 heure 30 est courante. Il comporte un mélange de questions
fermées et ouvertes(156).
4$

3. Administrer la méthode
By

L’originalité de la méthode réside dans le fait que les experts revoient plusieurs fois de suite leurs
jugements : c’est le processus itératif. Il se caractérise par trois règles principales :
– on pose à chaque étape les mêmes questions, puis on demande aux experts de revoir leurs
jugements fournis à l’étape précédente ;
– les experts sont libres de maintenir ou de modifier leur position. On constate généralement que
seuls les experts les moins sûrs de leur opinion bougent ;
– trois itérations sont nécessaires pour un fonctionnement optimum de la méthode.
Le chargé d’études calcule, après chaque étape, les réponses médianes ou les moyennes du groupe à
chaque question(157). Puis il communique ces informations à chaque expert (en lui rappelant sa
position à l’étape précédente) et une synthèse des principaux arguments utilisés par le groupe pour
justifier ses évaluations. C’est le principe de rétroaction d’informations :
– seules les réponses centrales sont fournies. Il est impératif de préserver l’anonymat des jugements
individuels : aucun expert ne sait précisément qui a répondu quoi. Ce point permet de réduire les
effets de leadership et de pression vers la conformité que l’on observe avec les réunions de
groupe ;
– on ne passe à l’étape suivante que lorsque tous les experts ont répondu. Aucun abandon ne doit
intervenir pour éviter de biaiser la méthode.
Internet permet une administration très simple, avec envoi des questionnaires par courrier
électronique ou connexion sur un site dédié, mais du fait de la disponibilité souvent réduite des
experts, il faut compter pratiquement quinze jours par étape, soit au total un à deux mois. La
solution de la réunion sur un même site géographique permet une administration complète de la
méthode sur la journée, en comptant un intervalle de deux heures par étape (une heure de réflexion,
une heure d’analyse). Mais il est impératif que les experts ne puissent pas communiquer entre eux
durant l’expérience.

Flash-Étude 5.5.
Le choix d’une voiture estimé selon le groupe Delphi
Objectifs et méthodologie de l’étude (158)
On a réuni deux groupes d’experts (8 et 11 membres) constitués de cadres marketing et
commerciaux des principaux constructeurs automobiles, ainsi que de chargés d’études de
sociétés de conseil spécialisées. Le scénario de prévision était le suivant : « Des étudiants
célibataires sortant d’une grande école commerciale s’apprêtent à acheter une voiture neuve,
après l’obtention de leur premier emploi. »
* Quels seront les profils d’image du segment pour sept modèles de voitures ?
\/|
* Quels seront leurs critères de choix pour l’achat d’une voiture ?
$|
* Quelle sera la probabilité d’achat de chacun de ces modèles ?
4$

L’administration s’est faite par voie postale. Chaque expérience a nécessité trois itérations pour
obtenir un consensus satisfaisant et a duré environ trois mois. Pour vérifier la qualité des
By

prévisions des experts, on disposait des évaluations réelles du segment.

Analyse des prévisions


• Profils d’image. La prévision des deux groupes d’experts est excellente. Pour les quatre
modèles de voitures présentés ci-dessous, les profils d’image prévus par les experts et ceux
réellement établis par les étudiants présentent des similitudes très fortes. Les experts identifient
donc correctement les perceptions des marques pour le segment.
• Critères de choix du segment. Le graphique ci-après montre de sensibles disparités
d’appréciation de l’importance des critères de choix. Les désaccords portent surtout sur le poids
des critères subjectifs, tels que le statut social ou l’esthétique. On a pu montrer que les
pondérations établies par les experts permettaient de bien prévoir la marque choisie par les
étudiants. Ceci tendrait à prouver que les experts sont capables d’éliminer les biais de
rationalisation enregistrés habituellement avec les méthodes classiques de mesure de
l’importance.
• Prévision des intentions d’achat. Le second graphique indique que la qualité de prévision des
experts diffère sensiblement selon le modèle de voiture : les probabilités d’achat de la C1 et de
l’Austin Mini sont bien prévues, mais celles de la 208 et de la Ford Fiesta sont mauvaises.
L’analyse des commentaires des experts montre que ceux-ci ont eu tendance à estimer les parts
de marché des marques sur le segment (i.e. achat réel), alors que les étudiants indiquaient des
intentions de choix. Nous n’avons pu contrôler la validité des estimations de parts de marché,
mais les prévisions des experts Delphi semblent plus crédibles que celles fournies par les
étudiants.
Profils des modèles de voiture

\/|
$|
Importance des critères de choix
4$
By
Probabilité d’achat selon les modèles de voiture

4. Appréciation \/|
La qualité principale de la méthode est son aptitude à la prévision à moyen terme. Les résultats sont
$|
très satisfaisants, comparativement à ceux fournis par des méthodes alternatives. En matière d’étude
4$

de comportement d’achat, les performances sont bonnes, notamment pour l’identification de critères
de choix et l’évaluation de l’image de marque. Dans ce contexte, Delphi est préférable aux
By

méthodes classiques de réunion de groupe et aux techniques d’interrogation directe.


Ces performances résultent de la forte convergence qui s’établit au fur et à mesure des étapes. Ce
consensus s’oriente généralement autour de la « vraie » valeur, inconnue : on a montré que les
réponses moyennes du groupe, calculées au terme de la 3e étape, sont plus proches de la valeur
réelle que celles obtenues après le premier tour.
Les limites de la méthode viennent surtout de problèmes pratiques : il est souvent très difficile de
définir le « bon expert », puis de le recruter. Les abandons en cours de route sont dramatiques, car
le taux de fidélité exigé par la méthode est normalement de 100 %. La durée globale de la méthode
et les problèmes de confidentialité (si l’on interroge des experts travaillant chez les concurrents)
constituent des obstacles non négligeables.

C. Extensions
Il s’agit de réunir et de faire travailler, selon les principes de la méthode Delphi, un groupe de
personnes dont les avis sont spontanément sollicités et dont les jugements influencent leur
entourage. De tels individus sont appelés leaders d’opinion.

1. Delphi-leader
a. Domaines d’application
Le groupe Delphi-leader est bien adapté à l’identification des critères de choix d’un produit et à
l’étude de l’image de marque(159). Cette méthode pourrait, en outre, compléter les techniques
traditionnelles de tests de concept, de pré-test d’une création publicitaire, voire les modèles de
simulation de parts de marché. En effet, l’entourage interroge le leader sur ses croyances et critères
de choix, puis les adopte naturellement, celui-ci étant perçu comme plus compétent que soi (voir
figure 5.22.).

b. Fonctionnement
La méthode Delphi-leader reprend les principes d’un groupe Delphi (recherche d’un consensus par
itération et rétroaction contrôlée), mais elle réunit des leaders d’opinions au lieu d’experts.
L’intérêt de cette substitution est qu’il est plus facile d’identifier un leader d’opinion qu’un expert.
La méthode comporte quatre étapes.

Étape 1 : Identification d’un leader


Le repérage d’un leader se fait par auto-évaluation de sa propre capacité à influencer et à discuter
avec son entourage, dans telle ou telle catégorie de produit. Plusieurs mesures existent, celle de la
figure 5.23. présente l’avantage d’avoir été validée dans un contexte français. Le score global de
\/|
leadership se calcule en additionnant les notes obtenues à chacune des cinq questions.
$|
4$

Figure 5.22. Processus d’influence du leader d’opinion


By

Étape 2 : Sélection et constitution d’un groupe de leaders


Le leadership d’opinion généralisé sur l’ensemble des catégories de produits n’existant pas, il faut
connaître les distributions des scores pour une population mère donnée et par type de produit. La
figure 5.24 donne les scores limites pour être considéré comme un leader « Top 10 » ou « Top 25 »
dans l’une des 27 catégories de produits référencés. Ces seuils correspondent respectivement aux
10 % ou 25 % de consommateurs qui influencent le plus leur entourage, dans une catégorie de
produits donnée. Les scores indiqués ont été calculés à partir des réponses d’un échantillon de
10 000 personnes, représentatives de la population française de plus de 15 ans, sur la base d’un
questionnaire très proche de celui présenté dans la figure 5.23.
Figure 5.23. Exemple de questionnaire d’identification d’un leader

L’interviewé indique sur une échelle de Likert en 5 points son degré d’accord ou de désaccord
avec les propositions suivantes (1 = Tout à fait en désaccord, 2 = Plutôt en désaccord, 3 = Ni
d’accord, ni en désaccord, 4 = Plutôt d’accord, 5 = Tout à fait d’accord) :
1 – « Je parle très souvent à mes ami(e)s et voisin(e)s de... (citer une catégorie de produit). »
2 – « Quand je parle à mes ami(e)s et voisin(e)s de... (produit), je leur donne beaucoup
d’informations. »
3 – « Durant les six derniers mois, j’ai parlé à un grand nombre de personnes de... (produit). »
4 – « Dans une discussion concernant les... (produits), le plus probable serait que je parvienne à
convaincre mes ami(e)s et voisin(e)s de mes idées. »
5 – « Mes ami(e)s et voisin(e)s me considèrent en général comme étant de bon conseil en ce qui
concerne les... (produits) »
\/|
Source : BEN MILED H. et LE LOUARN P., « Analyse comparative de deux échelles de mesure du leadership d’opinion »,
$|
Recherche et Applications en marketing, vol. 9, no 4, 1994, pp. 23-51.
4$

La constitution d’un groupe de leaders utilise l’échelle comme une méthode de filtrage : par
By

exemple en matière d’automobile, on n’invitera pour un groupe « Top 10 » que les individus qui ont
un score supérieur ou égal à 19 points ; pour un « Top 25 », la barre est fixée à 16 points. La taille
d’un groupe varie entre 6 et 10 leaders, 8 étant un bon optimum.

Étape 3 : Administration du groupe


Le déroulement est similaire à celui de la méthode Delphi : chaque leader connaît les réponses
médianes (ou moyennes) du groupe obtenues pour chaque question lors de l’étape précédente.
L’anonymat est respecté. Pour l’identification de critères de choix d’un produit, la rétroaction porte
sur les scores moyens d’importance attribuée par les leaders à une liste extensive d’attributs et sur
les scores moyens de différence perçue entre les marques sur ces attributs. Ces évaluations sont
enregistrées sur des échelles d’intervalle à cinq supports sémantiques : « extrême », « grande »,
« moyenne », « faible », « aucune ». Un consensus est généralement obtenu sur ces scores au bout
de trois itérations. Pour le recueil d’images de marque, la procédure est similaire à celle décrite
dans le flash-étude 5.4.

Étape 4 : Analyse des résultats


La sélection des critères de choix s’opère selon le principe de l’algorithme dual(160). On calcule,
pour chaque leader k et pour chaque attribut i, un score de déterminance ki en multipliant le score
d’importance de l’attribut i (obtenu à la dernière étape) avec le score de différence perçue entre les
marques sur l’attribut i. Ensuite, un score moyen de déterminance est obtenu pour chaque attribut i
en faisant la moyenne des scores de déterminance. Les attributs ayant un score moyen supérieur à la
grande moyenne (moyenne des scores moyens de déterminance) sont retenus. La figure 5.25. donne
un exemple pour le choix d’un parfum : seuls l’odeur, le pouvoir de séduction et l’esthétique du
parfum sont considérés comme des critères par les leaders.
Figure 5.24. Distribution des scores de leadership dans la population française

\/|
$|
4$
By
Figure 5.25. Critères de choix d’un parfum selon la méthode Delphi-leader

Delphi-leader
Attributs
Scores Rang Sélection
Odeur 20,63 1 oui
Pouvoir de séduction 12,88 2 oui
Esthétique du flacon 12,13 3 oui
Statut social/Personnalité 10,50 4 non
Prix 7,50 5,5 non
Caractère mystérieux 7,50 5,5 non
Réputation de la marque 7,13 7 non
Sentiment d’évasion 6,38 8 non
Grande moyenne 10,57
Source : VERNETTE É. et GIANNELLONI J.-L., « Delphi-leader : prétest d’une nouvelle méthode d’identification de critères de
choix », Proceedings of the 1st International Research Seminar on Marketing Communications and Consumer Behavior, juin 1995,
pp. 554-571.
\/|
2. Brand-DelphiTM
$|
4$

a. Objectifs et principes
By

L’appel à la foule produit un foisonnement d’idées ou de solutions pour la création de nouveaux


produits. Comment repérer la « bonne » idée sachant qu’elle est souvent noyée dans une masse
d’autres idées sans intérêt ? La méthode vise à faire émerger les idées les plus attractives en
s’appuyant sur la masse d’idées proposées par le groupe de répondants.

b. Méthodologie
Elle combine les principes du brainstorming (libre expression, génération d’un grand nombre
d’idées) et le principe d’itération de la méthode Delphi. Ce dernier prend ici la forme d’une
soumission séquentielle des idées émises par un individu au reste du groupe.
L’administration du groupe est asynchrone et se réalise par connexion sur un site Internet dédié. La
taille du groupe varie d’une centaine à un millier de personnes. Cet effectif est nécessaire pour
maximiser le nombre d’idées émises et pour permettre le processus itératif de réexposition aux
idées.
Dans un premier temps, chaque individu propose ses propres idées, puis sélectionne dans une liste
de huit idées produites par les autres membres celles qui lui semblent les plus intéressantes. Dans
un second temps, il évalue sur une échelle sémantique différentielle en 9 points (« J’aime
beaucoup » vs « Je déteste »), l’intérêt des idées qu’il vient de sélectionner. La figure 5.26. donne
un exemple du questionnaire.
L’exposition d’un membre aux idées produites par le groupe est gérée par un algorithme qui capture
en temps réel les nouvelles idées tout en sélectionnant dans la base un certain nombre d’idées
précédemment émises par d’autres consommateurs. Ce questionnaire repose sur un mode
d’échantillonnage adaptatif et itératif qui permet l’émergence rapide des meilleures idées avec un
nombre restreint d’itérations(161).

c. Application
La méthode est utilisable pour détecter de nouvelles tendances et idées de produits ou services,
mettre au jour de nouveaux usages et bénéfices pour les consommateurs, pour positionner ou
repositionner une marque, pour développer de nouveaux packagings, etc. La méthode offre un
classement final des idées sur une matrice comportant quatre cases : les idées « stars » sont les
idées qui sont très souvent sélectionnées et bien évaluées par les membre du groupe ; les idées
« niches » sont des idées sélectionnées par un petit nombre de consommateurs, mais très bien
évaluées par ces derniers ; les « points d’interrogation » correspondent à des idées souvent
sélectionnées, mais plutôt banales, et les « statiques » à idées jugées peu pertinentes par le groupe.

\/|
$|
4$
By
Figure 5.26. Exemple d’application de la méthode Brand-DelphiTM
Étape 1. Génération individuelle d’idées et sélection d’idées proposées par les autres membre du groupe

Étape 2. Évaluation individuelle des idées sélectionnées


\/|
$|
4$
By

Source : FLORÉS L., « Générer de nouvelles idées grâce à Internet : un exemple d’application pour le repositionnement d’un
produit »,
o
Revue française du marketing, 2005, n 204, 4/5, pp. 57-70.

Conclusion
Ce chapitre a montré la variété des méthodes de groupe. Nous avons vu que le rôle de l’animateur,
la rédaction des supports d’interview diffèrent sensiblement selon la méthode retenue : d’une
manière plus générale, plus le questionnaire est rigide et moins le rôle de l’animateur est important.
De même, la taille optimum des groupes varie selon la technique : elle est comprise dans une
fourchette de 7 à 10 membres pour les focus groups et la méthode Delphi, mais peut monter jusqu’à
plusieurs centaines de membres, si l’on fait appel aux communautés virtuelles.
Aux États-Unis, les études qualitatives exploratoires sont pratiquement toujours des réunions de
groupe du type focus group : la part des entretiens individuels est réduite. De même en France,
l’usage des groupes se généralise de plus en plus au détriment de l’entretien individuel. Mais si ces
méthodes sont courantes et relativement simples à mettre en œuvre, elles ne doivent pas faire
oublier que leur champ d’application reste limité, sauf pour la méthode Delphi, à un contexte
exploratoire ou de recherche d’idées : apprentissage d’un vocabulaire, recensement de motivations
ou de caractéristiques de marques, idéation, formulation d’hypothèses, etc. À condition de respecter
ces limites, les techniques de groupe constituent un indéniable outil de qualité pour la réalisation
d’études de marché.
Nous allons voir, dans le chapitre suivant, une autre forme d’étude qualitative, très ancienne et
moins usitée que celles exposées dans les deux chapitres précédents, l’observation, mais dont
l’usage s’accroît fortement depuis quelques années, suite à la prise en compte des pratiques et
expériences de consommation par le marketing.

\/|
$|
4$
By
Test de connaissance
(Cochez une seule réponse par question.)
Q1. La taille optimale pour la méthode TGN est :
(1) de moins de 6 personnes
(2) comprise entre 6 et 10 personnes
(3) de plus de 10 personnes
Q2. Le focus group repose principalement sur :
(1) la familiarité des participants avec le sujet
(2) la non-directivité
(3) la thérapie de groupe
Q3. Le nombre idéal d’itérations pour le groupe Delphi est de :
(1) 1 à 2
(2) 3 à 4
\/|
(3) 5 et plus
$|
4$

Q4. Avec quelle méthode l’analyse de contenu est-elle préférable pour analyser les
résultats ?
By

(1) TGN
(2) Delphi
(3) focus group
Q5. Le bulletin board nécessite :
(1) une présence synchrone des membres dans un même lieu géographique
(2) une présence asynchrone des membres dans un même lieu géographique
(3) une présence asynchrone des membres dans des lieux géographiques différents
Réponses : voir annexes téléchargeables sur www.vuibert.fr

Bibliographie
AMADO G. et GUITTET A., Dynamique des communications dans les groupes, A. Colin, 1991.
CLAXTON J.D., BRENT R. J.R. et ZAICHKOWSKI J.L., « The nominal group technique : its potential for
consumer research », Journal of Consumer Research, 7, 3, décembre 1980, pp. 308-313.
COURATIER C et MIQUEL C., Les études qualitatives, L’Harmattan, 2007.
DALKEY N. C. et BROWN B., La méthode Delphi, Paris, Dunod, 1972.
DION D. (coord.), À la recherche du consommateur, Dunod, 2008.
EVRARD Y., PRAS B. et ROUX E., Market : fondements et méthodes des recherches en marketing,
Dunod, 4e édition, 2009.
FERN E., « The use of focus group for idea generation : the effect of group size, acquaintance ship,
and moderator on response quantity and quality », Journal of Marketing Research, 19, février 1982,
pp. 1-13.
FRISCH F., Les études qualitatives, Éd. d’Organisation, 1999.
FÜLLER J., JAWECKI G. et MÜHLBACHER H., « Développement de produits et services en
coopération avec les communautés en ligne », Décisions Marketing, vol. 48, octobre-novembre
2007, pp. 47-58.
GALAN J.-P. et VERNETTE É., « Vers une quatrième génération : les études de marché on line »,
Décisions Marketing, no 19, janvier-avril 2000, pp. 39-52.
GROFF A, CHENEVIER E. et DEBOIS F., La boîte à outils de la créativité, Dunod, 2011.
HERBERT M., « Réunion de consommateurs : comprendre les motivations de la participation »,
Décisions Marketing, vol. 36, 2004, p. 29.
LEBEL P., La créativité en pratique, Éditions d’Organisation, 1990.
\/|
OSBORN A., Créativité : l’imagination constructive, Dunod, 1988.
$|
4$

TEMPLETON J. F., The Focus Group, Irwin, Chicago, 1994, pp. 235-244.
VERNETTE É., « La méthode Delphi, une aide à la prévision marketing », Décisions Marketing, no 1,
By

janvier-avril 1994, pp. 97-101.


Chapitre 6

Investigation par observation


Il n’y a point d’endroit sur terre où l’observateur ne trouve des extravagances, s’il est étranger.
Giacomo CASANOVA

L’observation et la compréhension de l’expérience de consommation sont au cœur des stratégies de


marketing expérientiel. Cet état subjectif, intense, suscite des émotions fortes qui facilitent
l’immersion et laisse un souvenir durable chez le consommateur. L’observation des différentes
expériences oriente la création de nouveaux produits et services. Une autre stratégie, la co-création,
propose d’observer les interactions entre le consommateur et le produit pour comprendre comment
le client se construit une histoire personnelle avec la marque. Les communautés virtuelles sur
\/|
Internet, dont le développement est sous-tendu par la montée en puissance des réseaux sociaux, sont
$|
des lieux privilégiés d’observation des nouvelles pratiques et tendances de consommation. Les
4$

techniques d’observation offrent un potentiel d’investigation très intéressant et bien adapté pour
répondre à ces nouveaux besoins d’études. Nous commencerons par brosser un panorama des
By

différentes formes, puis nous détaillerons les approches fondées sur l’observation non participante,
poursuivrons avec celles qui privilégient la participation et finirons par les techniques mixtes (voir
figure 6.1.).
Figure 6.1. Plan du chapitre

\/|
$|
4$

I. Différentes formes d’observation


By

Nous présentons et comparons dans ce paragraphe les trois grandes familles (non participante,
participante, mixte), puis nous évaluerons les avantages et les limites de l’observation par rapport à
l’interview.

A. Différentes familles
Il existe trois grandes familles d’observation (voir figure 6.2.).
Figure 6.2. Comparaison des familles d’observation

Applications
Formes Principes Approches
marketing
– Suivi de comportement
– Observation d’un
(acte d’achat). – Distribution.
comportement usuel
– Mesures – Mesure des émotions (peur,
(parfois effectuée à l’insu
physiologiques à partir joie, surprise, etc.).
Non du sujet).
de stimuli. – Publicité (suivi du
participante – L’observateur – Appareillage complexe
n’intervient pas. mouvement des yeux).
(tachytoscope,
– Sujet passif (exécute pupillomètre, scanner,
les instructions). IRM, etc.).

– Ethnographie
(ethnomarketing) :
immersion durable dans
une communauté ou – Compréhension des
– Interactions entre groupe. pratiques et rituels de
l’observateur et le sujet. – Netnographie : communautés de fans
– Observation d’un immersion virtuelle on (marque).
comportement usuel. line durable avec – Apprentissage d’un
– L’observateur pose des observation des discours vocabulaire.
questions au sujet pour et pratiques sur un réseau – Observation des influences
comprendre le sens du social ou un forum. des membres d’un groupe
comportement. – Anthropologie (famille, communauté) sur les
Participante
– Immersion plus ou visuelle : immersion modalités de consommation.
moins longue dans un durable avec prise – Usage des produits,
groupe ou suivi de photos ou vidéos dans modalités et moment de
individuel. une communauté ou un consommation, zone de
– L’observation doit être groupe. \/| stockage et débarras.
acceptée, voire oubliée, – Méthode des – Recherche d’idées de
par l’individu ou le itinéraires : observation nouveaux produits et services
$|

groupe. des différentes étapes du (détournement de produits,


4$

cycle de consommation nouvelles applications).


d’un produit (achat,
By

stockage, mode de
consommation, débarras).
– Observation complétée
par des interviews – Usage des produits,
– Ethnométhodologie
individuelles (narration) modalités et moment de
(photos, vidéos, récits de
de type consommation, zone de
vie et histoires de vie).
phénoménologique ou stockage et débarras.
Mixte – Protocoles verbaux.
introspectif. – Contrôle d’un argumentaire
– Simulation d’un
– Observation scénarisée de vente (marque et
comportement d’achat
(l’observateur joue un concurrents).
(achat mystère).
rôle déterminé à – Audit qualité (service).
l’avance).

– L’observation non participante correspond à une situation d’enregistrement passif d’un


comportement ou d’un événement. L’observateur est effacé, voire caché : il cherche avant tout à se
faire oublier du sujet observé. Les observations sont effectuées de manière directe (comptage,
chronométrage) ou avec l’assistance d’un matériel, généralement sophistiqué.
– À l’inverse, dans l’observation non participante, l’observateur a un rôle moteur. Après une
période d’immersion, plus ou moins longue, destinée à se familiariser et à se faire accepter par le
sujet ou la communauté, l’observateur pose des questions, se fait expliquer telle ou telle chose par
les participants à l’étude. Ce principe est privilégié en sciences sociales par les ethnographes et les
anthropologues.
– Enfin, l’observation mixte mélange, voire remplace, l’observation par une interview auto-centrée
sur le sujet. Par exemple, on demande à ce dernier de penser à voix haute durant un achat ou de
raconter une histoire de consommation personnelle. L’entretien est généralement de nature
introspective ou phénoménologique (voir chapitre 4). Cette approche est notamment privilégiée par
un courant de la sociologie (l’ethnométhodologie) et par certains ethnologues. L’enquêteur peut
également appliquer un script (scénario) d’achat sur un lieu de consommation pour évaluer les
réactions et les comportements des acteurs.

B. Observation ou interview ?
Le panorama précédent montre que les domaines où l’observation peut se substituer à l’interview
sont larges.
Ces techniques sont particulièrement utiles dans deux situations :
\/|
– l’observation est la seule méthode envisageable. C’est le cas lorsque le langage est
incompréhensible par l’homme, par exemple pour l’étude des comportements animaliers
$|
(« l’éthologie ») ou le suivi de très jeunes enfants ;
4$

– l’observation est un mode d’approche original de l’activité humaine. Elle permet d’aller plus
avant dans la compréhension du sens d’un comportement, notamment lorsque les techniques
By

classiques d’interviews sont sujettes à des biais de rationalisation ou de désirabilité sociale. En


outre, l’observation révèle des comportements complexes, tels ceux liés à la conduite automobile.
De même, l’observation du mouvement des yeux offre une voie intéressante pour déterminer les
éléments d’une publicité qui sont vus en premier.
En contrepartie, dans le domaine marketing, les méthodes d’observation posent différents
problèmes :
– subjectivité et difficulté d’interprétation. Il est parfois difficile de trancher entre ce qui s’est
effectivement passé et ce qui a été interprété par l’observateur. Par exemple, un consommateur
s’arrête un instant devant une tête de gondole où se trouve un produit en promotion : l’observateur
peut noter qu’il a été impressionné favorablement par l’offre spéciale, alors que dans la réalité,
l’arrêt n’était dû qu’à un besoin de repos. D’une manière plus générale, il convient de s’interroger
sur la fiabilité et la validité des techniques d’observation. En effet, plusieurs biais ont été
identifiés. Les plus courants sont l’effet de halo (l’observateur projette un sentiment personnel
subjectif sur l’ensemble des observations), l’effet de cobaye qui tend à produire, chez les individus
observés, des comportements différents de ceux de la réalité, et enfin, l’effet de focalisation de
l’observateur sur les seuls faits saillants. Le flash-étude 6.1. illustre ces problèmes d’interprétation
et montre l’intérêt d’une triangulation des méthodes de collecte. Dans cette perspective, les
méthodes d’observation mixte qui combinent l’observation (participante ou non) avec une interview
auto-centrée offrent une réponse intéressante ;
– faiblesse du nombre de variables mesurables. La durée totale d’une action ou d’une réflexion, les
gestes opérés, la présence ou l’absence d’un objet, le nombre de manipulations, l’achat ou
l’absence d’achat sont à peu près les seules variables mesurables sans appareillage. Ce n’est guère
suffisant pour expliquer ce qui conduit un consommateur à choisir la marque X plutôt que Z ;
– lourdeur et coût. Les techniques d’observation nécessitent des observateurs bien formés, une plus
longue période de temps pour la collecte des données et sont globalement plus coûteuses que les
techniques d’interviews.
En résumé, les techniques d’observation sont utiles à un stade exploratoire pour comprendre ce qui
fait sens dans une consommation : plaisir, attentes, mode opératoire, contraintes et obstacles pour
l’usage. Dans une perspective managériale, elles orientent la création du produit et facilitent la
compréhension de son environnement ; dans une optique de recherche, elles favorisent la
formulation d’hypothèses.

Flash-Étude 6.1.
De la difficulté d’interpréter l’observation
Voici le récit que fait une personne de son activité au réveil et les comptes rendus qu’en font des
observateurs différents à partir du film de cette séquence.
\/|
$|
Récit de l’intéressé : Ce vendredi matin, je me suis réveillé un peu plus tôt que d’habitude, à
4$

7 h 30. Après quelques exercices pour me dérouiller les jambes, je suis allé voir le temps qu’il
faisait par la fenêtre. J’aime bien savoir très vite comment je vais m’habiller le matin...
By

Observateur 1 : 7 h 30, le réveil sonne ; 7 h 40, il descend du lit en prenant appui sur un seul
pied, titube : 7 h 41 fait trois allers-retours dans la chambre et se dirige vers la fenêtre du
balcon ; 7 h 45 regarde le ciel de gauche à droite ; 7 h 46 regarde le thermomètre et le baromètre.

Observateur 2 : Une personne âgée se réveille à contrecœur. Son premier souci est de se
dégourdir les articulations ; le second est de chercher à savoir comment s’habiller pour aller
travailler.

Observateur 3 : Après la sonnerie du réveil, un homme âgé de 45 à 50 ans s’étire pendant dix
minutes dans son lit avant de poser le pied par terre. Il fait quelques allers-retours dans sa
chambre avec la démarche hésitante de quelqu’un qui a fait beaucoup de sport la veille ou qui
souffre d’arthrite. Il se déplace directement, d’un pas plus assuré, de sa chambre à la fenêtre de
la salle de séjour qui donne sur le balcon. Il scrute le ciel avec une moue dubitative, regarde en
direction du thermomètre, hésitant peut-être à aller se recoucher ou à se préparer pour partir.
Source : BLANCHET A., GHIGLIONE R., MASSONAT J. et TROGNON A., Les techniques d’enquête en
sciences sociales, Dunod, pp. 17-18.
C. Mise en situation
La figure 6.3 illustre la mise en œuvre des différentes formes d’observation. En pratique, deux
grandes décisions doivent être prises : le choix de l’environnement de l’observation (en milieu
naturel ou en milieu reconstitué), le degré d’intervention de l’observateur (interaction nulle,
modérée, forte). Les trois formes les plus couramment utilisées pour les études marketing sont :
l’observation non participante, l’observation participante et l’observation mixte. Nous allons les
présenter dans les paragraphes suivants. On remarquera que l’observation de type « télé-réalité »
sort du champ des études marketing, dans la mesure où elle reproduit une réalité scénarisée. Les
techniques de tests de produits(162) rentrent dans la catégorie des études marketing, mais la nature de
l’observation étant particulière, totalement dirigée et contrôlée par l’observateur, elle sort du
champ anthropologique.
Figure 6.3. Les différentes formes d'observation

\/|
$|
4$
By

Source : adapté de A. Michalowska, « Études : de l’observation passive à l’observation active »,


Marketing Magazine, no 117, 1er novembre 2007 ; schéma adapté de l’Ifop.

II. Observation non participante


Avant d’engager une observation non participante, le chargé d’études doit répondre à deux
questions préliminaires.

Faut-il signaler sa présence au sujet observé ?


Deux situations sont envisageables.
– L’observateur n’est pas repérable ou est remplacé par une machine. C’est le cas de l’observation
sur un lieu de vente avec une caméra cachée ou derrière une glace sans tain. C’est également le cas
avec les mesures directes de comportement de consommation de média (télévision, Internet) ou au
point de vente (lecture optique au passage en caisse) où un boîtier électronique ou un logiciel opère
en arrière-plan pour effectuer les mesures. L’avantage est la réduction de l’effet cobaye, c’est-à-
dire la modification, volontaire ou involontaire, du comportement du sujet parce qu’il se sait
observé. Cependant, d’un point de vue déontologique, il est interdit de pratiquer un enregistrement,
par quelque moyen que ce soit, sans l’assentiment express de la personne concernée. Néanmoins,
cet accord peut être obtenu postérieurement à l’observation.
Le Code de déontologie européenne CCI/ESOMAR stipule dans son article 7, alinéa b :
« La personne interrogée doit pouvoir être informée immédiatement après l’interview que ses actes
et/ou ses déclarations ont été observés, enregistrés ou filmés : elle doit avoir la possibilité de voir
ou d’entendre la partie de l’enregistrement en cause et, si elle le souhaite, obtenir sa destruction ou
sa suppression. »
– L’observateur signale sa présence, puis cherche à se faire oublier. Les capteurs électroniques
destinés à mesurer les réactions d’une personne entrent dans cette catégorie. L’inconvénient, dans le
cas d’un suivi d’achat ou de consommation, est l’apparition probable d’un effet cobaye. Pour
limiter celui-ci, il convient d’observer un temps de latence avant de démarrer l’observation
proprement dite, de façon à ce que le sujet oublie le plus possible la présence de l’observateur.
\/|
$|

Quel matériel utiliser ?


4$

En fonction du type de matériel utilisé, on distingue deux types d’observation : l’observation simple
By

et l’observation appareillée. Dans le premier cas, le suivi des faits et gestes du sujet se réalise par
une simple annotation ou avec l’assistance d’un matériel d’enregistrement léger (magnétophone,
appareil photo, caméra vidéo). Dans le second cas, l’investigation nécessite un matériel lourd et
intrusif : capteurs, sondes, logiciels, etc. Nous présenterons successivement ces deux approches.

A. Observation simple
1. Méthodes
Les méthodes utilisées s’inspirent de celles pratiquées en éthologie, c’est-à-dire l’observation des
comportements animaliers. Trois pratiques éthologiques sont utilisables en marketing(163) :
– scanning ou tour d’horizon. À partir d’un poste fixe, l’observateur procède à un balayage visuel
d’une zone. II consigne, en partant d’une extrémité de la zone, les différentes catégories
d’observations, appelées « praxemes » : par exemple, les rencontres entre sujets, les différentes
actions entreprises, etc. Ce balayage doit être effectué plusieurs fois, à des périodes différentes
(heures, jours, mois) pour obtenir une vision représentative des différents comportements ;
– focus. L’observateur est fixe et relève les gestes et les actions individuelles au cours d’une
opération particulière : par exemple avant, pendant et après la préparation d’un plat cuisiné ; ou
encore, le nombre de manipulations d’un produit avant qu’il soit mis dans le chariot, la lecture
d’une information, etc. ;
– tracking. L’observateur tire au sort un individu et le suit dans ses déplacements dans une zone
déterminée.
En marketing, ces différentes techniques se pratiquent sur les points de vente ou dans des lieux
enclavés de consommation d’un produit ou d’un service : terrain de loisir, cuisine, bureau, voiture,
etc. L’unité observée peut être de trois types : un enfant, un adulte, un distributeur. L’observateur
dispose d’une grille qui récapitule les variables devant être mesurées, par exemple : nombre de
marques manipulées, temps de réflexion avant l’achat, nombre de produits et marques référencés,
prix pratiqués, etc. (voir figure 6.4.).
Figure 6.4. Exemples d’observation de variables marketing

Enfants et achat Consommateurs


Distributeurs
familial adultes
– Durée de consommation
– Initiative des demandes – Produit ou marque référencé
– Présence d’une liste d’achats
d’achat = disponibilité numérique
– Temps de réflexion avant
– Nombre de conflits avec les – Présence ou absence du
l’achat
\/|
parents produit (marque) en rayon
– Nombre de produits (ou
$|
– Marques proposées et = taux de rupture linéaire
marques) pris en main
4$

achetées – Présence ou absence du


– Lecture des informations
– Présence d’une liste d’achats produit en réserve
figurant sur l’emballage
By

– Temps de réflexion avant = taux de rupture linéaire


– Lecture et suivi du mode
l’achat – Longueur du linéaire attribué
d’emploi
– Nombre de produits (ou = linéaire moyen
– Lecture du prix affiché
marques) pris en main – Relevé des prix :
– Quantités et variétés achetées
– Lecture du prix affiché % en promotion,
– Jour et heure d’achat
– Quantités et variétés achetées % au prix de base
– Jour et heure d’achat

Ces observations ne sont pas à proprement parler du ressort des techniques qualitatives, car elles
sont aisément quantifiables. On touche là au caractère parfois artificiel de la dichotomie entre les
techniques qualitatives et quantitatives. La raison de leur classement vient du fait qu’au départ
toutes ces observations reposaient sur une collecte manuelle, ce qui n’est aujourd’hui plus le cas
avec la lecture optique. Cependant, l’affectation d’une information dans une catégorie de la grille
demande fréquemment une appréciation « qualitative » à l’observateur : par exemple, sur quelles
bases considérera-t-on qu’un consommateur a lu le prix avant l’achat ?
La construction d’une grille d’observation nécessite de lister les différentes catégories et sous-
catégories d’items qui sont l’objet des mesures et les unités de mesure associées. Les mesures
portent généralement sur l’occurrence de l’item et sa durée. Elles consistent souvent en un simple
comptage : nombre d’arrêts devant un rayon d’un magasin, durée, nombre de produits pris en main,
etc. L’enquêteur renseigne les cases, les différentes options ayant été déterminées à l’avance. On
peut aussi utiliser l’enquêteur pour juger la qualité des items observés (marques, produit, activités)
à l’aide d’échelles d’attitude classiques. Mais dans ce cas, on se rapproche des techniques
d’enquête mystère (voir partie IV).

2. Évaluation
L’observation simple est utile pour comprendre les interactions entre un objet (marque, produit) et
un consommateur, et plus particulièrement les aspects non verbaux d’une expérience. Par exemple,
elle permet de voir quels sens (toucher, odorat, vue, etc.) le consommateur mobilise pour découvrir
un nouveau produit. Ces études sont notamment utiles pour évaluer l’ergonomie d’un nouveau
produit (voir flash-étude 6.2.).

\/|
$|
4$
By
Flash-Étude 6.2.
Découverte d’un nouveau produit
Contexte
Au stand de Francfort, Citroën présentait en septembre 1999 son nouveau monospace de milieu
de gamme, la Xsara Picasso. L’objectif était d’observer les premières réactions et
comportements des consommateurs face à ce nouveau produit.

Méthode
Deux observateurs ont noté le comportement d’une centaine de visiteurs qui ont approché,
regardé le véhicule et sont montés dedans. Des observations ont été menées dans le même temps
sur des véhicules de la concurrence (Renault Scénic et Fiat Multipla). L’analyse des gestes
fonctionnels a porté sur les touchers (sensation tactile pour se donner une idée de la qualité des
matériaux), les manipulations (fonctionnement d’un élément, telle qu’une porte, une vitre, un
levier de vitesse), les regards (carrosserie, tableau de bord, etc.), les positionnements (réglage
du siège, rétroviseurs, etc.). Le nombre d’occurrences des différents gestes et leur durée ont été
comptabilisés. \/|
$|
Résultats
4$

Un client consacre en moyenne 117 secondes pour explorer une Picasso (53 secondes pour
l’extérieur, 64 secondes pour l’intérieur) ; il procède à 4 manipulations : 2 touchers, 2
By

observations, et 1,5 positionnement. Parmi les manipulations, l’ouverture de la porte du côté


conducteur arrive en tête, suivie du réglage du siège avant, du changement de vitesse, de
l’ouverture de la porte passager, du réglage du siège arrière, du satellite de commandes, du
coffre et de l’ouverture du capot. Les touchers se ventilent de la manière suivante : volant,
carrosserie, frein à main, tableau de bord. Par rapport à la concurrence, les clients d’une Picasso
procèdent à plus de touchers, ceux d’une Scénic sont plus orientés vers le visuel et ceux d’un
Multipla manipulent plus d’éléments.
Le décodage des séquences permet d’intégrer des contraintes dans le cahier des charges des
futurs produits : le client d’un monospace manipule plus certaines parties du véhicule que
l’acheteur de berline. Cette connaissance est également utile pour la formation des vendeurs en
concessions en précisant les fonctionnalités le plus souvent testées par les clients.
Source : YAHIAOUI G., Da SILVA P. et MARTIN A., « Un apport de l’éthologie aux tests produits »,
Revue française de marketing,
2000, nos 179-180, 4/5, p. 117-128.

D’une manière générale, l’observation en laboratoire ou à domicile est utile pour guider la création
et le développement de nouveaux produits.
Exemple
– Lors du lancement des premières purées minute, on a constaté que beaucoup de
ménagères ne suivaient pas le mode d’emploi et avaient tendance à mettre trop de lait
et pas assez d’eau. Ce déséquilibre remettait en cause les qualités gustatives du
produit et pouvait conduire à son rejet. Par ailleurs, les consommatrices souhaitaient
pouvoir personnaliser leur préparation en ajoutant d’autres ingrédients tels que
fromage, crème fraîche, œufs. D’où l’idée d’ajouter sur l’emballage des suggestions
de préparation permettant de « déculpabiliser » l’utilisatrice tout en valorisant le
produit.
– Un problème analogue concerne le café soluble : les consommateurs ont tendance à
le considérer comme moins corsé que le café traditionnel, d’où un surdosage, ce qui
nuit à la perception du goût. Maxwell a conçu alors une campagne de publicité sur le
thème : « Maxwell, une cuillère ça suffit ».
– L’« Ateliez », imaginé par Danone à Massy-Palaiseau (Essonne), reconstitue une
véritable cuisine dans laquelle évoluent les consommateurs, observés derrière une
glace sans tain. Il a été particulièrement utile pour mettre au point Volvic Touche de
fruit, une nouvelle eau aromatisée, en observant à chaud les réactions des participants.
Ce procédé permet de corriger sur le champ un produit jugé trop sucré ou trop pâle
\/|
dans les laboratoires attenant à la cuisine ; l'acide citrique a ainsi été remplacé par du
$|
jus de citron, le taux de sucre abaissé au maximum en prenant garde à ne pas altérer le
4$

plaisir sensoriel. Le plus difficile consiste à respecter la perception que le


consommateur se fait du goût d'une framboise ou de la couleur que devrait avoir une
By

eau au pamplemousse(164).

Ces techniques sont également utiles dans le cas d’études portant sur l’achat familial. Plusieurs
études ont ainsi observé le déroulement des achats d’enfants seuls ou accompagnés : par exemple, il
a été montré(165) que l’enfant était en moyenne à l’origine de 30 % des demandes d’achat pour les
biscuits, produits laitiers ou d’entretien ; d’autres observations(166) révèlent que les enfants
n’utilisent que très peu les chariots en libre-service, ne consultent guère leur liste et ont plus
tendance à regarder le conditionnement que le prix des produits.
L’analyse des données recueillies par l’observation suit les grandes lignes de celle utilisée pour les
entretiens en profondeur : établissement et remplissage d’une grille de codification des
observations, quantification par fréquence d’apparition, puis rédaction d’un rapport de synthèse.

B. Observation appareillée
Avec les techniques précédentes, c’est l’homme qui évalue les différentes valeurs des variables de
l’étude : par exemple, il note la durée de réflexion avant un achat, le nombre de critères utilisés,
etc. Avec l’observation appareillée, c’est un système électrique, mécanique ou électronique qui
calcule les valeurs à enregistrer. Ces mesures présentent l’avantage d’être objectives et fiables.
La figure 6.5. présente les techniques les plus courantes. La plupart de ces systèmes, tels les
scanners ou les audimètres, ne relèvent pas réellement des techniques qualitatives, puisqu’ils
permettent une quantification, voire une modélisation des comportements. Nous les présentons
néanmoins dans ce chapitre, dans un souci d’exhaustivité.
La principale limite de la plupart de ces appareillages réside dans leur lourdeur de mise en œuvre
et surtout dans la nécessité de travailler en « laboratoire », ce qui tend à renforcer l’effet de cobaye
chez le sujet.
Cependant, les progrès technologiques suppriment ou réduisent ces limites. Ainsi, le scanner
mesure les achats sans aucun biais d’instrumentation. Les caméras pupillométriques ne nécessitent
plus de capteurs spécifiques : l’optique est couplée à un logiciel qui donne une précision de l’ordre
du 1/10e de seconde pour la fixation du regard inférieure et de cinq millimètres pour la restitution
des coordonnées de la zone balayée. Le magazine électronique (méthode ART) mesure la
perception visuelle inconsciente dans une situation proche de la réalité : un logiciel reconstitue les
colonnes d’un magazine avec les textes et la publicité à tester(167). L’attention du sujet est fixée sur
un curseur qu’il déplace sur chaque ligne, en faisant attention à ne pas toucher les mots, afin de
détourner son attention des publicités (voir figure 6.6.). On calcule ainsi la variation de la
mémorisation des publicités selon leur emplacement et leur taille.
Figure 6.5. Principales techniques d’observation appareillée
\/|
Principes techniques et types Domaines
$|
Méthodes
de résultats observés d’application
4$

Analyse vocale Mesure de l’état émotionnel.


By

Détection de changement dans les fréquences


(a)
de vibration de la voix d’un sujet. Comportement d’achat
Enregistrement par un système informatisé des Publicité
(Vopan : Voice
variations par rapport au niveau émotionnel
Pitch Analysis)
correspondant à une situation de détente.
Délai de réponse Mesure de la vitesse de réponse à une
Publicité
(a) question, réalisée par un système électronique.
Mesure de l’état émotionnel ou de l’intérêt
Galvanomètre face à un stimulus.
Pré-test publicitaire
(b) Capteur placé dans les paumes du sujet pour
mesurer les variations de transpiration.
Mesure de perception visuelle et de
mémorisation.
Tachytoscope Perception subliminale
Système vidéo permettant de faire varier la
(a) Publicité
vitesse de défilement d’un film (nombre
d’images/seconde).
Mesure de la perception visuelle et de la
Magazine électronique mémorisation inconsciente. Média-planning
(e) Efficacité publicitaire
Système informatique gérant un texte et des
images défilant selon une vitesse variable.
Mesure du mouvement des yeux, dilatation
Acquisition et
de la pupille.
Caméra pupillométrique traitement de
Détermination des éléments d’une image qui
(a), (d) l’information
sont vus en premier, de la durée de fixation du
Pré-test publicitaire
regard, des coordonnées de l’image.
Mesure de la complexité cognitive.
Détermination de la quantité d’information Identification des
utilisée pour choisir une marque ou un produit. critères de choix d’un
Tableau d’information
Tableau à double entrée (marque et attributs) produit.
(IDB : Information
sur support papier ou informatisé. Acquisition et
Display Board) (b)
Les informations sont au dos de cartes, formant traitement de
les cellules du tableau, et sont retournées à la l’information.
demande des sujets.
Mesure de l’audience télévision.
Boîtier électronique connecté sur un téléviseur
et relié par Internet à un ordinateur central :
mesure de la durée de fonctionnement du
\/|
téléviseur.
$|
Caméra cachée derrière l’écran et couplée à un
audimètre : mesure de la présence de la
4$

personne devant l’écran.


Audimètre (c)
Mesure de l’audience d’un site Web. Publicité
By

« People meter » (c)


Insertion d’un logiciel sur un micro-ordinateur (Média-Planning)
« Web analytics » (g)
(récupération des adresses des sites visités par
le navigateur).
Comptage des visiteurs et des pages lues par
les visiteurs d’un site (nombre de pages,
nombre de visites, % de nouveaux visiteurs,
taux de rebond sur les autres pages du site) :
logiciels Google Analytics et AdPlanner,
cookies, fichiers logs.
Mesure électronique des parts de marché et
chiffres d’affaires.
Distribution
Scanner (lecture optique) Systèmes de lecture optique installés aux
caisses des points de vente : à partir des (Panels)
codes-barres, on identifie les références des
produits achetés.
Détermination de l’activation de zones Acquisition et
cérébrales. traitement de
Scanner (IRM), Mesure directe de l’activité cérébrale (EEG et l’information
Electroencéphalogramme magnétoencéphalographie). Publicité
(EEG) (f) Mesure indirecte par variation de débit (Mémorisation)
sanguin (IRM). Neuro-marketing

Pour des références sur les techniques précisées dans le tableau ci-après, voir :

(a) CHURCHILL G.A. Jr., Marketing Research, Dryden Press, Chicago, 4e éd., 1987, pp. 263-267 ; GREEN P.E., TULL D.S. et
ALBAUM G., Research for Marketing Decision, Prentice Hall, 5e éd., 1988, pp. 188-1991.
(b) JACOBY J., CHESNUT R.W. et FISHER W.A., « A behavioral process approach to information acquisition in non durable
purchasing », Journal of Marketing Research, novembre 1978, pp. 532-542. Pour une adaptation à Internet, voir PETR C et HESS-
MIGLIORETTI A, « La méthode des tables d’information : un renouvellement grâce à Internet ? », Décisions Marketing, vol. 57,
janvier-mars 2010, pp. 19-30.

(c) PARASURAMAN A., Marketing Research, Addison Wesley Publishing Co, Reading Mas, 1991, 2e éd., pp. 243-245.
(d) LHOSE G., « Consumer eye movement patterns on yellow pages advertising », Journal of Advertising, vol. 26, 4, printemps 1997,
pp. 61-73 ; STEWART J., PICKERING M. et STURT P., « Se servir du mouvement des yeux durant la lecture comme mesure
implicite de l’acceptabilité des extensions de marques », Recherche et Applications en marketing, 2005, vol. 20, no 4, pp. 97-110.
(e) SHAPIRO S., MCINNIS D., HECKLER S. et PEREZ A., « An experimental method for studying unconscious perception in a
marketing context », Psychology & Marketing, vol. 16, no 6, 1999, pp. 459-477.
(f) DROULERS O. et ROULLET B., « Émergence du neuromarketing : apports et perspectives pour les praticiens et les
chercheurs », Décisions Marketing, no 46, avril-juin 2007, pp. 9-22 ; YOON C., GUTCHESS A., FEINBERG F. et POLK T., « A
functional magnetic resonance imaging study of neural dissociations between brand and person judgments », Journal of Consumer
\/|
Resarch, vol. 33, 2006, pp. 31-40.
(g) BELVAUX B. et FLORES L., « L’utilisation de proxies du Web pour la prédiction des marchés, une application au marché
$|
cinématographique », Décisions Marketing, no 57, janvier-mars 2010, pp. 9-18.
4$

Figure 6.6. Mesure de la perception visuelle inconsciente selon la méthode ART


By

Source : Adapté de SHAPIRO S. et al., op. cit., 1999, p. 464.

III. Observation participante


La particularité de cette forme d’observation est que le chercheur s’immerge, plus ou moins
durablement, dans les pratiques quotidiennes des personnes observées : il écoute, interagit, regarde,
note, enregistre, prend des photos ou des vidéos. La plupart de ces techniques ont été mises conçues
pour des applications différentes du marketing : elles sont issues de l’anthropologie et de
l’ethnologie. Nous commencerons par situer et différencier ces disciplines, puis nous présenterons
les méthodes ethnographiques et leurs applications à Internet (netnographie, twetnographie) et
finirons par les techniques d’anthropologie visuelle.

A. Anthropologie, ethnologie et ethnographie


Il n’est pas toujours facile de distinguer l’anthropologie de l’ethnologie, ce clivage donnant lieu à
de fréquents tiraillements entre les différentes écoles. Ces disciplines traitent d’un point commun :
l’étude de l’homme sous toutes ses dimensions et, plus particulièrement, dans ses relations avec
d’autres hommes vivant dans un même milieu, utilisant des objets propres, suivant des rituels et des
coutumes spécifiques.
La tradition universitaire française considère que l’anthropologie est le domaine des
généralisations théoriques, l’ethnologie correspond au stade des synthèses préliminaires,
l’ethnographie se cantonnant à la seule collecte des données. De leur côté, les Anglo-Saxons
admettent que l’anthropologie coiffe l’ethnologie et bien d’autres disciplines des sciences
humaines. La fiche technique 6.1. propose quelques repères supplémentaires pour éclairer cette
question.
\/|
$|
4$
By
Fiche technique 6.1. Anthropologie, ethnologie et ethnographie en sciences
sociales
L’anthropologie est une discipline des sciences humaines dont les frontières varient selon les différentes écoles
de pensée. D’un point de vue étymologique, en grec ancien, anthrôpos signifie « l’être humain », et ethnos renvoie
à la famille, la tribu ou la communauté.
Le projet de l’anthropologie est l’étude de l’homme dans sa globalité, c’est-à-dire un membre appartenant à une
société, une culture ou un groupe et ce, à toutes les époques historiques ou préhistoriques, sous toutes les
latitudes, et dans tous ces états (vivant ou mort). L’étude anthropologique se focalise sur le « rapport à autrui
chez les autres »(168) : elle ne se réduit pas à l’étude d’un objet particulier (religion, famille, langage, tradition,
mode de vie), ni à un lieu géographique ou habitat particulier (ville, campagne, désert, pôle, île, forêt, etc.), ni à
une période historique (contemporaine ou révolue).
De son côté, le projet ethnologique a souffert d’un marquage lié à son développement durant l’époque coloniale
et d’une vision taxinomiste qui cherchait à différencier et classer les langues, les peuples selon des critères
physiques ou culturels. L’ethnologie repose sur l’ethnographie, c’est-à-dire un ensemble de méthodes destinées à
collecter les données de terrain, et propose ensuite une interprétation des données qui fait appel à différentes
théories explicatives (structuralisme, culturalisme, fonctionnalisme).
L’ethnographie se nourrit d’un travail d’observation et d’écriture. Elle s’appuie sur une collecte de données et de
documents, puis propose une première description empirique (graphie) sous forme d’enregistrement des faits
humains, de traductions, de classement des éléments que l’on estime pertinents pour la compréhension d’une
société ou d’une institution(169). Elle se concrétise par des monographies portant sur les divers aspects du
groupe observé. Ces groupes sont très variables : ce peut être une ethnie d’Océanie, une banlieue d’Europe, une
\/|
fête régionale, un club de supporteurs de rugby. Ces méthodes reposent sur « une observation directe des
comportements sociaux particuliers à partir d’une relation humaine, la familiarité avec des groupes que l’on
$|
cherche à connaître en partageant leur existence »(170). Les premiers ethnologues se contentaient de faire venir
4$

dans leurs résidences coloniales les indigènes pour observer leurs comportements et les interviewer, puis ont
ensuite quitté celles-ci pour s’immerger dans les cadres de vie, en partageant durablement le quotidien des
tribus et peuplades observées ; peu à peu, l’observation participante a pris le dessus sur « l’ethnologie de
By

véranda »(171). L’ethnographe doit s’insérer dans le milieu étudié et interagir avec les autochtones. La
construction de la connaissance se fait progressivement, selon les principes de la « théorie enracinée »(172).
Les Anglo-Saxons considèrent que l’anthropologie se structure autour de quatre branches : (1) l’anthropologie
sociale et culturelle qui correspond à l’ethnologie ; (2) l’anthropologie physique qui regroupe l’anthropologie
biologique et médicale (biologistes travaillant sur les populations et anthropologues travaillant sur des
ossements provenant de sites archéologiques) ; (3) l’anthropologie physique, très proche de la paléontologie ; (4)
l’anthropologie linguistique renvoie à l’ethnolinguistique qui étudie la structure du langage dans différentes
cultures et leurs évolutions au fil du temps.

B. Méthodes ethnographiques
1. Objectifs
L’étude cherche à clarifier la manière dont se construit une culture au travers d’observations de
comportement ou d’expériences. Elle décrit et explique les comportements d’un point de vue
culturel ou social, plutôt qu’à partir d’une approche cognitive. En marketing, elle peut être
appliquée à la compréhension d’un marché pour faciliter la formulation d’une stratégie
appropriée(173).

2. Mise en œuvre
Par rapport à une étude de marché classique, la collecte des données présente plusieurs
spécificités :
– partage. Le chargé d’études partage la vie quotidienne ou des tranches de vie de l’unité à étudier.
Il consigne les faits observés dans un « carnet de notes » qui servira ultérieurement pour interpréter
les faits ;
– immersion durable. Le chercheur ne se contente pas d’observer les pratiques, il intervient en
posant des questions aux individus sur le sens de ce qui se passe. Une présence prolongée est
nécessaire pour qu’un climat de coopération s’installe et que l’observateur soit suffisamment
accepté pour que l’individu observé confie des éléments touchant à son intimité ;
– utilisation de photographies, d’enregistrements vidéo. Ces documents sont précieux pour
reconstituer le flux chronologique des événements et pour identifier les moments caractéristiques
d’un fait culturel. La décision de prendre une photographie à un instant précis suggère une phase
cruciale d’une expérience ou d’un rituel. Les éléments visuels (mise en scène, détails du décor,
gestes des participants) complètent et enrichissent les notes de l’observateur.
L’interprétation des comportements reste délicate. Normalement, les explications des
comportements fournies par l’analyste doivent être corroborées par les participants. Les nouvelles
observations sont continuellement comparées aux antérieures afin de vérifier la stabilité des
schémas interprétatifs. Le cheminement suivi par l’observateur pour arriver à ses conclusions doit
être transparent et largement explicité dans son rapport.
\/|
Les rituels de consommation et les pratiques de « tribus » de consommateurs offrent un champ
$|

d’étude intéressant pour le marketing. L’étude marketing, probablement la plus célèbre, a été
4$

réalisée aux États-Unis au milieu des années 1980 au cours d’une odyssée de plusieurs mois dans
plusieurs États(174). L’objectif était d’étudier les différentes formes de la consommation américaine,
By

en observant un large échantillon de produits, services, dans des lieux de consommation ou de


pratique très différents ou marginaux, tels que les brocantes. Le flash-étude 6.3. donne d’autres
exemples de résultats des techniques ethnographiques appliquées au marketing.
Flash-Étude 6.3.
L’« ethnomarketing » ou l’étude des rituels de consommation
Les rituels de consommation du Thanksgiving américain(175)
L’observation montre que les consommations et cadeaux faits ce jour-là s’inscrivent dans le
cadre d’un schéma d’« abondance négociée » : il doit exister un consensus sur les limites
supérieures et inférieures qui ne doivent pas être dépassées à cette occasion. Ces niveaux sont
activement négociés par les participants et d’importants écarts existent selon les phases du cycle
de vie du ménage. La redondance des plats exprime une abondance voulue : la dinde est truffée,
les olives de l’apéritif sont fourrées, les pains sont beurrés, etc. Les plats sont faits à la maison,
plutôt qu’achetés tout préparés. Enfin, la préparation de la table et des ustensiles est un
témoignage important de l’abondance : le service en cristal est sorti, l’argenterie astiquée, les
assiettes et couverts jetables sont interdits de séjour. En revanche, abondance ne doit pas
signifier gaspillage : la carcasse de la dinde est gardée pour la soupe, le pain est enveloppé dans
de la cellophane.

Les obstacles culturels à l’utilisation d’un médicament(176)


L’observation participante au sein des foyers suppose de partager avec la famille ou la « tribu »
\/|
les repas, les loisirs et les émotions. Nous observons les habitudes d’achat et de consommation.
$|
Ainsi, nous avons réalisé une étude pour le compte d’un laboratoire produisant un médicament
4$

contre la diarrhée, première cause de mortalité dans le tiers-monde à cause de la déshydratation


qu’elle provoque. C’est un médicament très peu onéreux à l’achat et dont l’OMS s’accorde à
By

reconnaître l’efficacité. Or son taux d’utilisation dans les pays peu développés restait faible.
Pourquoi ? « L’observation des pratiques quotidiennes a révélé deux problèmes : soit la diarrhée
n’est pas considérée comme une maladie, soit les remèdes envisagés ne sont pas adaptés. Ainsi,
pour les mamans thaïlandaises, une diarrhée à un an c’est bien, tellement qu’elles réclament des
fortifiants. À l’inverse, pour les belles-mères égyptiennes, c’est si grave qu’il faut agir dans
l’urgence. Quitte à payer cher un mauvais médicament ou à prescrire des herbes en suivant la
thérapie locale. »

3. Application : méthode des itinéraires de consommation


Cette méthode s’inscrit dans une vision culturelle et sociale de la consommation. Dans cette
perspective, on considère que les choix de produits et de marque ne résultent pas d’arbitrages
individuels effectués à un moment donné, mais d’un processus de décision collective inscrit dans le
temps et l’espace. Pour comprendre le sens de ces décisions, il faut aller au-delà de l’étude
individuelle (émotion ou raison) et intégrer les nombreuses contraintes matérielles, sociales et
symboliques.
La méthode se focalise sur les pratiques de consommation et les objets de consommation, plutôt que
sur les discours des individus(177). Elle permet de comprendre les usages, d’analyser les ressorts
d’un achat collectif (influence respective des membres de la famille), de découvrir des fonctions
manquantes pour les objets, etc. L’observation permet de repérer tout au long de l’itinéraire les
problèmes à résoudre, les obstacles et contraintes matérielles à prendre en compte pour que l’usage
du produit soit optimisé.
En effet, une décision d’achat se construit selon un itinéraire temporel et spatial, fait d’interactions
sociales (coopération, négociation, relations de pouvoir), soumis à une série de contraintes
matérielles (logistiques, surface disponible et coûts) et sociales (normes) et en fonction d’un ou de
plusieurs univers symboliques. Par exemple, on observera si le packaging permet un rangement
facile, s’il est bien adapté à l’endroit où le produit est rangé : il peut être trop haut pour les
étagères, trop large pour la porte du réfrigérateur, inadapté pour tenir sur le rebord de la baignoire
ou de la douche, etc.
Par ailleurs, l’anthropologie met l’accent sur les usages qui sont socialement et culturellement
prescrits, permis ou, à l’inverse, prohibés. Ces normes varient en fonction des espaces du logement.
Elles peuvent être appliquées ou transgressées par les individus.
En pratique, l’observateur suit le consommateur durant un cycle complet : préparation de l’achat,
achat au point de vente (ou commande), lieu de rangement, modalités de consommation, débarras de
l’objet. L’objectif visé est la reconstruction de la dynamique de la décision de consommation, en
suivant un protocole formalisé.
a. Focalisation \/|
Deux cadres sociaux sont pris en compte par la méthode :
$|
– l’entourage familial et relationnel (amis, collègues, voisinage). Sa composition, son étendue, le
4$

degré des relations et d’intimité entre les membres, leur proximité sont autant de paramètres qui
interviennent dans les choix individuels de consommation ;
By

– les étapes du cycle de vie familial (célibat, rencontre, vie commune, naissances, éducation, départ
des enfants, retraite et fin de vie) rythment et modifient les actes de consommation individuels.

b. Mise en œuvre
D’un point de vue méthodologique, la méthode s’inspire des itinéraires techniques utilisés en
agronomie qui découpent les différentes tâches à accomplir tout au long de l’année en étapes
successives.
La collecte des données complète comporte sept étapes(178). Chaque étape implique une étude de
terrain spécifique. L’accumulation permet de comprendre progressivement la consommation comme
un « système d’approvisionnement », c’est-à-dire une chaîne d’opérations interdépendantes.
Certaines sont routinières, d’autres conflictuelles, d’autres sont conviviales ou fédératrices. Le
flash-étude 6.4 donne un exemple d’identification des sept étapes d’un itinéraire de consommation
d’une famille danoise.

1re étape. Le logement


L’observation porte sur les interactions entre les membres de la famille dans les différentes pièces
du logement. Il s’agit de voir comment se construit la décision d’achat : préparation de la liste,
intervenants, négociations (chantage, pression, etc.).

2e étape. Le déplacement
Quels sont les moyens de transport des personnes (voiture, vélo, bus ou marche à pied) et des biens
achetés (sac, coffre) ? Quelles sont les fréquences et les distances parcourues entre le lieu de
résidence et le point de vente ?

3e étape. Les courses


Le point de vente est l’étape la mieux connue grâce aux études marketing qui observent le
comportement des acheteurs devant le linéaire.

4e étape. Le stockage
« Du grenier à mil au frigidaire, en passant par le congélateur, les placards et le garde-manger. »
Ces éléments symbolisent et matérialisent la sécurité et l’ordre alimentaire. L’étude du stockage
(moyen, zone, surface) montre comment les consommations alimentaires s’organisent autour
d’objets agencés selon des règles précises qui conditionnent les futurs comportements d’achat. On
\/|
aura, par exemple, la chaîne du froid, les réserves, le cycle de la propreté, etc. Le « frigidaire » est
un catalyseur des habitudes alimentaires. Son organisation, pour les adultes, suit des règles
$|
précises, structurées autour de trois niveaux de rangement : par exemple, le bas, pour les produits
4$

bruts, le milieu pour les produits préparés et les restes, et le haut du frigidaire pour les produits
laitiers. Ce rangement varie chez les jeunes adultes, seuls ou en colocation. Dans ce dernier cas,
By

chaque niveau peut être affecté à une personne différente : l’organisation n’est plus technique, ni
liée aux différences de degré de froid entre le haut et le bas, elle est conditionnée par la vie sociale.

5e étape. La préparation culinaire


Cette phase est la moins étudiée en anthropologie et marketing dans les sociétés occidentales. Elle
identifie les pratiques précédant la consommation (ouverture du produit, préparation, ingrédients),
les combinaisons entre aliments, les ustensiles mobilisés.

6e étape. La consommation et les manières de table


C’est le moment d’usage : dégustation, personnes présentes, vaisselle et présentation des objets,
disposition spatiale autour de la table ou hors de la table, gestuelle, etc.

7e étape. Les restes et les déchets


Comment les produits restants sont-ils stockés (lieu, durée), comment se débarrasse-t-on des objets
usagés (stockage, recyclage, déchetterie, etc.) ?
Flash-Étude 6.4.
Itinéraire de consommation d’une famille danoise(179)
Objectif
L’étude visait à identifier si le marché danois offrait des perspectives intéressantes pour la
diffusion du foie gras français.

Méthodologie
L’ensemble du dispositif reposait sur 64 interviews en profondeur, 8 réunions de groupe et
32 observations d’itinéraire.

Exemple d’itinéraire
L’itinéraire débute dans un lotissement de classe moyenne, avec maisons individuelles et une
école maternelle. La maison est modeste, la voiture dispose d’un large coffre, adapté à une
famille de deux enfants. La cuisine est construite à « l’américaine », sans séparation entre le lieu
de cuisson et le lieu de consommation, contrairement aux cuisines françaises. Le réfrigérateur, la
\/|
machine à laver la vaisselle, la hotte, la cuisinière électrique, la cafetière électrique et le robot
mixeur sont présents, aujourd’hui équipements électroménagers de base d’une famille au
$|
Danemark. Cette description souligne l’importance de l’électricité en particulier et de l’énergie
4$

en général dans le fonctionnement de la vie quotidienne et les pratiques culinaires.


Au sommet d’un placard se trouve un petit drapeau danois, souvent interprété par les Français,
By

de façon projective, comme un signe nationaliste. Or ce drapeau semble plus à lire, au dire des
Danois interviewés, comme un signe de fête et de convivialité, plutôt privé, que comme un signe
public. Le drapeau danois ponctue une partie de l’itinéraire d’achat.
La liste des courses est faite dans la cuisine, seule, sans discussion, ce jour-là, avec les enfants
ou le mari. Dans le coffre de la voiture un panier en plastique pliant signifie que la personne
accorde de l’importance à « l’écologie », qu’elle cherche à limiter l’usage des sacs en plastique
qui terminent comme déchet. Il s’adapte au Caddy. Il rentre dans la chaîne des objets matériels,
ici celle du portage des produits. Le drapeau danois est présent dans le parking du centre
commercial et à l’intérieur. Il y en a plusieurs dizaines.
C’est le plus grand centre commercial du Danemark. Il possède un cinéma, un McDonald’s, des
grands abris pour les vélos. Nous pénétrons dans un des deux grands hypermarchés. Les légumes
sont sous un humidificateur qui s’allume toutes les 5 à 10 minutes pour maintenir la fraîcheur ;
les produits alimentaires secs ; et, entre les deux, les produits liquides avec une trouvaille, un
vin français d’exportation, au nom évocateur de « piquette » (sic) !
Les courses sont mises dans le coffre dans les casiers en plastique, puis déposées dans la
cuisine. Le plat préparé est une sorte de plat chinois fait de légumes et de viande. C’est un peu un
plat de fête, peu fréquent. La précision des gestes et la procédure très organisée de la
préparation culinaire sont frappantes. Les objets de base sont la cuillère en bois, les couteaux de
cuisine, la casserole, la poêle et le robot électroménager. Souvent au Danemark, il y a dans les
cuisines la cuillère italienne à spaghettis et que l’on trouve dans de nombreux magasins. À la fin
de la cuisson, rien ne traîne sur l’espace de travail.
Ensuite il faut préparer la table qui est dans la cuisine. Trois objets plus « typiquement » danois
sont mobilisés : le lait, pratique fréquente au Danemark, le porte essuie-tout et les bougies. Le
porte essuie-tout peut être en bois. Il est sur la table. Il ressemble pour un Français à un « porte-
papier toilette » qu’il n’oserait pas mettre sur la table. Ici il est en métal. On retrouve
l’importance des codes de ce qui est permis, prescrit et interdit entre les cultures. Les bougies
font partie de la « culture danoise ». Le nombre de points lumineux est plus important qu’en
France. Il peut dépasser 20 par pièce. La bougie participe à ce que les Danois appellent le
hygge, traduit par « ambiance » ou « convivialité ». La nappe symbolise un événement un peu
exceptionnel. À la fin du repas, une partie de la vaisselle est faite à la main. La cuisine sera
laissée dans un ordre impeccable.

c. Interprétation
La description des usages et des pratiques s’organise autour des éléments suivants : acteurs
(nombre, rôle, statut), interactions, espace (emplacement, surface, lieu, affectation), temps consacré
et objets mobilisés pour la consommation. \/|
Les codes, normes et rituels sont détectés et interprétés selon trois types de règles : exposition,
$|
présence et répartition de l’espace (figure 6.7.).
4$

L’analyse porte sur chacune des sept étapes qui sont décrites et examinées sous les angles
précédents. D’une manière générale, l’interprétation cherche à répondre aux questions suivantes :
By

pourquoi est-ce que cela est fait ainsi ? Qui est à l’origine de cela ? Un schéma interprétatif est bâti
sur la base d’une première série d’observations ; sa plausibilité est testée sur un second jeu de
données. Les explications ont un statut provisoire qui est progressivement affiné ou remis en
question par le cumul avec les observations suivantes.
Figure 6.7. Règles relatives aux objets

Caché : est-ce que le produit est caché, hors de la vue ?


Montré : est-ce qu’on peut voir le produit ?
Exposition
Exposé : est-ce que le produit est intentionnellement montré, comme
étant, par exemple, partie de la décoration ?
Interdit : est-ce que le produit est interdit à un certain moment, un
certain espace, ou à certaines personnes ?
Permis : est-il permis à d’autres moments, dans d’autres espaces ou
Présence
pour d’autres personnes ?
Prescrit : est-ce que le produit est obligatoire, prescrit à certains
moments, dans certains espaces ou à certaines personnes ?
Public : est-ce que cet espace de la maison peut être visité par des
personnes qui n’habitent pas dans le foyer ?
Privé : est-ce que cet espace du foyer est accessible uniquement aux
Répartition de l’espace
personnes du foyer ?
Intime : est-ce que cet espace est destiné prioritairement ou
exclusivement à certaines personnes du foyer ?
Source : BÉJI-BECHEUR A. et DIAS CAMPOS R., « La méthode des itinéraires », in DION D. (coord.),
\/|
À la recherche du consommateur, Dunod, 2007, pp. 51-68.
$|

La restitution finale s’organise autour de trois pôles : (1) description des étapes de l’itinéraire du
4$

produit, codifiées par les normes et les rituels de consommation ; (2) représentation du produit ;
(3) structuration et présentation du système explicatif.
By

C. Netnographie et twetnographie
1. Netnographie
La netnographie est une observation participante menée sur le réseau Internet. Elle adapte les
principes des méthodes ethnographiques à l’étude d’une communauté virtuelle, telle que les forums,
newsgroups, les chats, les communautés de marques(180). Ces tribus virtuelles se constituent autour
de hobbies ou de passions variées, mais aussi autour de marques ou de catégories de produits ou de
services, telles que les voitures, la bière, le café, la moto, la mode, etc.(181).
Les membres les plus actifs d’une communauté de consommation connaissent particulièrement bien
les produits et sont généralement des consommateurs passionnés ; à côté de ces fans, on trouve les
« touristes » qui ne fréquentent la communauté que pour résoudre un problème ponctuel, les
« fervents », plus impliqués par le produit que par la communauté, et les « papillons », plus
attachés au principe communautaire qu’au produit.
Le principe méthodologique consiste à s’immerger durablement dans une communauté et à observer
tout ce que se disent et se racontent les membres participants. L’observateur privilégie les échanges
qui émanent des membres les plus actifs. La démarche s’opère en quatre temps(182) :
1 – Repérage et choix des sites les plus pertinents pour résoudre le problème posé. Une période
d’immersion est nécessaire pour que l’observateur se familiarise avec l’objet de la consommation,
repère les membres les plus actifs, détecte les codes et les rituels des participants.
2 – Collecte des données. Une période de six mois minimum est en théorie nécessaire, certaines
études ont duré jusqu’à deux ans. En pratique, la collecte s’achève lorsqu’il y a saturation, c’est-à-
dire lorsque les nouveaux échanges n’apportent plus d’informations nouvelles. Un journal de bord
est tenu par l’observateur : mémos et annotations diverses reprennent les sentiments, incidents,
réflexions et idées survenues durant la période de collecte.
3 – Interprétation. Les textes des membres sélectionnés sont régulièrement téléchargés par
l’observateur, après accord des participants. L’analyse se fait au fur et à mesure ; l’observateur n’a
pas d’idée préconçue sur ce qu’il cherche, le sens émanant progressivement des analyses. Les
principes interprétatifs suivent ceux des approches herméneutiques.
4 – Validation. Les conclusions de l’observateur sont soumises à plusieurs participants pour
vérifier que l’interprétation proposée fait sens pour les membres.
Cette méthode permet de décoder les langages propres à une communauté, de déceler leurs
motivations de consommation, de tracer la cartographie des différents « chemins » des désirs, de
repérer les codes d’évaluation des marques, leurs points forts et faibles. Les membres les plus
actifs des communautés (les « fans ») sont des leaders d’opinion potentiels, leurs jugements étant
fréquemment repris et cités par les autres membres du groupe. Le flash-étude 6.5. donne un exemple
\/|
de netnographie effectuée sur un forum d’appareils photo numériques.
$|
4$

Flash-Étude 6.5.
By

Netnographie des appareils photo numériques


Objectif
L’étude visait à identifier les différentes représentations des appareils photo numériques (APN)
de type reflex et compact et à mettre au jour leurs différences perçues.

Communauté
Le forum de discussion en ligne http://photonumerique.biz/index.php a été sélectionné.

Résultats
L’analogie avec le plat cuisiné et le plat « fait maison » décrit les différences de représentation
entre un appareil de photo reflex et un compact. Ces différences concernent les attentes des
consommateurs et l’acte de consommation en lui-même. Le reflex permet beaucoup de réglages ;
il s’adresse à des experts qui souhaitent réaliser des travaux pointus et spécifiques (photo
sportive par exemple). Au contraire, avec leurs modes préprogrammés et des possibilités de
réglages limitées, les appareils compacts sont adaptés aux attentes des novices qui recherchent
avant tout la simplicité d’utilisation. En termes d’image, il est cohérent pour un fabricant d’APN
reflex de produire également des modèles compacts. Deux recommandations peuvent être
formulées pour les entreprises : (1) Il convient de favoriser la simplicité et l’ergonomie
d’utilisation pour les appareils compacts, notamment grâce à des modes préprogrammés du style
« photo de nuit », « photo à la mer », « portrait », etc. (2) Il est inutile de chercher à réduire le
poids des modèles reflex et il mieux vaut éviter les coques en plastique.

Exemple
Y. le 10 septembre N : « Je suis d’accord avec toi ; un reflex de ce type pour un
débutant c’est pas évident vu tous les réglages et fonctions : il a choisi un compact,
c’est beaucoup mieux pour toi-même avec des fonctions évoluées ; ils sont quand
même plus simples à utiliser. »
Edw., le 15 novembre N : « J’ai trop donné dans le compact, je ne peux pas faire ce
que je veux avec ; je trouve ça trop carré comme photo ; tu prends ta photo ça
s’arrête là, je pense que j’aurais plus de plaisir à faire de la photo avec un
reflex... »
Tau., le 14 novembre N : « Quel que soit l’appareil choisi, il faut un minimum de
pratique avec un reflex numérique pour bien en faire ce qu’on veut. Mais c’est aussi
ça qui est plaisant ! »
\/|
$|
Edw., le 14 novembre N : « J’aime beaucoup l’aspect et le touché, un appareil plus
lourd et plus massif, mais surtout pas en plastique, me donne plus envie de prendre
4$

des photos. »
By

Source : Bernard Y., « La netnographie : une nouvelle méthode qualitative basée sur les
communautés de consommation virtuelle », Décisions Marketing, op. cit., 2004, pp. 49-62.

2. Twetnographie
De nouveaux supports en ligne apparaissent régulièrement sur Internet : Facebook en 2003, Twitter
en 2006 sont devenus rapidement des plates-formes d’échange social. Les membres se constituent
des réseaux de liens (amis, abonnés, etc.) pour échanger des informations, images, vidéos ou tout
autre type de messages. Les enjeux actuels pour les marques sont de suivre et de comprendre ce qui
se dit sur ces plates-formes de microblogging, en d’autres termes « d’écouter » les conversations
sur leurs produits et services, via le bouche-à-oreille on line.
Le terme de twetnographie a été proposé pour désigner l’exploitation des conversations tenues sur
Twitter(183). Ce site de microblogging, où les messages sont limités à 140 caractères, est au
croisement des individualités et de nombreuses communautés. Le flux d’informations atteint
rapidement plusieurs milliers d’énoncés par seconde. Le chercheur ne peut matériellement recopier
cette vague informationnelle, mais une API (Application Programming Interface) permet d’accéder
aux données. Le programme, une fois connecté à l’API, récupère les données sur la base, pendant
une durée infinie, si besoin, et de manière exhaustive. Cette collecte produit une masse
considérable d’informations : quelques semaines représentent des millions d’énoncés.
L’analyse des données suit les principes de l’analyse de contenu thématique, manuelle ou
automatisée (voir chapitre 4). Il est possible d’évaluer la teneur des conversations portant sur une
marque et ses concurrents (avis favorables ou défavorables), les croyances les plus fréquentes, le
nombre de fois où la marque est citée, etc.

D. Méthodes d’anthropologie visuelle


L’image (photographie, film, vidéo) est un outil de recueil d’information naturel en anthropologie.
Le recueil de visuels complète la prise de note et l’enregistrement des discours des participants.
L’image n’est pas une copie ou un reflet objectif d’une situation ou d’un fait : elle n’est qu’une
description de quelque chose réalisée par un observateur, une représentation du monde.
La photographie et la vidéo sont utiles pour les objectifs suivants(184) :
– dresser un inventaire des pratiques de consommation d’un groupe d’individus. Observer le
processus de choix au point de vente, tracer un panorama des styles de vie d’une communauté,
identifier des tendances de consommation d’un produit, suivre l’évolution des comportements dans
le temps, observer les usages de produits, services ou marques. Cet inventaire peut être statique s’il
porte sur des objets ou dynamique s’il porte sur des processus de consommation. Dans le premier
cas, les images sont utilisées pour dresser une liste (nombre, type d’objets possédés) et pour établir
un répertoire de leurs usages. On observe la manière dont les objets sont liés les uns par rapport
\/|
aux autres : disposition dans l’espace, mise en scène ;
$|
– réaliser une prise de note visuelle. L’objectif est une description complète et riche du terrain
4$

d’étude. Les visuels sont une représentation des objets ou des événements. L’effet de continuité des
images enregistrées réduit les biais de la mémoire humaine, tout en offrant des lectures multiples
By

des faits collectés : l’attention se porte sur des points différents à chaque visionnage. Ceci permet
de meilleures analyses pour des événements collectifs, complexes, techniques ou longs ;
– organiser des interactions. Les personnes observées participent soit à la prise de vue, soit à
l’interprétation, soit aux deux opérations. L’objectif est la recherche de ce qui fait sens dans une
pratique de consommation. Le fait que les participants choisissent telle ou telle scène ou tel ou tel
détail est révélateur d’une facette du sens ; les discussions ultérieures avec les acteurs éclairent et
facilitent la compréhension du sens des différentes pratiques.

1. Collecte (185)
a. Échantillonnage
Dans le cas d’un inventaire statique, la décision dépend du volume d’objets. Si celui-ci est
raisonnable, le recensement a du sens. Si le volume est trop important, les techniques
d’échantillonnage s’imposent ; elles suivent les principes usuels (voir chapitre 8). Pour un
inventaire dynamique, le choix porte sur la nature de la prise de vue. L’enregistrement peut être
mobile dans le temps et l’espace ou fixe, avec déclenchement des prises à intervalle de temps
régulier ou observation en continue. Le choix dépend de l’objectif et des contraintes de l’étude : la
mobilité s’impose, à l’évidence, si les pratiques de consommation sont nomades ; l’observation
continue a du sens si l’objet est sanctuarisé autour d’un lieu spécifique : machine à café en
entreprise, spot de surf, point de vente, etc.

b. Prise de vue
Elle peut être flottante, scénarisée, distribuée. La prise de vue flottante est la tradition en
anthropologie : elle est réalisée librement par l’observateur et se rapproche d’une prise de note.
Elle enregistre les situations jugées les plus caractéristiques par rapport à l’objet de l’étude, sans
souci d’échantillonnage précis. La caméra n’est pas en recul, elle est au cœur de l’événement pour
saisir l’instant critique : par exemple, les difficultés d’utilisation d’un produit, les expressions
faciales traduisant une émotion particulière. La problématique oriente les prises de vue ; ces
dernières évoluent en fonction des découvertes éventuelles. La prise de vue peut être enfin réalisée
par le consommateur lui-même : on lui donne un appareil photo ou une caméra. Celui-ci détermine
les événements qui lui semblent les plus caractéristiques de son expérience. Cette approche facilite
la compréhension du sens d’une consommation, nous l’approfondirons dans le chapitre suivant.

c. Cadrage
Il peut être serré sur l’objet ou large, sous la forme d’un panoramique. La mise au point permet une
focalisation sur tel ou tel détail, au détriment d’un autre qui devient flou. Enfin, l’angle de prise de
vue donne une vision spécifique de l’objet ou de l’événement. La multiplicité des angles facilite
l’interprétation des données : dans l’idéal, la présence de plusieurs caméras ou photographes
\/|
permet une triangulation, en révélant des détails qui auraient été cachés. Le choix d’une option de
$|
cadrage n’est pas neutre, car il oriente les interprétations ultérieures. C’est en ce sens que l’image
4$

n’est qu’une représentation particulière d’un événement ou d’un objet.


By

2. Interprétation
Différentes opérations sont nécessaires :
– le visionnage de l’intégralité des images. Cette opération est analogue à la lecture flottante des
interviews individuelles ;
– la catégorisation et la sélection des clichés ou séquences caractéristiques. Ces opérations
s’appuient le cas échéant sur le scénario initial ou sur un référentiel théorique. Elles sont analogues
à l’analyse de contenu d’un entretien semi-directif, lorsqu’il s’agit de déterminer les catégories et
de sélectionner les verbatims les plus caractéristiques des discours. Pour un film vidéo, le montage
des séquences exprime le résultat de ces analyses de contenu ;
– l’analyse. Le réalisateur des clichés décrit et explique ce qu’il voit et comment il comprend les
visuels. Si l’observateur est le chargé d’études, l’interprétation doit s’appuyer sur un cadre
théorique sociologique ou anthropologique. Si c’est la personne observée qui commente les vues, la
consigne est de la laisser parler librement, en s’attachant aux détails qui lui semblent importants
pour expliquer la situation. L’analyste peut construire un mini-guide d’entretien pour faciliter le
recueil des interprétations. Par exemple, dans la figure 6.8., on pourra demander de raconter une
histoire que suggèrent ces photos (ce qui s’est passé avant, ce qui se passe en ce moment, ce qui va
se passer), d’énumérer et de décrire les objets de l’exploration touristique (guide, sac, appareil
photo, lunettes, vêtements, nourriture, etc.), de dire qui détient les objets importants, de commenter
la position spatiale des acteurs, la direction des regards, les composants de l’arrière-plan, etc.
Figure 6.8. Les objets de l’appropriation d’une expérience touristique

Source : LADWEIN R., « Les modalités de l’appropriation de l’expérience de consommation : le cas du tourisme urbain »,
Cahier de recherche du CLAREE, 2002, universtité de Lille I.

IV. Observation mixte \/|


Dans cette forme d’investigation, l’enquêteur cumule deux rôles : interviewer et observateur.
$|
L’interview complète, voire remplace, l’observation. Il s’apparente à une introspection qui
4$

s’appuie sur les principes phénoménologiques. Pendant le déroulement de l’interview,


l’observateur note scrupuleusement des informations sur l’environnement, le décor, la présence
By

d’objets familiers ou originaux. À la fin de l’interview, il peut demander à visiter les lieux
particuliers (débarras, placards, réfrigérateur, etc.), prendre des photos ou des mesures, en fonction
de la grille d’observation prévue. Nous commencerons par présenter l’observation
ethnométhodologique, poursuivrons par l’observation narrative et finirons par l’observation
scénarisée.

A. Ethnométhodologie
1. Fondements théoriques
L’éthnométhodologie est un courant de la sociologie qui est apparu aux États-Unis dans les années
soixante, sur la base des travaux de Garfinkel(186) (voir fiche technique 6.2.). L’objectif visé est plus
modeste que celui de l’ethnographie : il ne s’agit plus d’expliquer comment se constitue une culture,
mais plus simplement, de révéler les « méthodes » que se donnent les membres d’un groupe pour
organiser leur vie sociale commune.
Fiche technique 6.2. L’ethnométhodologie en sciences sociales
L’ethnométhodologie est un courant de la sociologie qui s’inscrit dans la mouvance de l’école de Chicago. À la fin
du XIXe siècle, cette ville accueillait un grand nombre d’immigrants. Elle fut l’objet de nombreuses observations
de la part de sociologues de l’université de Chicago qui cherchaient à décrire et comprendre les évolutions
sociales de la ville. L’approche refuse tout a priori globalisant et, au contraire, explore toutes les facettes, mêmes
les plus marginales, d’une réalité sociale.
La discipline a été fondée par Harold Garfinkel en s’appuyant sur les principes phénoménologiques d’Husserl
(voir fiche technique 4.4.), en rupture avec les principes d’une sociologie globalisante propres à Durkheim. Elle se
définit comme une science des pratiques humaines qui vise à appréhender les réalités sociales « là où elles
s’expriment » et se « produisent ». Elle vise à comprendre le fonctionnement et les règles de production des
« savoirs ordinaires ». Les analyses se basent sur l’examen, en situation, des actes et des récits des agissements
d’acteurs (membres) d’une communauté humaine.
Elle pose que l’acteur se construit son propre monde et son environnement social, culturel ou historique ; il est
enraciné dans sa vie sociale et met en œuvre des stratégies qu’il maintient ou modifie, en fonction des résultats
de ses interactions avec son entourage. Il n’existe pas de grandes lois objectives auxquelles les membres d’un
groupe doivent se soumettre : au contraire, ce sont les membres du groupe qui construisent collectivement et en
permanence leur réalité sociale. Chaque membre est vu comme un sociologue capable de rendre compte
correctement de ce qu’il fait dans sa vie sociale et de la manière dont il procède.
Ainsi, le fait social n’est pas donné a priori, mais découle des structures et des normes implicites qui doivent être
découvertes par l’observateur. C’est ce cadre qui détermine le véritable sens d’un mot ou d’un acte. Il n’y a donc
pas plusieurs champs d’action distincts et séparés dans lesquels les individus agissent selon des règles
distinctes mais, au contraire, les actions individuelles sont conduites de façon identique, dans tous les contextes
\/|
d’action. Par conséquent, les actes quotidiens sont des objets d’étude à part entière ; le hors-texte social, culturel
$|
ou historique détermine le véritable sens d’un mot ou d’un acte. Il existe, dans les actes quotidiens, des
fondamentaux, des invariants qui expliquent et motivent les stratégies d’actions individuelles. La réalité sociale
4$

et ses « structures » émergent de ces agissements.


Les techniques privilégiées sont multiples : entretiens phénoménologiques, observations participantes et récits
By

de vie.

2. Principes
L’investigation utilise des supports multiples. Elle repose sur des observations directes de
comportement, matérialisées par des schémas, photos, vidéos et souvent complétées, et parfois
remplacées, par des interviews qui permettent aux individus de préciser le contexte, voire d’en
prendre conscience. La structure d’un langage est interprétée en tenant compte de l’environnement
social ou culturel, car ce dernier contribue à créer des formes de langages multiples.
La collecte des données n’est pas fondamentalement différente des principes de l’entretien
phénoménologique (voir chapitre 4). Elle consiste à obtenir des recueils de pratiques quotidiennes,
des témoignages ou des autobiographies. Les interrogations portent sur les expériences, notamment
« la première expérience vécue » : le premier achat d’un produit, la première fois que l’on a fait
telle chose, etc.
L’analyse des observations et l’interprétation des discours se fondent sur quatre concepts :
– pratique et accomplissement. C’est la recherche des méthodes utilisées par les individus pour
donner du sens à leurs actions quotidiennes. Ainsi, toutes les pratiques les plus insignifiantes ou
triviales ont du sens. L’analyse accorde une grande attention à la manière dont l’individu prend une
décision. Il s’agit de voir comment les acteurs « actualisent », c’est-à-dire adaptent les règles ou
les normes d’un groupe ou d’une culture à leur propre situation ;
– indexicalité. La vie sociale s’élabore sur la base du langage quotidien propre à chaque groupe.
En conséquence, les questions de l’interview utiliseront un vocabulaire variable selon les cibles
étudiées, le sens d’un mot dépendant de son contexte culturel ;
– réflexivité. Elle désigne les pratiques qui décrivent un système de valeurs propre à une culture ou
un groupe. Ces dernières définissent un cadre social que l’analyste doit découvrir et comprendre
pour interpréter les faits et les expériences. Par exemple, dans le milieu carcéral, c’est la « loi du
silence » qui structure le cadre de vie et sert de référence pour évaluer les comportements. Dans
l’interview, le répondant construit, au fur et à mesure de son discours, un sens, un ordre et une
rationalité propre à ce qu’il est en train de décrire ;
– caractère descripteur. Les activités des individus sont vues comme des méthodes qui rendent
intelligible leur signification sous-jacente. Toute activité a un sens qu’il convient d’interpréter.
Ainsi, à la différence de la phénoménologie, l’ethonométhodologue considère qu’une interview est
seulement un compte rendu qui indique comment les acteurs reconstituent l’ordre social ou culturel :
les faits énoncés sont moins importants que les fabrications du monde auxquelles ils renvoient.
Le flash-étude 6.6. offre un exemple d’application des principes ethnométhodologiques pour
comprendre les pratiques d’appropriation des lieux de vie communs dans un club de vacances.
\/|
$|
4$
By
Flash-Étude 6.6.
L’occupation de l’espace « piscine » dans un club de vacances
La piscine occupe une place centrale dans le club. Les membres développent de véritables
stratégies pour occuper l’espace le plus enviable, celui du pourtour immédiat de la piscine. Cet
espace est rare et ne permet pas à tous les résidents de trouver une place, d’où une appropriation
discrète des transats qui sont dans cet espace. L’observation en période d’activité ne révèle rien
d’anormal, si ce n’est qu’il n’y a pas assez de place pour les nouveaux arrivants qui doivent
alors se replier sur un second cercle, plus lointain, qui ne permet pas de s’inscrire dans le regard
des autres, ni d’observer commodément les autres vacanciers.
La conquête des transats du premier cercle se fait dès le réveil en déposant une serviette de bain
personnelle : objet personnel dont la manipulation par autrui serait perçue comme une intrusion
sociale, une violation de la sphère privée. Le marquage ne signifie pas occupation du territoire.
Ce n’est que plus tard, dans le courant de la matinée, que l’espace sera effectivement occupé.
Cela a pour effet d’offrir un spectacle tout à fait étonnant au petit matin : tous les transats sont
marqués, mais très peu sont effectivement occupés. L’espace approprié est souvent complété par
une dotation spécifique, le parasol, qui vise à renforcer la position et à accroître son confort.
Les « méthodes » mises en œuvre par les individus ne visent pas seulement à s’assurer un
\/|
emplacement mieux ensoleillé ou plus proche de la piscine, comme une observation classique
aurait pu le faire croire. Elles révèlent que le consommateur n’est pas passif dans une situation
$|
de consommation : il met en œuvre des stratégies concurrentielles pour occuper l’espace public
4$

le plus valorisé. En outre, occuper ce cercle confère aux résidents la possibilité de s’inscrire
dans le jeu social de l’expression de soi et de l’observation d’autrui qui structure les activités du
By

club.
Finalement, la qualité perçue de l’expérience dans un club de vacances est une résultante
complexe. Le choix d’une destination exotique et lointaine est certes un élément important, car
c’est plus la conception sociale d’une destination qui prime, avec une reproduction de rapports
parfois tribaux, dont il faut découvrir les règles. L’expérience est vécue selon des « méthodes »
d’appropriation de l’espace qui participent à la qualité perçue de la consommation.
Source : LADWEIN R. (2002), « Voyage à Tikidad : de l’accès à l’expérience de consommation »,
Décisions Marketing, 28, octobre-décembre, pp. 53-63.

B. Observation narrative
L’observation effectuée sur les lieux de pratique et consommation se borne au recueil d’éléments
factuels descripteurs de l’environnement des répondants : lieu et quartier d’habitation, surface, type
de mobilier et de décoration, organisation de l’espace et des rangements, habillement de
l’interviewé, etc. Elle est largement complétée par des entretiens individuels menés auprès de
membres d’un groupe ou d’une communauté. Les répondants racontent leurs histoires personnelles
concernant la consommation de produits ou services. L’objectif est de comprendre le sens qu’un
individu, isolé ou membre d’un groupe, donne à un comportement de consommation, banal ou
exceptionnel, marginal ou commun.
Deux approches existent(187).

1. Histoire de vie
Elle se focalise sur des éléments objectifs survenus dans la vie des répondants : naissance,
déménagement, mariage, décès, changement d’emploi, etc. On s’intéresse aux conséquences de ces
événements sur les catégories de produits concernés, les modifications de consommation, les
nouveaux besoins et contraintes. Le consommateur rapporte des faits réels, précise les dates et les
lieux des éléments en rapport avec l’objet d’étude. On s’intéresse à la description de ces
comportements, tels qu’ils sont rapportés par les répondants.
La collecte des données se fait sous la forme d’interviews phénoménologiques, complétés avec des
objets en relation avec le domaine : plans, titres de transport, tickets de caisse, documents
administratifs, etc. Les événements sont abordés selon leur apparition, de manière chronologique.

2. Récit de vie
Ces récits sont centrés sur des expériences liées à une situation de consommation, telle qu’elle a été
vécue par l’individu : on s’intéresse au vécu des situations, en se centrant sur les événements et les
circonstances qui sont susceptibles d’expliquer des choix de consommation : mariage, divorce,
\/|
voyage, déménagement, naissance, etc.
$|
Au-delà des conséquences matérielles de ces événements, à savoir l’achat d’un produit ou d’un
4$

service particuliers, l’objectif est de mettre en lumière les éventuelles modifications de pratiques
de consommation. La prise en compte des circonstances et des événements éclaire le sens des
By

consommations, permet de repérer des voies d’innovation, comprendre l’origine des croyances
associées aux marques, etc.
L’entretien est de nature phénoménologique : le guide d’entretien est remplacé par une liste de
thèmes qui font l’objet des narrations individuelles. Les faits sont racontés par les répondants, en
s’attachant à reconstituer les décors, les circonstances, les événements, les épisodes et le
dénouement, sans souci du respect de la chronologie.
Les récits de vie peuvent être complétés par des journaux de bord. Chaque jour, les répondants
consignent les événements, les faits et gestes jugés significatifs pour les pratiques de
consommation : heure, durée, humeur, motivation, recherches effectuées, lieux d’achat, etc.
L’analyse des données emprunte quatre modes (voir figure 6.9.). Le mode diachronique vise à
reconstituer les enchaînements d’un acte, en insistant sur la succession temporelle des événements,
tels qu’ils sont restitués par le narrateur : pourquoi c’est arrivé à ce moment-là et pas à un autre. On
cherche à reconstituer le scénario sous-jacent à un événement en identifiant les événements
manquants, les contradictions éventuelles entre les faits et leur évaluation, les situations
paradoxales. Le mode comparatif vise à identifier des récurrences entre des événements, de
manière à dégager des invariants entre les individus : on cherche à passer du particulier au général.
L’analyse compréhensive suppose d’être en empathie avec le répondant, en laissant de côté ses
propres valeurs et a priori ; elle s’inscrit dans une approche herméneutique (voir chapitre 4) des
discours. L’analyse structurale s’attache à la sémantique des narrations : les disjonctions renvoient
aux oppositions entre des termes, les associations relient deux termes dichotomiques qui renvoient
à une catégorie externe(188).
Figure 6.9 Analyse des récits de vie

Mode d’analyse Apports


Définition des chaînes de causalités
Diachronique
Identification du cycle de vie subjectif du consommateur
Généralisation
Comparatif Modélisation
Typologie comportementale
Étude des comportements « altruistes »
Compréhensif
Compréhension des logiques personnelles
Typologie structurale des discours
Structural
Signification des comportements
Source : OZCAGLAR-TOULOUSE N., « Les récits de vie », in DION D. (coord.), À la recherche du consommateur, Dunod, 2008,
p. 136.

La méthode des récits offre un éclairage intéressant pour comprendre le sens d’un comportement de
\/|
consommation ; en contrepartie, cette technique est lourde à mettre en œuvre et intrusive. Enfin, la
$|
part de l’observation est réduite au cadre de vie et à l’environnement du répondant, les narrations
4$

individuelles étant au cœur du processus de collecte (voir figure 6.10.).


By

Figure 6.10. Évaluation des récits de vie

Avantages Inconvénients
– Durée de collecte importante
– Compréhension du sens de comportements
– Volume important d’informations à traiter (tri,
marginaux ou innovants
transcription, interprétation manuelle)
– Implication des consommateurs dans
– Nécessité d’être en empathie avec les
l’interprétation
individus observés
– Placement du consommateur au centre de
– Intervention dans l’intimité du consommateur
l’observation
(voyeurisme)

C. Observation scénarisée
Ce dernier type d’observation repose sur une mise en scène particulière du répondant et de
l’observateur. Dans la première méthode, les protocoles verbaux, le répondant est mis en situation
réelle d’achat ou de consommation, l’observateur recueillant ses propos. Dans la seconde,
l’enquête mystère, c’est l’observateur qui applique un scénario ou une grille déterminés à l’avance
et qui enregistre les informations fournies par les interlocuteurs, généralement à leur insu.
1. Protocoles verbaux
L’observateur demande au sujet de « penser à voix haute » durant la tâche requise par l’étude. Cette
méthode est utile pour comprendre les mécanismes d’achat du consommateur : croyances vis-à-vis
des marques, nombre de marques comparées avant l’achat, connaissance des critères de choix d’un
produit(189), mode de traitement des informations(190).
La méthode se pratique généralement sur le point de vente : l’observateur prend contact avec
l’individu à l’entrée du magasin, puis l’observe durant toutes ses opérations d’achat. L’observateur
cherche à se faire oublier le plus possible du répondant, et n’intervient éventuellement que par des
relances simples, du type « Quoi d’autre encore ?, Que vous vient-il d’autre à l’esprit ? ». Il se
contente d’enregistrer, ou de noter, scrupuleusement toutes les informations fournies à voix haute
par les répondants.
Les extraits de protocoles ci-après sont tirés d’une étude portant sur le processus de choix de
produits alimentaires(191).

Exemple
« Bon, maintenant, je vais aller aux fromages. Mais d’abord, je vais prendre du Fruit
d’Or. Il en faut à la maison. C’est un très bon produit pour cuire les aliments ; c’est
\/|
beaucoup plus léger que le beurre. 0,50 euro donc, c’est moins cher. Je m’en sers
$|
seulement pour la cuisine. Pour tartiner, normalement, je prends du St Hubert. [...]
4$

Voilà, je continue vers les yaourts. Est-ce que l’on voit les yaourts Malo ?... Ah les
voilà ! Voyons un peu les yaourts Malo sucrés. Ceux-là sont nature, il me faut des
By

sucrés [...] »
« Il faut que j’achète de l’huile. Tiens ! des lots de 2 bouteilles. De l’huile de
tournesol ; c’est dans le genre d’huile que je prends. Je vais regarder le prix, parce
que si c’est intéressant, j’en prendrai. 1,90 euro, les 2 litres. Je vais regarder à côté
combien coûte un litre seul. Si ça fait une grosse différence, je prendrai le lot. Je vois
que l’huile de tournesol de Fruit d’Or fait 1,15 euro. Je regarde si c’est pour la friture
ou l’assaisonnement, ça m’est arrivé de me tromper. C’est bon, je prends le lot. »

L’analyse des données se fait de plusieurs manières. Après transcription manuelle des protocoles,
on peut tout d’abord utiliser l’analyse de contenu classique puis, en guise de prolongement,
l’analyse lexicologique. Les observations peuvent aussi être analysées sous forme d’arbre de
décision(192).
Mais cette méthode est particulièrement lourde à mettre en œuvre et très coûteuse. De plus, le rôle
de « l’observateur-interviewer » n’est pas facile à tenir, car les sujets ont souvent tendance à
l’impliquer dans leurs achats en lui demandant des conseils. Enfin, cette méthode favorise la
rationalisation du discours, les observés cherchant à donner d’eux une image favorable.

2. Enquête mystère
Deux formes d’observation sont possibles : effectuer une visite sur un lieu de vente d’un produit ou
de consommation d’un service, contacter une entreprise. L’objet de la visite ou du contact peut être
l’achat d’un produit ou d’un service, une demande d’information ou une réclamation (voir
figure 6.11.).
Figure 6.11. Différents types d’enquête mystère

\/|
$|
L’objectif visé est la comparaison de la qualité d’un service effectivement délivrée par une
4$

entreprise avec le niveau initialement souhaité. L’enquête mystère permet également de contrôler la
restitution d’un argumentaire de vente. Selon l’objectif, la collecte des informations prend la forme
By

d’une visite anonyme sur place dans un point de vente ou d’un contact (appel téléphonique, envoi de
courrier postal ou électronique).
Dans le cas d’un achat de service celui-ci est généralement consommé pour évaluer le niveau de
qualité effectivement délivré, alors que pour un produit, l’achat est généralement fictif, l’objectif
étant souvent l’évaluation de la restitution et l’exactitude d’un argumentaire de vente. Dans ce
dernier cas, l’enquêteur se fait passer pour un client potentiel : il pose les questions prévues et note
les éléments visuels contenus dans sa grille d’observation. Dans le cas d’une demande
d’information ou d’une réclamation, un scénario est également préparé et administré selon le mode
prévu.
La conception et la réalisation d’une enquête mystère suivent un plan en 11 étapes que nous avons
listées dans la figure 6.12. La difficulté principale consiste à faire accepter la démarche par le
personnel de l’entreprise et définir avec précision les critères d’évaluation et les niveaux
d’appréciation de la prestation sur chacun d’entre eux. D’autre part, les observations étant
généralement faites par plusieurs personnes, la formation des enquêteurs est nécessaire pour que
chacun d’entre eux applique le même registre de notation.
Figure 6.12. Étapes d’une enquête mystère

1 – Définition des objectifs


2 – Communication avec le personnel
3 – Définition des critères d’évaluation
4 – Construction et validation de la grille d’évaluation
5 – Plan d’enquête (nombre de visites, calendrier, répartition)
6 – Sélection et formation des enquêteurs
7 – Terrain (conduite des observations, codification)
8 – Contrôle et traitement des observations
9 – Rapport d’étude
10 – Décision
Source : DIVARD R., « Les enquêtes mystères : une technique délicate à mettre en œuvre »,
Décisions Marketing, no 53, 2009, pp. 31-42.

De manière générale les observations portent sur les points suivants :


– marques présentes en magasin, marques proposées et caractéristiques mises en avant par le
vendeur, degré d’exactitude des informations fournies ;
– temps d’attente ou nombre de sonneries du téléphone avant la réponse, nature de l’accueil et de la
\/|
prise de congé, etc. ;
$|
– respect du cahier des charges prévu : conformité des prestations délivrées, ambiance du lieu de
4$

vente (propreté, niveau sonore, disponibilité, etc.).


By

Le flash-étude 6.7. offre un exemple d’application de l’enquête mystère pour l’évaluation de la


prestation de service délivrée par les taxis parisiens et montre assez clairement les points
d’amélioration qu’il convient de travailler.
L’intérêt de cette méthode réside dans l’objectivité des informations recueillies. Cependant, pour
généraliser les observations, il faut respecter les contraintes statistiques d’échantillonnage. Enfin,
la collecte pose un problème déontologique, l’enquêteur opérant à l’insu de la personne observée.
Flash-Étude 6.7.
L’évaluation des taxis parisiens
Dans le cadre d’une démarche d’amélioration de la qualité, le comité régional du tourisme de
Paris-Île-de-France a construit une grille de 60 critères pour évaluer la qualité de service
délivrée par les taxis parisiens. À la fin de l’année 2006 et au début de l’année 2007,
300 courses mystères ont été organisées sur trois types de trajets : depuis l’aéroport de Roissy
vers Paris, Paris intra-muros, et Paris vers la petite couronne. Les courses étaient réparties à
différents moments de la journée ; 20 % d’entre elles ont été faites en anglais avec un enquêteur
qui n’était pas censé parler français. Les résultats étaient conformes au niveau de qualité
attendue sur les points suivants : politesse, courtoisie, attitude respectueuse du chauffeur, respect
de la tarification réglementaire (90 % des cas), capacité à informer le visiteur, propreté du
véhicule, confort (80 % des cas). Les déficiences concernaient les domaines suivants : absence
de sourire (plus de 40 % des cas), difficulté avec les courses menées en anglais (50 % des cas),
fréquence et durée des appels téléphoniques du chauffeur (60 % des cas), informations
lacunaires sur les moyens de paiement (plus de 90 % des cas). Globalement, le taux de
conformité est de 62,2 % des cas.
Source : DIVARD R., « Les enquêtes mystères : une technique délicate à mettre en œuvre »,
Décisions Marketing, no 53, 2009, pp. 34.
\/|
$|

Conclusion
4$

Nous avons examiné, tout au long de ce chapitre, un grand nombre de techniques d’observation.
By

Nous avons constaté que le rôle de l’observateur variait fortement d’une méthode à l’autre : effacé,
interactif ou véritable enquêteur. Les qualités requises pour un bon observateur dépendent
également de la méthode : empathie pour l’observation participante et mixte, discrétion pour
l’observation non participante. Les compétences communes sont la précision et le caractère
méthodique.
Ce vaste panorama de méthodes offre des perspectives intéressantes pour la mise en place de
stratégies de marketing expérientiel ou pour des stratégies de co-création avec le consommateur. Le
prochain chapitre s’inscrira dans une logique complémentaire, à savoir la recherche et la
compréhension du sens donné par l’individu à la consommation de produit ou de marque.
Test de connaissance
(Cochez une seule réponse par question.)
Q1. La méthode des itinéraires est utilisée par :
(1) les anthropologues
(2) les freudiens
(3) les lacaniens
Q2. Les récits de vie sont une forme d’interview :
(1) semi-directive avec un guide d’entretien structuré
(2) non directive pure
(3) phénoménologique avec un guide d’entretien flexible et ajustable
Q3. Les récits de vie impliquent une observation :
(1) mixte
(2) non participante
\/|
(3) participante
$|
4$

Q4. L’ethnométhodologie est :


(1) une technique de collecte utilisée par les ethonographes
By

(2) une technique de collecte utilisée par les ethonologues


(3) une branche de la sociologie
Q5. Les protocoles verbaux s’obtiennent :
(1) avec un individu qui indique à voix haute les achats qu’il pense effectuer
(2) avec un individu qui pense à voix haute durant ses achats réels
(3) avec un individu qui repense à voix haute aux achats qu’il vient d’effectuer
Réponses : voir annexes téléchargeables sur www.vuibert.fr

Bibliographie
ARNOULD E. et WALLENDORF M., « Market-oriented ethnography : interpretation building and
marketing strategy formulation », Journal of Marketing Research, vol. 31, novembre 1994, pp. 484-
504.
BERNARD Y., « La netnographie : une nouvelle méthode d’enquête qualitative basée sur les
communautés virtuelles de consommation », Décisions Marketing, 2004, no 36, pp. 49-62.
COULON A., L’ethnométhodologie, PUF, 1993.
DESJEUX D., La consommation, 2006, PUF.
DION D., « Les apports de l’anthropologie visuelle à l’étude des comportements de
consommation », Recherche et Applications en marketing, vol. 22, no 1, 2007, pp. 61-78.
DION D. (coord.), À la recherche du consommateur, Dunod, 2008.
DROULERS O et ROULLET B., « Émergence du neuromarketing : apports et perspectives pour les
praticiens et les chercheurs », Décisions Marketing, no 46, avril-juin 2007, pp. 9-22.
DUGUEST D., FAIVRE J.-P. et MACQUIN A., « Quelques expériences à propos de la méthode des
protocoles », Séminaire de méthodologie de la recherche, CREE, FNEGE, Lille, 1982, pp. 247-
341.
OZCAGLAR-TOULOUSE N., « Quel sens les consommateurs responsables donnent-ils à leur
consommation ? Une approche par les récits de vie », Recherche et Applications en marketing,
vol. 24, no 3, 2009, pp. 3-24.
VERNETTE É., FILSER M., GIANNELLONI J.-L., Études marketing appliquées, Dunod, 2008, chapitre 7.

\/|
$|
4$
By
Chapitre 7

Techniques de recherche et d’interprétation du


sens
Nous ne faisons qu’opérer avec des choses qui n’existent pas [...]
De toutes choses, nous nous fabriquons d’abord une image, notre image.
NIETZSCHE

Dernière famille de méthodes qualitatives, les techniques de recherche du sens, pour certaines fort
anciennes, sont de plus en plus fréquemment appliquées pour l’étude de marchés. Bien que formant
un ensemble relativement hétérogène, elles partagent plusieurs points communs. Tout d’abord, ces
\/|
approches considèrent que les discours tenus par le consommateur, seul ou en groupe, sont biaisés :
$|
souci de rationalisation, désirabilité et comparaison sociale. De plus, la plupart du temps,
l’individu n’est pas conscient des véritables raisons qui l’ont poussé à acheter telle ou telle
4$

marque. Ces méthodes partagent un point commun avec les techniques d’entretien en profondeur :
elles considèrent qu’une des sources du sens se cache dans l’inconscient ou le latent. Elles s’en
By

différencient également, car elles postulent qu’une investigation prolongée n’est pas indispensable
pour accéder à celui-ci. Enfin, chaque famille de méthodes détecte et interprète le sens d’un
comportement en se fondant sur un mode d’accès particulier. Nous commencerons par les
techniques basées sur les associations, puis celles qui font appel à la projection ; nous verrons
ensuite les méthodes de production des métaphores, les images expérientielles, et finirons par
l’approche sémiologique (voir figure 7.1.).
Figure 7.1. Plan du chapitre

\/|
$|
4$

I. Association
By

Ces méthodes utilisent des mots comme stimuli pour déclencher les associations. Elles se
différencient par la nature de ces stimuli et par leur objectif.

A. Mots inducteurs
Ce test a été conçu en 1904 par Carl Jung. Il servait à repérer des formes pathologiques de
maladies mentales chez les sujets. Le test comporte quatre listes de cent mots ; la figure 7.2. en
propose quelques-uns. L’expérimentateur prononce devant le sujet, l’un après l’autre, chaque mot
inducteur.
Figure 7.2. Mots inducteurs de C. Jung

1 – tête 2 – vert 3 – eau 4 – piquer


5 – ange 6 – long 7 – bateau 8 – cueillir
9 – laine 10 – gentil 11 – table 12 – demander
13 – état 14 – entêté 15 – tige 16 – danser
17 – lac 18 – malade 19 – fierté 20 – cuire
21 – encre 22 – méchant 23 – aiguille 24 – nager
25 – voyage 26 – bleu 27 – pain 28 – punir
29 – lampe 30 – riche 31 – arbre 32 – chanter
À chaque fois, et le plus rapidement possible, le patient indique la première chose « venant
spontanément à l’esprit ». La pression temporelle favorise la spontanéité qui permet d’accéder à
l’inconscient du sujet. L’interprétation porte sur la nature des liaisons établies à partir stimulus et
permet de déterminer le caractère du sujet, tout en repérant d’éventuelles névroses.(193)

B. Méthode de citation directe(194)


Les racines théoriques de la méthode s’inspirent des travaux de Krech et Crutchfield(195). Ceux-ci
ont observé que, si nous avons en tête un nombre plus ou moins important de croyances concernant
des objets, des personnes ou des situations, seules certaines d’entre elles émergent de façon
notoire. Ces croyances, qualifiées de « top of mind », sont saillantes, c’est-à-dire situées au sommet
de nos préoccupations : elles nous viennent plus facilement à l’esprit et sont plus fréquemment
verbalisées que les autres.
En marketing, la méthode permet d’identifier les attributs saillants des marques ou des produits,
c’est-à-dire les caractéristiques qui viennent spontanément à l’esprit quand on pense à telle ou telle
marque ; une partie de ces attributs saillants sont potentiellement déterminants pour le choix de la
marque(196). Elle peut aussi être utilisée pour identifier les attributs centraux qui définissent le cœur
de la marque (i.e. le noyau) ou d’un produit et ceux qui sont moins importants, c’est-à-dire situés à
sa périphérie(197). \/|
Le principe fonctionnement de la méthode est proche de celui des mots inducteurs(198). Voici les
$|
principales étapes pour la collecte et l’analyse des données :
4$

1. Collecte des données


By

a. Étape 1
On sélectionne un petit nombre de marques (entre 5 et 10) disposant d’une notoriété suffisante et qui
sont représentatives des différents positionnements du marché. Le répondant élimine les marques
qu’il ne connaît pas, ne serait-ce que de nom.

b. Étape 2
Chaque interviewé se représente chacune de ces marques, puis indique « ce qui lui vient
spontanément à l’esprit quand il pense à chacune de ces marques pour un prochain achat ». Ils ne
doivent pas s’autocensurer. La citation des attributs peut se faire, indifféremment, en considérant
l’ensemble des marques, ou en citant les attributs, marque par marque. Dans ce dernier cas, seuls
les attributs nouveaux doivent être mentionnés.

c. Étape 3
Quand l’individu ne peut plus citer de nouveaux attributs, l’enquêteur reprend chaque attribut cité et
demande au répondant des synonymes ou une brève explication.

2. Analyse des données


a. Étape 1
L’apurement des listes individuelles et l’homogénéisation des libellés des attributs se réalisent sur
la base d’une analyse de contenu. Si l’on désire un simple recensement des critères de choix
potentiels, on conserve tous les attributs cités par au moins un individu. Ces attributs sont
considérés comme saillants.
b. Étape 2
Le classement des attributs s’opère par ordre de fréquence de citation décroissante. Si l’échantillon
est représentatif de la population visée, il est possible d’identifier les critères de choix de la
catégorie de produit. Pour cela, on classe par ordre de fréquence de citation décroissante chaque
attribut, et l’on conserve ceux qui ont été cités par au moins 50 % des répondants.
Nous présentons un exemple d’application de la méthode pour le choix d’une eau de toilette dans la
fiche technique 7.1.

Fiche technique 7.1. Application de la méthode de citation directe


1 – Contexte et objectif
Nous devions identifier les critères utilisés par de jeunes femmes de la région Rhône-Alpes, âgées de 18 à
\/|
25 ans, pour choisir une eau de toilette. Les méthodes d’interrogation directe tendant à surpondérer pour ce
$|
type de produit comportant une forte composante de séduction, voire d’érotisme, les attributs rationnels, au
détriment de ceux liés à la personnalité de l’acheteur, nous avons opté pour la méthode de citation directe afin de
4$

réduire ces biais.


2 – Collecte des données
By

On a présenté à 60 répondantes un petit nombre de marques (entre 5 et 10) ayant une notoriété suffisante pour
l’échantillon, et représentatives de la variété des positionnements du marché.
3 – Questionnaire
« Vous avez en face de vous les marques suivantes : No 5 de Chanel, Ysatis de Givenchy, Samsara de Guerlain,
Loulou de Cacharel, Opium de YSL, Poison de Dior. Rayez d’abord les marques que vous ne connaissez pas. Puis
imaginez-vous ensuite dans un magasin au moment du choix final, avec devant vous les marques précédentes :
représentez-les-vous bien. Dites-moi les choses, caractéristiques qui vous viennent spontanément à l’esprit
quand vous pensez à chacune de ces marques pour votre prochain achat. Tout ce que vous pouvez nous dire à leur
sujet nous intéresse, surtout ne vous autocensurez pas. Vous pouvez nous dire ce que vous avez en tête en
prenant chaque marque l’une après l’autre, ou en les considérant dans leur ensemble. Dans le premier cas, ne
répétez pas quelque chose que vous auriez déjà dit au sujet d’une autre marque. »
4 – Résultats
La méthode identifie un total de 8 attributs saillants et en a sélectionné 5, comme critères de choix. L’odeur vient
en premier rang, à égalité avec la personnalité et le statut social : ces critères sont cités par 94 % des femmes ;
viennent ensuite le prix (52 %), la réputation de la marque (50 %) et le caractère mystérieux (46 %). Comme
prévu, l’utilisation de « marques-stimuli » a permis de faire apparaître quantité d’évocations liées à la
personnalité de l’utilisatrice d’un parfum et à son statut social ou standing.

C. Réseau associatif
Cette méthode permet de recueillir les croyances concernant des marques ou des questions de
société, d’identifier les critères de choix d’un produit, d’évaluer une communication publicitaire.
Ces principes sont proches de ceux de la méthode de citation directe ; en outre, ils permettent
d’établir un réseau de connexion entre les jugements et d’estimer leur caractère favorable ou
défavorable
La collecte des données s’organise autour de trois points(199).

1. Choix des stimuli initiaux et échantillon


La nature des stimuli servant de base aux associations varie selon l’objectif de l’étude. Il peut
s’agir de marques connues (Coca-Cola, Benetton, etc.), d’une catégorie de produit (ski, jus de fruit,
etc.), d’un mot clé (« moi », « voyage », « luxe », etc.), ou encore d’un message publicitaire. Un
échantillon d’une cinquantaine de répondants appartenant à la cible visée suffit pour recenser
l’ensemble des associations ; pour pondérer ou qualifier les croyances, la taille de l’échantillon
nécessaire dépend de la précision souhaitée pour les estimations (voir chapitre 8).

2. Contexte d’activation
Il est préférable de fournir un scénario d’achat ou de consommation pour identifier les critères des
choix ou comparer des images de marque ; en revanche, cela n’est pas nécessaire, si l’on teste une
publicité ou si l’on explore la structuration d’une classe de produit.
\/|
3. Activation et polarité
$|
4$

Comme pour la méthode de citation directe, la question de départ est : « Dites-moi tout ce qui vous
vient spontanément à l’esprit quand je dis... (nommer le stimulus retenu) ». Les répondants
By

inscrivent ces associations sur une feuille, indiquent ensuite leur ordre d’apparition et leur polarité.
Ils mettent pour cela un « + » devant les associations jugées favorables pour le stimulus, un « 0 »
pour les neutres, et un « – » pour les défavorables. En dernier lieu, ils indiquent les liens entre les
associations, ce qui permet d’établir le réseau associatif individuel.
L’analyse des données se fait en trois temps :
– catégorisation des associations. L’analyse de contenu permet d’identifier les thèmes évoqués par
les répondants ;
– repérage des nœuds et cartographie. La figure 7.3. illustre la cartographie des associations d’un
skieur novice. Ce réseau comporte trois nœuds principaux (« Extrême », « Rossignol » et
« Loisir ») qui suscitent au moins trois associations. L’analyse révèle un réseau principalement
fondé sur des attributs liés aux différents bénéfices et risques de la pratique du ski : s’oxygéner,
convivialité, danger, vitesse, etc. ;
Figure 7.3. Exemple de réseau d’associations d’un skieur débutant

– mesure du caractère des associations. Il existe différents indices pour synthétiser le caractère
favorable ou défavorable des associations produites par les répondants. Les trois principaux sont
les suivants :

\/|
$|
4$
By

Le flash-étude 7.1. présente une application du réseau d’associations pour un post-test destiné à
évaluer l’efficacité des campagnes publicitaires de Benetton.

Flash-Étude 7.1.
Réseau d’associations et publicités provocatrices de Benetton
Contexte
La campagne de Benetton de 1994 montrant un homme dont le bras était tatoué « HIV positif » ou
un individu torturé, interviewé par un reporter a-t-elle été favorable à la marque ? La recherche
menée par Kirchler et De Rosa sur la base de la technique du réseau d’associations apporte des
résultats intéressants(200). Les deux affiches précédentes, plus une jugée moins provocante
(représentant une fille albinos parmi un groupe de filles noires), ont été présentées à
82 adolescentes et adolescents autrichiens. Ils indiquaient ce que la marque Benetton évoquait
pour eux, puis ce que leur suggéraient ces trois visuels, et enfin, la polarité de chaque
association.
Résultats
Les croyances initialement associées à la marque Benetton sont favorables : l’image de marque
est bonne sur la cible. Mais, comme le montre le tableau ci-après, quand on présente aux
étudiants les affiches publicitaires, les associations deviennent neutres pour l’affiche « Albinos »
– affiche considérée comme la moins provocante – et globalement très défavorables pour les
affiches « HIV » et « Torture » ; de plus, les premières associations qui viennent à l’esprit pour
les affiches HIV et Torture ne contiennent que des évocations négatives. En clair, les deux thèmes
provocants sont rejetés.

Affiche Affiche Affiche


Catégories d’associations
« HIV » « Torture » « Albinos »
Associations avec Benetton 3 0 3
positives avec le spectateur 2 17 4
Associations avec Benetton 20 77 71
négatives avec le spectateur 63 67 1
Exemples d’associations chargées
d’émotions
\/|
$|
peur 40 17 4
désespoir 25 13 1
4$

violence 3 106 2
By

Nombre total d’associations 222 391 286


négatives 44 % 58 % 39 %
neutres 50 % 38 % 57 %
positives 3% 4% 4%

Implications
Une analyse factorielle des correspondances a été effectuée à partir du réseau d’associations.
Elle montre que les mots « peur », « drogue », « désespoir » sont les plus associés à l’affiche
« HIV », « souffrance » étant le plus proche de l’affiche « Torture » ; « contraste » et « solitude »
sont voisins de l’affiche « Albinos ». De surcroît, aucune de ces trois publicités n’est reliée à la
marque Benetton. La campagne a donc raté son objectif sur cette cible, puisqu’aucune affiche
n’est reliée à la marque. Plus grave, le risque à terme est que la marque, au gré des répétitions
des campagnes, finisse par être reliée avec l’une ou l’autre des scènes provocantes. Ceci revient
à associer – à grands frais – des croyances très négatives au capital de marque. Le cas Benetton
est un bon exemple d’une confusion d’objectifs publicitaires : la campagne est efficace en termes
de notoriété (on a beaucoup parlé de la marque), mais rejetée sur le plan affectif (les émotions
suggérées sont négatives). Voilà sans doute une des explications de la baisse des ventes constatée
en Allemagne et en France dans les années qui ont suivi ces campagnes.
Source : adapté de KIRCHLER E. et DE ROSA A., op. cit., 1998, p. 44 ; la dénomination des axes est de notre fait.

4. Mesure de l’activation d’une chaîne d’associations \/|


Une chaîne se compose des associations multiples qui relient les différents termes d’un discours. La
$|
force de l’association entre deux termes est fonction de la présence commune des deux mots dans
4$

une même phrase et de la fréquence individuelle de citation de chacun d’eux. Chaque mot est doté
d’un pouvoir d’activation (ou de suggestion), plus ou moins fort, d’un autre concept. En d’autres
By

termes, l’activation entre les mots x et y est forte, si la probabilité que x soit évoqué, sachant que y
a été cité préalablement, est forte. Cette mesure est utile pour vérifier que les croyances associées à
une marque correspondent bien au positionnement souhaité ; ou encore pour tester les espaces
concurrentiels évoqués par des publicités.
La figure 7.4. montre les images le plus souvent activées par les discours publicitaires de trois
marques de bières(201). On constate que si chaque marque occupe un territoire distinct, une part
importante des termes occupe un espace commun à deux, voire trois marques : les mots « brasser »,
« déguster », « bière », « boire », « manger », « jaune », « houblon », « Pils » ne sont donc guère
discriminants. En revanche, la marque Krombacher active un grand nombre de termes spécifiques
(froid, moelleux, biologique, bulles, pureté, etc.) qui traduisent une volonté de positionnement plus
différencié que les marques concurrentes. D’autres analyses montrent que le couple « bière-saoul »
active plus fortement la marque Bitburger et très peu Krombacher et Herforder.
Figure 7.4. Termes activés par des publicités pour des marques de bières

Source : WETTLER M. et al., Recherche et Applications en marketing, op. cit., 1998, p. 78.

5. Carte cognitive
\/|
$|
La carte cognitive généralise les principes du réseau d’association pour aboutir à une cartographie
4$

qui représente la structure de la pensée individuelle sur un sujet donné : question de société,
expérience particulière de consommation, achat d’un produit ou d’un service. La carte expose les
représentations mentales individuelles et leurs interrelations : elle exprime l’organisation de la
By

pensée, et non pas seulement ce qui est dit et comment cela est dit. C’est une photographie de la
cognition d’un consommateur sur le sujet à un moment donné.
La collecte des données se fait par entretien semi-directif ou avec des méthodes projectives (voir
paragraphe suivant). On identifie par analyse de contenu les éléments de base (les représentations
mentales) de la pensée, leurs occurrences et leurs interrelations(202). Le codage catégorise les liens
d’influence (positive, neutre, positif), les liens d’identité et les liens d’appartenance entre les
éléments. Des logiciels spécifiques permettent une automatisation de ce processus et proposent des
cartes analogues à celle de la figure 7.3., mais plus riches en termes de nœuds et de relations entre
les nœuds.

D. Chaînes moyens-fins
L’idée sous-jacente de cette approche est que la consommation d’un produit ou d’une marque
exprime les valeurs d’un individu. Une valeur est, selon Rokeach, « une croyance durable qu’un
mode de conduite ou un état de l’existence est personnellement ou socialement préférable à un autre
mode de conduite ou d’état ». On distingue les valeurs terminales qui correspondent aux buts que
l’homme se fixe (être libre, vivre dans un monde de beauté, le plaisir, le respect de soi, une vie
excitante, une vie confortable, le bonheur, la liberté, etc.), des variables instrumentales qui sont les
moyens envisagés pour atteindre ces buts (ambition, courage, honnêteté, imagination, pardon,
ouverture d’esprit, etc.).
La méthode des chaînes moyens-fins identifie les relations entre une caractéristique (attribut)
particulière d’un produit ou d’une marque et la recherche d’une valeur personnelle(203). L’objectif
est de mettre au jour les différents chaînages cognitifs des acheteurs. Ceux-ci comportent trois
maillons : (1) la présence d’un attribut (2) procure un bénéfice (ou conséquence) qui permet à son
tour de satisfaire (3) une valeur prioritaire du consommateur.
Dans la pratique, on identifie plus souvent les motivations d’achat du consommateur que ses
valeurs, comme le montre l’exemple de la figure 7.5. On remarque qu’un même bénéfice
(« Conduite confortable ») peut être la conséquence de trois attributs différents (« Performance »,
« Souplesse » et « Habitabilité ») : à son tour, un même bénéfice peut être recherché pour satisfaire
deux motivations différentes : « Souci de la famille » et « Accomplissement personnel ».
L’entretien semi-directif est utilisé pour obtenir les différents maillons des chaînages individuels.
Lorsqu’un attribut est cité, on relance en multipliant les « pourquoi » successifs.

Exemple
Enquêteur : « Vous m’avez dit que le fait de conduire une voiture confortable
\/|
[Attribut] était important pour vous. Pour quelle raison ? »
$|
Réponse : « Je veux pouvoir me sentir reposé quand j’ai fait un long parcours. »
4$

[Bénéfice-Désir]
Enquêteur : Pourriez-vous m’expliquer pourquoi il vous importe de vous sentir ainsi ?
By

Réponse : « J’aime être détendu et performant, tout le temps, même après un long
voyage pour réaliser ce qui me plaît dans ma vie.. » [Désir-Motivation]
Enquêteur « ...Dans votre vie... »
Réponse : « Oui, se réaliser à travers ses actes et bien choisir ce qui vous permet d’y
arriver... » [Motivation-Besoin]
Figure 7.5. Chaînages cognitifs des clients d’une Toyota Yaris

Source : adapté de PARISI F. et RAMECKERS L., « Informations de nature affective et décisions stratégiques »,
Revue française du marketing, 2000, vol. 179, no 4-5, p. 238.

Le guide d’entretien est centré sur l’évocation des modalités de consommation (« À quelles
occasions consommez-vous ce produit ? ») et la restitution d’expériences (« Racontez-moi une
\/|
soirée où vous avez consommé ce produit » ; « et une soirée où vous l’auriez oublié ? » ; « Quand
$|
en avez-vous utilisé pour la dernière fois ? »). Une variante consiste à utiliser en début d’entretien
4$

des méthodes la méthode de citation directe, puis les techniques usuelles de relance dans un
entretien semi-directif, pour obtenir les bénéfices, les valeurs ou les motivations.
By

L’analyse des données passe par une analyse de contenu minutieuse afin de coder les différents
énoncés des trois niveaux de la séquence ; les fréquences de chaque énoncé servent à bâtir les
cartes hiérarchiques. D’autres méthodes permettent de réduire les données et dégager ainsi les
différentes typologies de chaînages ou de segmenter un marché(204).

II. Projection
La projection est un concept important en psychanalyse. Elle se définit comme « un mécanisme par
lequel le sujet expulse de lui-même et localise dans l’autre (personne, chose, monde externe) des
défauts, des qualités, des sentiments, des fantasmes qu’il méconnaît ou refuse en lui »(205). Cette
expulsion permet à l’individu d’attribuer à « l’autre » une perception interne refoulée, après lui
avoir fait subir une certaine déformation. Par exemple, un conducteur qui prend des risques au
volant ne pense pas mettre la vie d’autrui en danger, car il estime maîtriser sa conduite ; c’est plutôt
la navigation erratique et imprévoyante des autres qui lui semble présenter un réel danger. Freud
élargit la projection à la méconnaissance de désirs ou d’émotions inconscients que le sujet
n’accepte pas comme siens : ceux-ci sont alors attribués à des « réalités extérieures »(206).
Les techniques projectives ont été initialement appliquées aux études de marché vers 1950, par
Mason Haire(207). Elles reposent sur l’hypothèse que, devant une situation donnée (achat, occasion
de consommation), l’interviewé interprète les informations en se fondant sur ses propres
préoccupations, besoins et valeurs, généralement inconscients.
Le test projectif est « comme un rayon X qui, traversant l’intérieur de la personnalité, fixe l’image
du noyau secret, de celle-ci sur un révélateur (passation du test) et en permet ensuite une lecture
facile par agrandissement [...] Ce qui est caché est ainsi mis en lumière ; le latent devient
manifeste ; l’intérieur est amené à la surface »(208).
Les techniques projectives se caractérisent par l’ambiguïté du matériel (questionnaires, images,
dessins, etc.) ou des situations (histoires, événements, etc.) proposées aux répondants et par
l’extrême liberté de réponse qui leur est offerte. Le matériel est soigneusement standardisé et
présenté dans un ordre identique d’un sujet à l’autre. Le rôle de l’interviewer se limite à l’exposé
de la situation de travail, à la fourniture des documents et à l’enregistrement des réponses.
Il existe un grand nombre de méthodes projectives. Nous ne présenterons que celles qui offrent un
intérêt pour résoudre un problème d’étude.

A. Tests de perception thématique


1. Principes généraux
Cette famille de tests a été développée et initialement utilisée en psychologie clinique. L’objectif
\/|
est de révéler les traits fondamentaux d’une personnalité, et plus spécifiquement la nature
$|
d’éventuels conflits, les modes de réaction, les aspirations et les valeurs fondamentales d’un
4$

individu.
Les méthodes se différencient essentiellement par la nature du support utilisé pour la projection. On
By

distingue le dessin, qui varie de la simple esquisse au véritable tableau, et l’histoire présentée sous
forme de bandes dessinées comportant quelques images. Ces supports sont en couleurs ou en noir et
blanc ; ce choix n’est pas neutre, car la projection ne sera pas la même, pour un même dessin, si
celui-ci est ou n’est pas en couleurs.
Les documents présentés doivent avoir été pré-testés pour s’assurer de leur validité et de leur
fiabilité. D’une manière générale, on sélectionne les supports qui produisent des réponses très
typées selon les catégories d’individus, et on élimine ceux qui conduisent à des interprétations très
voisines. Ces supports conduisent le répondant à effectuer plusieurs types de projections :
– ce qu’il croit être, ce qu’il voudrait être, ce qu’il refuse d’être ;
– ce que les autres sont, ou devraient être envers lui.
L’analyste découpe le discours du sujet et classe ses interprétations en se référant à des grilles
préétablies. D’une manière générale, le psychologue étudie d’abord les thèmes évoqués dans le
discours, la situation et l’ambiance générale, le déroulement du conflit et le dénouement de
l’histoire. Puis il identifie les grands traits structurant la personnalité du sujet, en se fondant sur la
nature des arguments produits.

2. TAT (thematic apperception test)


Le thematic apperception test (TAT) a été conçu et développé par Murray en 1943, aux États-Unis.
Professeur de psychologie clinique à Harvard, Murray propose un inventaire complet des traits de
personnalité et une méthode permettant d’identifier ces variables chez les individus. La fiche
technique 7.2. présente les grandes lignes de son test.

Fiche technique 7.2. Le test du TAT de Murray


1 – Matériel
Une vingtaine d’images, sans rapport entre elles, sont présentées, en deux fois, à chaque sujet. Les images sont
constituées de divers dessins, tableaux ou photographies. Leur signification est ambiguë, Par exemple, la planche
no 1 représente un garçon qui se tient la tête entre les mains, tout en regardant un violon posé devant lui. Le
conflit latent peut porter sur différents points : difficulté d’apprentissage, impossibilité d’utiliser l’objet, volonté
de dominer l’objet, etc. La planche no 5 montre une femme d’âge moyen qui ouvre une porte et regarde à
l’intérieur de la pièce ; la planche no 19 montre une image un peu vague de bateau dans une tempête avec des
ombres inquiétantes.
2 – Interprétation
Murray pose comme postulat de départ que les histoires racontées décrivent assez bien la conduite et les
attitudes des répondants dans la vie quotidienne. La plupart des critiques formulées par les auteurs sont
centrées sur ce point : s’agit-il d’une transposition de conduites réelles ou de conduites imaginaires ? Si l’on
admet qu’il est probable que les deux types existent, comment les distinguer ? Murray, sans forcément répondre
avec précision à ces questions, propose une démarche d’analyse structurée ; mais d’autres auteurs ont
\/|
également fourni des schémas d’analyse sensiblement différents. Pour lui, dans chaque histoire, il existe un héros
$|
auquel le sujet s’identifie et qui porte les motivations de l’individu ; autour, différents personnages, représentant
le milieu familial et l’entourage du héros, constituent les forces de pression. Une première analyse du discours
4$

tient compte de la richesse générale des histoires, de la perception des images, de la longueur et de la clarté du
discours. Ceci permet d’évaluer l’intelligence du sujet, ses aptitudes verbales et son sens de la réalité. L’analyse
By

de contenu s’attache ensuite à discerner les différentes motivations du sujet au travers du caractère décelé chez
son « héros », du degré de pression ressenti par l’individu, du fond de l’histoire (intensité du drame, dénouement,
etc.) et de ses centres d’intérêt.

L’application du TAT dans une perspective d’étude de marché n’est pas récente. Elle remonte au
début des années 1960. Une des premières investigations, décrite dans le flash-étude 7.2., a porté
sur la mise en évidence des freins et motivations des consommateurs face à divers produits
alimentaires. Cette technique projective peut se révéler très fructueuse pour minimiser les motifs
d’achat trop rationnels et stéréotypés.

Flash-Étude 7.2.
Exemples de TAT dans le cadre d’études de marché
Les freins à la consommation de lait
Le lait peut-il faire grossir ? Posée directement, la réponse probable à cette question serait non.
En 1964, dans l’État du Kentucky aux États-Unis, 448 ménagères ont été interrogées sur ce
thème(209) : les unes avec des questions directes et précises (« Si vous faisiez attention à votre
ligne, boiriez-vous du lait avec un sandwich ? »), les autres avec des questions indirectes (« Que
répondrait probablement un adolescent buvant beaucoup de Coca-Cola et à qui l’on conseillerait
de boire plus de lait ? ») et les dernières avec les dessins suivants.

Mrs A Mrs B

Légende : « Diriez-vous que c’est Madame A qui boit plus de lait, ou que c’est Madame B, ou
qu’elles en boivent à peu près autant ? » (Faire donner des raisons.)
Résultats : Comparativement aux autres méthodes, seul le TAT a révélé des différences
significatives sur le profil type du consommateur de lait aux États-Unis : son niveau d’éducation
et son revenu sont plus faibles que pour celui qui en consomme peu. En outre, les interviewés
\/|
ayant le plus souvent sélectionné l’image A (« le lait fait grossir ») tendent à consommer moins
$|
de lait que les autres.
4$

La relation qualité-prix pour une crème hydratante (210)


By

L’évaluation de la qualité de certains produits est largement influencée par le prix. Mais avec
des questions directes, le biais de rationalisation peut amener bon nombre de consommateurs à
déclarer qu’ils ne tiennent pas compte du prix pour évaluer la qualité. Les instructions étaient du
type : « Décrivez la personne représentée sur ces dessins. Comment imaginez-vous la crème de
soins représentée ? »

Résultats : Les réponses les plus courantes furent les suivantes :


Crème à 49 cts : « Il s’agit d’une femme de plus de 18 ans, soucieuse de son apparence, qui est
sensible à la publicité et n’a pas trop d’argent à consacrer aux produits de beauté » ; « Il s’agit
d’un produit de médiocre qualité, qui est probablement gras et huileux. »
Crème à 5 $ : « Une personne préoccupée par son apparence, peut-être une femme qui
travaille » ; « C’est une crème qui nettoie et rafraîchit votre peau. Son pouvoir nettoyant et
adoucissant permet de préserver l’aspect juvénile de la peau. »

Attitude à l’égard des agressions dans le métro(211)


Les dessins ci-dessous ont été employés par la RATP, lors d’une étude auprès des usagers
portant sur le thème des agressions dans le métro. On demandait aux interviewés de raconter
l’histoire qui se déroule sous leurs yeux et de parler du comportement des protagonistes dans
chacune des situations.

\/|
$|
4$

3. Bandes dessinées (test des phylactères)


By

Ce type de test suit la même logique que le TAT. Cette adaptation du test de Rosenzweig a été
introduite en psychologie clinique vers 1950(212). La différence réside dans l’introduction d’une
série d’images, généralement quatre, que l’interviewé doit relier entre elles, afin de former une
seule histoire. Les principes d’administration et d’analyse sont identiques à ceux du TAT de
Murray.
Peu appliquée aux études de marché, cette variante du TAT pourrait offrir d’intéressantes
perspectives pour des enquêtes réalisées auprès de jeunes enfants. En effet, la collecte de données
sur ces cibles pose d’incontestables problèmes, notamment pour la mesure des attitudes vis-à-vis
des marques. L’utilisation d’un support de communication familier des enfants favorise leur
adhésion au sujet de l’étude et accroîtrait la production globale d’information. Enfin, pour des
adultes, le côté ludique du test le rend attractif et facilite la participation.
Une application intéressante de la méthode a été proposée pour évaluer le mode de fréquentation
d’un point de vente(213) : les répondants devaient indiquer, pour chacune des cinq planches de
dessins (figure 7.6.), s’ils adoptaient le comportement « jamais, rarement, souvent ou toujours »
pour un achat dans l’alimentaire, un livre, un meuble ou un article de petit électroménager. Les
résultats montrent que le mode de fréquentation varie nettement selon la catégorie de produit
(figure 7.7.).
Figure 7.6. Test des phylactères appliqué au mode de fréquentation d’un point de vente

\/|
$|
4$
By

Source : LOMBART C., « Les techniques non verbales ont-elles un intérêt pour la mesure des comportements de fréquentation
de points de vente ? », 2004, Actes des 9es Journées de recherche en marketing de Bourgogne, CD ROM.
Figure 7.7. Comportement d’achat au point de vente selon la catégorie de produit

(Nombre de personnes ayant sélectionné la planche de dessins correspondant au comportement d’achat dans la catégorie de produit)
Source : LOMBART C., « Les techniques non verbales ont-elles un intérêt pour la mesure des comportements de fréquentation
de points de vente ? », 2004, Actes des 9e Journées de recherche en marketing de Bourgogne, CD ROM.
\/|
$|

B. Liste d’achats
4$

Au lieu de dessins ou de photographies, comme dans le test du TAT, cette méthode utilise une « liste
By

de commissions » censée avoir été rédigée par une ménagère. Cette liste est composée de marques
de produits alimentaires courants, tels que fruits et légumes frais, poisson, pâtes, viande, etc.
L’expérimentateur bâtit une autre liste, identique à la précédente, sauf qu’elle contient la marque
testée. On demande ensuite au répondant d’imaginer et de décrire la personne ayant acheté l’une des
listes de produits. Cette méthode cherche à faire apparaître les motivations cachées que les
méthodes plus directes n’auraient pu mettre au jour. Le succès de cette technique est dû à une
célèbre étude classique que nous présentons dans le flash-étude 7.3.
Flash-Étude 7.3.
Pourquoi n’achetez-vous pas du café soluble ?(214)
Lors du lancement du Nescafé instantané aux États-Unis, vers la fin des années 1940, l’entreprise
mit l’accent sur la rapidité de préparation du produit, pensant logiquement que ce bénéfice offert
au consommateur suffirait pour assurer le succès de la marque. Or les premiers résultats
commerciaux furent décevants. Afin de discerner les causes de cet échec, une étude fut entreprise
pour évaluer les freins des ménagères américaines. Une première étude – fondée sur des
questions directes du type : « Utilisez-vous du café instantané ; sinon, qu’est-ce que vous n’aimez
pas dans ce produit ? » – montra que le frein majeur semblait venir du goût du produit. Estimant
que ce résultat pouvait cacher d’autres blocages inconscients, Mason Haire utilisa une autre
approche.
On bâtit les deux listes d’achat suivantes. On remarquera que la seule différence concerne la
présence, dans l’une du produit « Café en grains Maxwell House », remplacé dans l’autre par
« Nescafé instantané ». On montra à un échantillon de 100 personnes soit la liste A
(50 personnes), soit la liste B (50 personnes). Les instructions étaient : « Décrivez la ménagère
qui a acheté ces produits », puis dans un second temps : « Indiquez les raisons qui vous ont
poussé à dire cela ». \/|
Liste A Liste B
$|
4$

1 livre et demie de hamburger 1 livre et demie de hamburger


2 pains de mie Wonder 2 pains de mie Wonder
By

1 botte de carottes 1 botte de carottes


Café instantané Nescafé Café en grains Maxwell House
1 boîte de bicarbonate de soude 1 boîte de bicarbonate de soude
2 boîtes de pêche au sirop Del Monte 2 boîtes de pêche au sirop Del Monte
5 livres de pommes de terre 5 livres de pommes de terre

Résultats principaux
1 – La ménagère ayant acheté la liste A fut considérée par 48 % des répondants comme paresseuse,
contre seulement 4 % pour celle de la liste B.
2 – La ménagère A est qualifiée de dépensière par 12 % des personnes et de mauvaise épouse par
16 % ; aucun de ces défauts ne figure pour celle ayant acheté la liste B.
Les conclusions sont claires : le principal frein à l’achat d’un café soluble n’est pas son goût,
comme aurait pu le laisser croire la première étude, mais est beaucoup plus lié à l’image négative
renvoyée par le produit : « une bonne ménagère n’achète pas un tel produit. Sinon, elle est vue
comme paresseuse, dépensière ». Quelques décennies plus tard, durant les années 1970, des études
similaires(215) ont montré l’évolution considérable subie par le café soluble. L’utilisatrice de café
soluble est maintenant perçue comme moderne et dynamique, alors que celle qui emploie du café en
grains est considérée comme « vieux jeu », voire « rétrograde »... La morale de cette histoire est
qu’un frein culturel n’est pas irrémédiable, mais que sa levée peut s’étaler sur plusieurs décennies.
La liste d’achat servant de support à la projection est particulièrement délicate à construire(216). En
effet, l’impact du « produit cible » dépend considérablement de l’évaluation générale de la liste
d’achat.

Exemple
Sept listes d’achats courants(217), comportant chacune sept catégories de produits
alimentaires, ont été constituées. Voici la composition de l’une d’entre elles : « Poulet,
lait, raisin frais, œufs, filet de bœuf, pain complet, tomates fraîches ». Le produit a
priori considéré comme rejeté, les rognons, est comparé à un produit supposé noble, le
« filet de bœuf ».
L’effet négatif des rognons n’apparaît pas si le produit est inséré dans une liste jugée
préalablement comme globalement favorable. Le même résultat est observé si la liste
d’achat est considérée comme neutre. Enfin, si la liste est évaluée défavorablement,
l’effet du produit rejeté reste peu marqué.
Le produit jugé a priori négatif doit engendrer un rejet suffisamment fort chez les
\/|
répondants pour pouvoir générer des jugements contrastés entre les deux listes
$|
d’achats. Ceci limite fortement les champs possibles d’application marketing de cette
technique : elle ne pourra être envisagée que pour des marques ou produits ayant une
4$

image extrême, soit très favorable, soit très mauvaise.


By

C. Phrases à compléter
Le psychologue recense des situations fréquentes ou rares, plus ou moins ambiguës, auxquelles sont
confrontés les sujets. Il rédige ensuite un certain nombre de phrases comportant des blancs que les
interviewés doivent remplir. Les événements servant de base à la projection peuvent s’inspirer des
sujets abordés dans un TAT. Il existe de nombreuses versions de ces tests dont l’objectif est avant
tout, ne l’oublions pas, de fournir un support d’investigation de la personnalité. La figure 7.8.
propose quelques extraits de l’un d’entre eux, le Stein Sentence Completion Test(218), qui comporte
au total 50 phrases à terminer.
Figure 7.8. Extraits du Stein Sentence Completion Test

1 – Charles était le plus heureux lorsque 9 – Lorsque l’on dit à Henry de rester
tranquille
2 – Il préfère à toute chose
10 – Ce que Tom regrette le plus
3 – Lorsque Pierre fut pris par l’ennemi
11 – J’ai admiré
4 – Rien n’ennuie Bob plus que 12 – Rien ne peut rendre René plus furieux que

5 – La plus grande ambition de Michel était 13 – Joseph se sentit mal à l’aise, parce que

6 – Lorsque Franck a vu son chef venir 14 – Jean pensait que son avenir

7 – Paul se sentit agacé quand 15 – Le fait qu’il avait échoué

8 – J’ai toujours peur de 16 – La vie d’une personne

\/|
De la même manière, le chargé d’études marketing rédige une série de phrases reliées au sujet de sa
$|
recherche. Cette technique nous semble convenir pour l’analyse de motivations d’achat, l’étude de
l’image de marques ou de produits, les occasions de consommation d’un produit.
4$
By

Exemples
Étude Chicago Tribune (219)
L’étude est réalisée aux États-Unis par le Chicago Tribune et porte sur les relations
des Américains avec leur voiture. Les phrases stimuli étaient du type suivant :
« Les gens qui conduisent une voiture décapotable
»
« Les ouvriers conduisent généralement »
« La plupart des nouvelles voitures »
« Quand j’ai eu ma première voiture »
« Une voiture qui vous appartient »
Résultats
L’analyse montre que pour les femmes, la voiture était surtout une chose pratique et
regardée par les autres. Pour les hommes, la voiture génère un sentiment de
responsabilité et de protection : il faut l’entretenir et la protéger.
Étude Mercedes(220)
L’étude porte sur l’évolution de l’image de l’acheteur d’une Mercedes. Les différentes
phrases cherchent à mettre en évidence les caractéristiques liées à la personnalité et au
statut social du conducteur. Voici un extrait du questionnaire :
« Complétez les phrases suivantes en écrivant les mots qui vous viennent à l’esprit
après avoir lu chaque début de phrase. Soyez spontané, ne vous compliquez pas
inutilement la tâche. Il n’y a pas de bonnes ou de mauvaises réponses.
« La plupart des gens pensent que les propriétaires de Mercedes sont :

»
« Les Mercedes sont plus
que les BMW. »
« Une des caractéristiques les plus remarquées des Mercedes, c’est :

»
« Si je recevais la visite d’un oncle américain au volant d’une Mercedes, je serais
\/|
»
$|
4$

La méthode de la Troisième personne constitue une variante des phrases à compléter.


Chaque question commence par les mots suivants : « Pour vous, la plupart des gens
By

font... », « La plupart des gens pensent que... », « La plupart des gens vivent
comme... ». Les interviewés complètent chaque phrase. On fait l’hypothèse que les
réponses représentent une projection des attitudes ou des comportements réels des
individus ; la troisième personne faciliterait la décharge des émotions et pulsions d’un
individu sur autrui.

Cette technique présente une bonne flexibilité qui lui permet d’être utilisée avec des questions
fermées : par exemple, le sujet indique son degré d’accord ou de désaccord avec diverses
propositions reliées au sujet de l’étude.
Exemple
Dans le cadre d’une étude visant à identifier les freins à l’usage d’un déodorant pour
homme, les questions pourraient être :
« Pour moi, la plupart des hommes qui utilisent un déodorant sont efféminés. »
Tout à fait d’accord
Ni d’accord, ni en désaccord
Pas du tout d’accord
« La plupart des gens de mon entourage pensent que les déodorants sont réservés aux
femmes. »
Tout à fait d’accord
Ni d’accord, ni en désaccord
Pas du tout d’accord
« La plupart des femmes hésiteraient à acheter un déodorant pour leur conjoint. »
Tout à fait d’accord
Ni d’accord, ni en désaccord
Pas du tout d’accord \/|
$|
4$

D. Palette symbolique
Certains instituts d’études de marché suggèrent d’autres instruments dérivés des principes du
By

questionnaire chinois, telle la « Roue des tissus »(221). L’interviewé sélectionne, les yeux fermés,
parmi un ensemble de tissus disposés en cercle autour de lui, la matière qui lui semble le mieux
correspondre à l’image de l’entreprise ou d’un produit. Les tissus proposés (laine, soie, coton,
synthétique, etc.) servent de support pour exprimer des relations affectives vis-à-vis d’une marque
ou d’un produit. D’autres variantes utilisent les différents sens de l’individu : on peut concevoir une
palette de parfums, de goûts, de couleurs, de morceaux de musique ou de formes de visage.

E. Jeux de rôle (psychodrame)


Les principes de base consistent à faire jouer par des individus un rôle, plus ou moins relié à leurs
habitudes quotidiennes. Les applications usuelles sont de deux natures : recrutement de personnel,
ou thérapie pour traiter les problèmes psychiques.
En partant de ces principes, des cabinets d’études de marché proposent le psychodrame pour
analyser l’image d’une marque, pour détecter de nouveaux axes publicitaires, pour rechercher de
nouveaux usages de produits, etc. Tout comme dans un psychodrame habituel, un groupe de 5 à
10 personnes imagine et joue diverses situations sous la conduite d’un animateur. Par exemple, un
individu s’identifie à la marque x rencontrant une marque concurrente y (qu’est-ce qu’elles se
disent ?...) ; une autre scène confronte le sujet, marque ou objet, à un acheteur du produit qu’il s’agit
de séduire (comment rentrent-ils en contact, quels sont les arguments utilisés ?...).
La figure 7.9. résume les questions principales du jeu de rôle produit et marque(222).
Si ces techniques apparaissent stimulantes sur le plan de la créativité publicitaire, elles restent
sujettes à caution dans une perspective d’étude de marché. Il est nécessaire de valider les grilles
permettant de codifier les associations symboliques évoquées par les sujets, d’analyser les gestes,
les postures ou les mimes réalisés durant un psychodrame. À cet égard, la littérature psychologique
offre de nombreux travaux sur le décodage des signaux non verbaux(223).
Figure 7.9. Quelques questions dans un jeu de rôle

Vous êtes le produit ou la Vous êtes un concurrent du


marque X produit ou de la marque X
– Vos âge, prénom, physique.
– Vos qualités, défauts.
– Que dites-vous sur lui (sur elle) ?
– Vos couleurs préférées, votre style.
– Quels mensonges diriez-vous sur lui (elle) ?
– Vos rêves, objets secrets.
– Qu’est-ce qui vous fait envie, vous agace ?
– Votre caractère.
– Qu’est-ce qui vous fait rire chez lui (elle) ?
– Ce que vous faites, ce que vous évitez.
– Que diriez-vous à celui qui l’achète ?
– Comment êtes-vous consommé ?
– Que dites-vous à l’acheteur ? \/|
$|

F. Dessins et graffitis
4$

L’idée de demander à des personnes de dessiner ou de gribouiller pour exprimer leurs sentiments
By

ou leurs relations vis-à-vis d’autres personnes ou objets n’est pas neuve. Bon nombre d’études,
menées en psychologie projective, utilisent les dessins pour évaluer le développement intellectuel
de l’enfant ou la personnalité d’un adulte(224).
On trouve quelques applications de cette méthode, surtout dans le domaine de la création
publicitaire : on cherche ainsi à détecter les sens cachés ou les associations d’idées
malencontreuses que pourrait contenir un projet d’affiche publicitaire. Le flash-étude 7.4. décrit un
tel outil, intitulé « la méthode des graffitis ».
Flash-Étude 7.4.
Soumettez votre publicité à l’épreuve des graffitis(225)
On connaît les graffitis que subissent les affiches dans la rue ou dans le métro ; ces inscriptions
sauvages reflètent une attitude très souvent anti-publicitaire de certaines catégories de la
population. Mais si l’on demande à la clientèle potentielle d’un produit de réagir devant une
affiche, le contexte est très différent, et les résultats sont donc significatifs pour l’homme de
marketing.
Nous appliquons la technique des graffitis en groupe ; une fois que dans le groupe de
consommateurs se sont établies de bonnes relations (c’est-à-dire qu’il ne faut pas faire démarrer
un groupe avec cette technique), nous exposons l’affiche à tester et l’animateur demande au
groupe : « Si l’affiche parlait, qu’est-ce qu’elle vous dirait ? » Pendant quelques minutes, il
laisse le groupe répondre. Ensuite, il demande : « Qu’est-ce que vous avez envie de dire à cette
affiche ? » Dans un troisième temps, on donne aux participants des craies de couleur en leur
demandant d’écrire ou de dessiner sur l’affiche ou sur des feuilles blanches autour de l’affiche.
Les résultats de cette approche sont très révélateurs : par exemple, devant une affiche
d’automobile dont l’arrière semblait mal conçu, un particulier dessine une autre voiture qui « lui
rentre dans l’arrière au cours d’un accident ». L’intérêt de la technique des graffitis, par rapport
\/|
aux techniques habituelles de tests publicitaires, est qu’elle sollicite une attitude beaucoup plus
active chez l’interviewé, qu’elle lui laisse une grande liberté d’expression et que donc vont se
$|

développer des réactions plus profondes au message.


4$
By

G. Évaluation des méthodes


1. Intérêt
Nous avons accordé aux méthodes projectives une place importante, car ces techniques présentent
un potentiel intéressant en complément, voire en substitution des méthodes classiques (entretien
individuel et réunion de groupe). Leur champ d’application concerne prioritairement l’étude des
motivations et des freins pour l’achat, ou encore l’identification des critères de choix d’un produit.
Les racines théoriques de ces méthodes sont assez solidement établies dans leur champ d’origine, à
savoir la psychologie clinique ou la psychosociologie.

2. Limites
Malheureusement, l’adaptation des tests projectifs dans un contexte d’études marketing soulève de
nombreuses difficultés. Il ne faut pas oublier qu’au départ ces tests ont été développés pour détecter
les traits dominants de la personnalité de l’individu. L’analyste doit posséder de solides
connaissances en psychologie clinique pour pouvoir interpréter les résultats des tests projectifs, et
maîtriser ensuite les techniques marketing pour formuler des recommandations réalistes.
Par ailleurs, la transposition des tests projectifs, des listes d’achat et autres associations de mots
dans un univers de produits ou de marques est questionnable. Qu’observe-t-on exactement : les
motivations communes partagées par un même segment de marché ou les traits de caractère
structurant la personnalité des divers répondants ? L’interprétation des transpositions reste
problématique. La fiabilité et la validité du support utilisé pour la projection doivent être vérifiées,
quelle qu’en soit la nature.

III. Métaphore
La métaphore fait partie des principales figures de la rhétorique. Nous commencerons par présenter
ces dernières, puis nous exposerons les différentes natures de la métaphore avant de détailler les
différentes méthodes de production et d’interprétation.

A. Figures de rhétorique
La métaphore est une figure particulière de la rhétorique, art très ancien du discours, développé
dans la Grèce antique. En marketing, la rhétorique sert à structurer un message, en lui conférant un
sens particulier, pour qu’il influence un auditoire dans une direction voulue. Cette « science du
discours efficace » manipule le sens dans une direction souhaitée, et doit, pour cela, prendre en
compte l’univers du récepteur, son histoire, ses valeurs ou sa culture. Les intentions de l’émetteur
sont manifestées par la nature des arguments employés, leur ordre d’apparition et leur style de
\/|
délivrance.
$|
La rhétorique est utile pour une communication publicitaire, car elle facilite la création des images
4$

porteuses de sens et mémorisables par le récepteur. Dans un contexte d’étude de marché, on


privilégie l’analyse des figures de style particulières construites par des répondants, pour
By

interpréter leurs attentes, leurs valeurs et émotions.


De même que les langages fondés sur des icônes (hiéroglyphe, idéogramme, etc.) combinent
plusieurs figures pour représenter des actions ou des concepts, une image procède de la même
manière pour créer du sens. L’analyse rhétorique décortique un discours ou une image à partir de
trois angles(226) :
– l’invention. Les éléments visuels ou littéraires représentent des concepts, des abstractions, des
actions en « inventant » une argumentation complexe. L’interprétation se fait selon un processus de
« réconciliation sélective », c’est-à-dire que l’analyste se construit une vision du discours
acceptable compte tenu des circonstances et du sens attendu. Des éléments hors texte interfèrent et
complètent ceux qui sont présents dans le texte. Par exemple, dans une publicité faisant référence au
mythe de Pandore pour mettre en scène un coffret contenant des bijoux et parfums, le récepteur
s’appuiera sur son expérience antérieure des publicités : il ne retiendra que les éléments favorables
du mythe (amour, beauté, richesse) pour décoder le message, les facettes négatives du mythe étant
évacuées, car jugées inappropriées au contexte ;
– l’arrangement d’un discours ou d’une image oriente l’ordre de lecture et de compréhension du
message. Les retours en arrière, la concordance des temps, la fréquence des conjonctions
(subordination et coordination), des comparatifs et superlatifs renforcent ou nuancent les évocations
ou les arguments utilisés par un interviewé. Pour une image, la typographie, le mouvement suggéré,
l’emplacement organisent le sens du message ;
– la délivrance du message s’appuie sur l’intonation, la sélection des mots, l’accent et les postures
gestuelles ; ces éléments confirment ou infirment le sens du texte.
Des opérations de style spécifiques, appelées figures de rhétorique, facilitent la transmission et la
force de conviction des arguments(227). Leur analyse permet de qualifier le sens d’un discours, de
poser des hypothèses ou de suggérer des interprétations différentes. La fiche technique 7.3. présente
quelques-unes d’entre elles.

Fiche technique 7.3. Quelques figures courantes de rhétorique


On distingue cinq types de figures : l’analogie, la substitution de mots, l’opposition, l’amplification et
l’atténuation. Notre présentation se limite aux figures les plus couramment utilisées par les répondants.
1 – Une figure d’analogie : la métaphore
L’analogie fait appel à un raisonnement par comparaison entre deux concepts ou phénomènes, généralement
issus de domaines éloignés ; elle suggère une similarité apparente, une ressemblance entre les objets
considérés. Elle s’intègre dans un raisonnement par déduction. Dans la métaphore, la signification propre à un
objet est transportée à un autre, selon le principe de l’analogie ou du sous-entendu : « la vie est un voyage », « un
homme dans la fleur de l’âge », « brûler les étapes », « la lumière de l’esprit », etc. La métaphore comporte une
cible (le domaine que l’on cherche à illuminer, par exemple la vie) et une source (le terrain d’où l’illumination est
tirée, le voyage ou le cycle de la végétation). Elle nécessite une imagination créative. Le récepteur échange son
cadre de référence habituel « tel que c’est » avec une vision du type « tel que si » : la correspondance devient
métamorphose. Sa puissance évocatrice permet d’expliquer un domaine distant, difficile à cerner, par un domaine
\/|
proche, plus facilement représentable. En publicité, on s’appuie sur les dénotations propres à un signe en
$|
transférant ses qualités à l’objet mis en avant. Par exemple, la chaîne alpine derrière une bouteille d’eau minérale
transfère ses qualités de pureté, un pack de joueurs de rugby entoure une voiture pour témoigner de sa
4$

robustesse et de sa puissance, une multitude de lapins évoquent les capacités de reproduction d’un
photocopieur. Une métaphore trop souvent utilisée perd son pouvoir d’évocation et devient un « cliché » banal :
« être à cheval sur les principes », « courir après le temps », etc.
By

2 – Quelques figures de substitution


– Métonymie : un objet est désigné par un terme représentant un autre objet qui lui est relié par une relation
logique : « toute la ville dort » (pour les habitants), « une fine gâchette » (pour un bon tireur), « boire un bon
verre » (pour une bonne boisson alcoolisée). Le transfert du sens se fait par contiguïté : le contenant pour le
contenu, le concret pour l’abstrait. C’est une forme de symbolisation qui offre un raccourci d’expression.
– Prosopopée : l’objet inanimé (ou un être absent ou un défunt) se trouve doté de la parole ; il acquiert un statut
de personne. Le transfert de la parole sur l’objet peut se faire sous la forme d’une bulle de bande dessinée, mais
l’objet peut prendre lui-même une forme humaine et se mettre à parler. Cet aspect magique rapproche l’objet du
destinataire du message. Par exemple, la voiture se met à parler et interpelle le client.
– Synecdoque : la partie désigne le tout (« prendre le volant » équivaut à « conduire une voiture ») ou le tout la
partie (« vendre un vison » pour « un manteau en peau de vison »). En publicité, on procède sous forme de zoom
sur un signe de l’objet, fortement chargé de sens (un levier de vitesse suggère la performance d’une voiture), ou
sur un angle original (un feu arrière déformé pour indiquer un style d’avant-garde). Le détail est supposé
« allumer le sens » de l’objet.
3 – Une figure de renforcement : l’hyperbole
C’est l’exagération d’une expression pour attirer l’attention sur l’ensemble d’un objet ou sur un détail. Ce discours
suggère la passion ou l’émotion, par son caractère insolite ou improbable. En revanche, son excès nuit à la
crédibilité. Par exemple, la déformation volontaire d’une image (flou artistique, réduction, agrandissement,
étirement vertical) suggère quantités d’associations contradictoires : par exemple, pour une radio, la
déformation d’une bouche souriante grande ouverte, avec des lèvres rouges pulpeuses, peut signifier bavardage,
vulgarité, mais aussi une musique rock (analogie avec les Rolling Stones).
B. Nature des métaphores
La métaphore est au cœur de la pensée et stimule le fonctionnement de l’esprit humain en sollicitant
notre imaginaire de manière originale(228). Nous utiliserions près de six métaphores par minute dans
nos conversations courantes(229). Cette figure particulière de rhétorique joue le rôle d’une lentille
qui explore les correspondances, similitudes et identités entre ces deux domaines(230). La métaphore
permet une économie dans la transmission des données nécessaires à la compréhension d’un
concept difficile, tout en préservant le sens original.
Les métaphores produites par le consommateur font remonter à la surface des pensées ou des
sentiments inconscients. L’interprétation se fonde sur l’analyse des transferts de significations
opérés entre deux domaines, l’un proche et connu, l’autre lointain et méconnu. Une métaphore
confère des significations très riches aux expressions de l’identité individuelle, des relations
sociales et, de manière plus générale, au déroulement de la vie. Elle nous aide à interpréter le
monde qui est le nôtre, nos expériences agréables ou désagréables.
En marketing différents types de supports sont envisageables pour une communication
métaphorique : le mot (verbal), l’icône (dessin, image, graphisme, symbole) et la vidéo (film,
dessin animé, animation 3D). Nous n’étudierons que le premier type dans cet ouvrage.
De nombreuses métaphores renvoient à des mouvements, sensations ou expressions corporelles :
« je n’entends rien à la décoration », « vous voyez ce que je veux dire », « il ne touche pas une bille
\/|
au tennis » ; « être ouvert à d’autres points de vue » ; « je ne peux pas sentir cet individu » ; « il
$|
mange à tous les râteliers » ; « donner un coup de main » ; « être endetté jusqu’au cou », etc. L’idée
4$

sous-jacente serait que toutes ces images métaphoriques exprimeraient une forme de cognition
sensorielle, intuitive, appelée « cognition incarnée » (voir fiche technique 7.4.).
By

L’intérêt des métaphores pour les études marketing vient de la place centrale qu’elles occupent dans
l’imaginaire des clients d’une marque. En comprenant le sens d’une métaphore, on peut détecter la
nature des besoins latents : « les métaphores sont les canaux par lesquels passent les entreprises et
les consommateurs pour solliciter mutuellement leur attention et leur imagination »(231).
Fiche technique 7.4. Métaphore et cognition incarnée
L’idée de « cognition incarnée » repose sur le constat que notre cerveau est un organe vivant relié à un corps qui
est plongé dans un environnement sur lequel il agit. Cette inscription corporelle du cerveau a une incidence
importante sur la pensée. D’où l’hypothèse que la moindre idée qui nous vient à l’esprit aurait une dimension
corporelle, issue de notre système perceptif, émotionnel ou moteur(232). Le linguiste George Lackoff suggère que
la raison pourrait être née de ce système sensoriel et donc qu’elle emprunterait naturellement les chemins qui
l’ont produite. Ceci expliquerait pourquoi, par exemple, nous structurons les événements de la vie comme un
système de commande du mouvement : « mettre en marche », « s’arrêter », « retour en arrière », « se défoncer »,
« faire le point », « se projeter dans l’avenir », etc.
Cette cognition incarnée est facile à démontrer pour les idées concrètes, comme celle de l’orange. En fermant les
yeux l’image mentale de l’orange nous apparaît avec son panel de caractéristiques sensorielles : l’odeur, le goût
sucré, le bruit des feuillages, etc. Selon que l’on apprécie ou non le goût sucré, l’image mentale associée évoque
l’attirance ou la répulsion. Dans la cognition incarnée, toute idée se concrétise par une forme, une couleur, une
odeur et une valence émotionnelle (« j’aime », « j’aime pas »).
La cognition incarnée s’exprime naturellement dans les métaphores. On la retrouve dans toutes les langues et
cultures. Elle est parfois si naturelle qu’elle fait oublier la puissance des métaphores comme source de
dévoilement des significations complexes ou cachées. Les linguistes ont ainsi identifié plusieurs catégories de
métaphores communes à toutes les cultures (233) : (1) Caractéristiques humaines (mort-vivant, animer une
réunion, venir à l’esprit, disséquer le sujet, avoir la tête sur les épaules) ; (2) Végétaux (prendre racine, un
transplanté cardiaque, une réunion stérile) ; (3) Jeux (à la volée, la balle est dans notre camp) ; (4) Guerre et
combat (se battre pour imposer une idée, résister à la facilité ; point mort) ; (5) Liquides (jaillir, couler de source,
à contre-courant) ; (6) Marche et course (faire courir une rumeur, se jeter à l’eau) ; (7) Aliments (nourrir l’esprit,
\/|
remâcher sa rancune, ruminer sa vengeance) ; (8) Argent (une riche idée) ; (9) Vêtement (trame d’un discours) ;
(10) Mouvement et transfert (échanger son point de vue ; laisser tomber un ami) ; (11) Véhicules et bateaux
$|
(lever l’ancre ; montagne russe ; conduire un projet) ; (12) Temps et température (atmosphère glaciale, briser la
4$

glace) ; (13) Vision (entrevoir la solution, faire écran, aveugler) ; (14) Lieux (affronter le vide intérieur ; trouver
sa voie).
By

Il existe deux types de métaphores :


– les métaphores de surface : le sens est explicite, souvent stéréotypé ;
– les métaphores de fond : le sens est implicite, caché dans les profondeurs de l’inconscient et
nécessite une interprétation. Leur compréhension révèle le sens profond d’un comportement de
consommation. Elles produisent des idées utiles pour le positionnement d’un nouveau produit, pour
orienter l’innovation et la communication publicitaire.
Exemple
Dans une étude(234) pour un médicament contre les indigestions, un participant choisit
l’image d’un billet d’un dollar et explique ainsi son choix : « Quand je mange des
choses trop riches, je dois en payer le prix » ; « tout est dans la modération, comme un
chef cuisinier, il faut savoir évaluer la quantité des aliments que nous absorbons ». La
métaphore de surface renvoie à l’abondance et à l’argent (« payer le prix », « aliments
riches »), alors que la métaphore de fond est fondée sur la recherche d’un équilibre
moral (« la connaissance a un prix »), matériel (« ne manger ni trop ni pas assez »), et
d’une régulation délicate (« harmoniser les aliments »).

C. Production et interprétation des métaphores


Différentes techniques existent pour favoriser la production et l’interprétation des métaphores par
les consommateurs : le portrait métaphorique et la méthode ZMET sont les plus intéressantes pour
les études de marché.

1. Méthode du portrait \/|


a. Questionnaire chinois
$|

Fréquemment appelé « portrait chinois », il consiste à demander à un sujet de se décrire lui-même,


4$

ou un objet de son entourage, en s’imaginant transformé par une fée en divers animaux, personnes
célèbres, couleurs, etc. Initialement, ce test a été pratiqué en psychologie de l’enfant, mais il peut
By

être intéressant pour l’étude d’image de marque, un pré-test publicitaire, voire la recherche de
positionnement pour une marque. En marketing, la communication publicitaire utilise fréquemment
des animaux sauvages ou domestiques comme des métaphores pour illustrer les qualités de telle ou
telle marque.
L’interprétation des données reste difficile à réaliser, car elle suppose que l’on catégorise en
élément « apprécié » ou « rejeté » les divers symboles énoncés. Par exemple, quelle est la valeur
symbolique (favorable ou défavorable ?), pour une pierre, du calcaire, du grès, du schiste ?
L’exemple suivant montre la difficulté d’interprétation de certaines métaphores.
Exemple
Contexte de l’étude
Dans le cadre d’une recherche exploratoire destinée à vérifier la validité du
questionnaire chinois comme instrument d’analyse de l’image de marque, nous avons
interrogé une vingtaine de clients potentiels du Gaz de France. Nous cherchions à
valider une liste d’« items chinois » mettant en évidence les points forts et faibles de
l’entreprise.
Extraits de la liste d’items proposés
« Si le Gaz de France était un homme célèbre, ce serait
»
« Si le Gaz de France était une couleur, ce serait
»
« Si le Gaz de France était une pierre, ce serait
»
« Si le Gaz de France était
\/| un animal, ce serait
»
$|
« Si le Gaz de France était une plante, ce serait
4$

»
« Si le Gaz de France était une chanson, ce serait
By

»
Résultats (maquillés)
Imaginons que, par exemple, bon nombre d’évocations de la question 1 faisaient
référence à « Hitler », « Landru », ou au « Diable ». L’interprétation de ces symboles
est assez simple et semble clairement défavorable pour l’image du Gaz de France.
Mais que dire d’autres réponses qui seraient du type : « Napoléon » (impérialiste ou
leader charismatique ?), « Henri IV » (Ravaillac ou la poule au pot ?), « Mitterrand »
(président ou socialisme ?), etc.
Conclusion (provisoire)
La validité du questionnaire chinois en tant qu’outil d’analyse de l’image reste à
établir.

Des travaux portant sur la signification des couleurs ou des animaux existent, mais leurs
conclusions sont souvent controversées(235). Néanmoins, on constate dans les campagnes
publicitaires des associations fréquentes entre une catégorie de produit et un type d’animal : les
chiens sont plutôt mobilisés dans des campagnes publicitaires pour des biens durables, les chevaux
pour des alcools ou des cigarettes, les oiseaux pour des services(236).
Exemple
Les publicités des cigarettes Camel ont pendant longtemps fait appel à « Joe », le
célèbre chameau fumeur. Or les symboles attachés à cet animal sont multiples et
contradictoires : on trouve dans les littératures historiques ou bibliques des
représentations du chameau comme un emblème des vertus humaines (courage,
gentillesse, obéissance, humilité), mais aussi comme un animal matérialisant le vice et
la luxure(237). Dès lors, l’interprétation de tels symboles ne peut se faire sans l’aide
d’une collecte d’informations supplémentaire pour valider l’une ou l’autre des pistes
interprétatives.

La difficulté de l’interprétation du sens de ces métaphores est donc bien réelle. La figure 7-10,
établie à partir de recherches menées en littérature, histoire ou ethnographie, montre une forte
polysémie des symboles : leur sens varie selon les cultures et les époques. Pour réduire la part de
subjectivité de l’interprétation, il est possible de demander aux répondants de fournir une brève
explication, des synonymes pour éclairer le sens de leurs associations. Une analyse de contenu
ultérieure facilite ensuite les catégorisations.
Figure 7.10. Principaux symboles associés aux animaux
\/|
Type d’animal Principales associations
$|
4$

Montagne, ennemi.
Messager, compagnon, gardien, fidélité, amitié.
By

Magie, diable (Moyen Âge).


Chien Fornication, syphilis (Mayas et Aztèques).
Prostituée (Grèce), géniteur (mâle).
Péché, obséquiosité.
Vigilance (Grèce, Chine, Japon et Égypte).
Magie, sacré, sorcière.
Chat Pénombre, occulte, réserve.
Liberté, luxure.
Virilité, symbole phallique, lubricité (Hébreux), prostitué
(Shakespeare). Appétit sensuel (Moyen Âge).
Cheval Guerre, travail (Romains).
Mort (cheval clair).
Monture et cavalier (le corps et l’esprit).
Voix prophétique.
Oiseau Sagesse (peuple primitif).
Spiritualité, sacré (Indiens).
Source : SPEARS N., MOWEN J. et CHARKRABORTY G., op. cit., 1995, p. 515.
b. Portrait métaphorique
Une autre variante permet d’explorer et d’interpréter plus finement les représentations des sujets,
leurs émotions ou des sens cachés, difficiles à atteindre dans des situations de consommation
complexes ou taboues(238). Cette technique est bien adaptée à des répondants peu familiers avec des
produits impliquants ou innovants. Le questionnaire comporte une vingtaine de questions du type :
« Que-ce que cela serait, si (l’objet) était... » appliquées à huit champs métaphoriques : ville, pays
ou continent ; animal ; plante ou légume ; plat cuisiné ; nourriture ou boisson ; sport ou événement
sportif ; couleur ou matière ; voiture ou mode de transport ; chanteur ou groupe musical. Le
répondant choisit cinq catégories de métaphores et indique les associations spontanées qui lui
viennent à l’esprit pour cette catégorie ; puis il reprend les associations en expliquant pourquoi il a
pensé à cela.
La figure 7.11. donne un aperçu des métaphores obtenues dans une étude portant sur les freins et les
motivations pour l’usage d’Internet, réalisée auprès d’une centaine de consommateurs potentiels
canadiens. L’analyse révèle une ambivalence des répondants : Internet fascine et attire, mais en
même temps intrigue et effraye. Le Web est perçu comme une innovation hybride, apparemment
complexe, d’une utilisation peu évidente, d’où une certaine peur et une crainte. Les aspects positifs
résident dans l’accès à une grande masse d’informations et l’existence de sites très attractifs ; l’idée
d’un changement inéluctable dans les modes de vie et de travail induit par Internet est pratiquement
acquise.
\/|
$|
4$
By
Figure 7.11. Quelques métaphores associées à Internet

Types Exemples Exemples de verbatims associés


de métaphores de métaphores aux métaphores
États-Unis : « Les plus forts dans ce domaine ;
Los Angeles, New
ils ont les plus grosses entreprises ».
York, Venise ; États-
Ville, pays ou continent Venise : « À cause des canaux qui sont comme
Unis, Californie,
un réseau avec une image sentimentale et
Brésil, Australie.
artificielle ».
Pieuvre, loup, araignée, Pieuvre : « Cela pourrait envahir nos vies ».
singe, lion, renard, Araignée : « Internet est comme une toile
Animal ou plante
éléphant, abeille, d’araignée ; vous êtes emmêlé dedans dès que
papillon. vous y pénétrez ».
Buffet chinois : « Un peu de tout, il vaut mieux
Plat, boisson ou Buffet chinois, ne pas être trop difficile ».
nourriture spaghetti, champagne. Spaghetti : « Un enchevêtrement
d’informations, de techniques, de connexions ».
Jogging, relais, Jeux Olympiques : « C’est international, tous
Sport ou événement
handball, Formule 1,
\/|
les pays y viennent pour faire quelque chose
sportif
jeux Olympiques.
$|
ensemble ».
4$

Rouge, bleu, mer bleue, Rouge : « C’est vivant, cela va vite » ; « C’est
ciel bleu, blanc, usine, jeune, c’est la couleur des affaires ».
Couleur ou matière
By

vêtement, soie, toile Bleu : « Comme la mer, quelque chose de


d’araignée. calme ».
New Age, rock,
New Age : « Des personnes jeunes ; des
Type de musique ou musique moderne,
Américains étranges » ; « de la musique
groupe underground, requiem,
moderne, un peu bizarre ».
jazz, Beatles.
Voiture de sport,
camion, Ferrari, Formule 1 : « C’est la vitesse de
Voiture ou moyen de Mustang, bus, déplacement ».
transport Formule 1, voiture Bus : « Cela transporte un grand nombre de
allemande, métro, choses différentes ».
avion.
Source : BALLOFFET P. et BOULAIRE C., « Representations of Internet : an investigation based on metaphors », op cit., pp. 536-
554.
Exemple
Le portrait métaphorique a été appliqué pour détecter d’éventuelles modifications de
l’image de Carrefour, après la modification de l’agencement de ses linéaires et de
l’ambiance de ses points de vente, opérée dans le courant des années 2011 et 2012.
Les métaphores montrent que si les consommateurs sont de prime abord déroutés, ils
restent plutôt confiants. La métaphore du « poivron » renvoie au « côté biscornu » de
l’agencement, le « lierre » évoque le désordre de la période de mutation, « ça grime,
ça grandit ». D’un autre côté, la couleur « verte » est choisie pour symboliser
« l’espoir que les prix vont baisser », le « chien » est évoqué, car finalement « ça plaît
à tout le monde », « c’est speed et sympa », et l’Amérique du Sud, car « c’est gai et
coloré »(239).

2. Méthode ZMET (« Zaltman Metaphor Elicitation Technique »)


Elle comporte huit étapes (présentées dans la figure 7.12.) permettant d’obtenir un grand nombre de
métaphores(240). Une dizaine de jours avant son application, les répondants recueillent une quinzaine
d’images reliées au thème de l’étude : par exemple, les vacances, la préparation d’un repas, le
jardinage, etc. Cette collecte s’effectue dans des magazines, des journaux ou des prospectus
\/|
publicitaires, etc.
$|
4$
By
Figure 7.12. Étapes de la technique ZMET

Étapes de la
Objectifs et interprétation
méthode
Description des éléments saillants contenus dans les photographies
1 – Recueil des histoires. et dessins rassemblés ; recueil des premières métaphores associées
aux questions de l’étude et signification attribuée par le répondant.
Enregistrement des images que l’on aurait aimé trouver et qui n’ont
2 – Images manquantes.
pu l’être ; rédaction de fiches sur ces images manquantes.
Répartition des images dans les catégories thématiques propres
3 – Classement des images.
à chaque répondant.
Tirage au sort de trois images : les sujets mettent ensemble les deux
4 – Citation des construits. qui leur semblent les plus proches et donnent la raison de leur
choix.
Sélection par l’enquêteur d’images pour lesquelles le répondant
5 – Élaboration des doit « élargir son champ de vision » : imaginer ce qui se passe à
métaphores. côté ou derrière, les éléments présents qui renforcent ou
contredisent le sens donné à l’image, etc.
\/|
Évocations (autres que visuelles) suggérées par les images :
6 – Images sensorielles.
$|
auditives, olfactives, tactiles, gustatives.
4$

Histoire (bref scénario) suggérée par l’image : pensées, sentiments


7 – Vignettes.
évoqués.
By

Construction d’une image de « synthèse » par collage ou montage


8 – Images digitales. successifs des images : elle doit résumer les éléments considérés
comme essentiels par le sujet pour la question étudiée.

Les métaphores sont interprétées pour élaborer une carte « consensuelle » : on sélectionne celles
qui sont citées par au moins 50 % des répondants et qui sont reliées à un même concept par au
moins un tiers d’entre eux. On obtient généralement une liste de 25 à 35 construits. À titre de
validation, 3 ou 4 interviews sont tirées au sort et l’on vérifie que chaque construit de la carte est
présent dans au moins l’une d’entre elles. La méthode a fait l’objet d’applications commerciales
aux États-Unis, par exemple pour la mise au point de matériel médical destiné à des personnes
souffrant de maladies chroniques, ou encore pour la compréhension de l’usage du téléphone par les
femmes au foyer. Cette technique innovante produit des données riches, capables d’alimenter une
réflexion sur les valeurs et attentes associées à des produits ou services. Mais elle reste lourde et
onéreuse, l’administration de chaque interview exigeant au moins deux heures.

IV. Images expérientielles


Ces méthodes dérivent du courant marketing « expérientiel » qui considère que l’acheteur recherche
avant tout une expérience dans la consommation de biens et de services, fondée sur la quête de
sensations ou de sentiments spécifiques(241). Elles font revivre des expériences au consommateur en
utilisant des photographies qui se rapportent à l’activité concernée. Les images permettent une
projection naturelle de sentiments ou de désirs, impulsés par les souvenirs associés à une
expérience personnelle, parfois empreinte d’un fort contenu émotionnel. Nous présentons trois
applications de ces techniques.

A. Autoportrait photographique
Cette méthode, encore appelée « Autodriving », demande aux sujets de se décrire eux-mêmes
à partir de photographies les représentant au cours d’une activité quelconque (repas, sport, hobbies,
etc.)(242).
La collecte des données nécessite trois étapes :
1 – Prise de photographies de l’activité, environ une centaine pour chaque sujet.
2 – Sélection d’un échantillon d’une quinzaine de photographies pour chaque répondant. On
demande ensuite de les commenter : « Dites-moi tout ce qui vous vient à l’esprit quand vous voyez
cette photo... » Les commentaires sont enregistrés avec un magnétophone. Le choix de l’échantillon
est effectué après une discussion de groupe (dans ce cas, des étudiants en sociologie), en
privilégiant les photographies qui apparaissaient comme les plus caractéristiques de l’activité.
\/|
3 – Réexamen de quelques photographies, complété par l’écoute des réactions du sujet enregistrées
$|
à l’étape no 2 ; ce dernier commente une dernière fois ses déclarations.
4$

L’analyse des données se fait, après transcription des enregistrements audio, par une analyse de
contenu classique.
By

La technique de l’autoportrait se rapproche des méthodes d’observation, telles que celle des
protocoles verbaux ; mais elle s’en différencie dans la mesure où l’on ne demande pas à
l’interviewé de « penser à voix haute » durant l’activité, mais après, et en s’aidant des différentes
images illustrant son action. Cette dissociation permet l’explication de comportements qui, sur le
moment, n’aurait peut-être pas été fournie par le sujet. Ceci est intéressant pour une approche en
profondeur des motivations d’achat et une meilleure compréhension des usages d’un produit ou
d’une marque. Ces informations facilitent le choix du positionnement du produit, de la campagne de
communication, tout en permettant de découvrir de nouveaux usages.

Exemple
Une famille est attablée autour d’un réchaud à fondue(243). En regardant les photos de
cette soirée, un sujet déclare :
« C’était un repas sympa. J’aime la fondue... Juste après notre mariage, c’était un truc
très à la mode... C’était à cette époque un cadeau de mariage courant. J’avais préparé
une fondue avec de la viande... Je m’en suis servi durant “une soirée-football”, je
pensais que c’était une bonne recette d’hiver... »
Cette technique, outre les limites inhérentes aux méthodes projectives développées ci-après, reste
extrêmement lourde et onéreuse : trois séries d’interviews par personne sont nécessaires, une
quantité impressionnante de photographies doit être réalisée, puis visionnée. Enfin, la constitution
de l’échantillon de photographies est délicate, car elle influence considérablement la nature des
informations recueillies ultérieurement.

B. Essai collectif en 3D
Cette technique est bien adaptée à l’étude du marché du tourisme, des loisirs ou le suivi des modes
de vie, etc. Plus complexe que la précédente, la méthode présente les particularités suivantes(244) :
– l’échantillon se compose d’une trentaine de personnes partageant un centre d’intérêt commun.
Chaque participant détermine lui-même les thèmes qu’il considère comme saillants et les
personnages ou objets à prendre en photo, compte tenu de l’objectif de l’étude. Les instructions sont
simples : « Prendre des photographies représentatives d’un moment important de l’expérience de
consommation, et de tous les détails ou images qui signifient quelque chose de particulier pour
vous » ;
– les participants disposent d’un appareil stéréoscopique. Celui-ci permet une prise de vue en trois
dimensions, les photographies étant jumelées et légèrement décentrées pour respecter la
perspective propre à chaque œil. Un relief apparaît, donnant l’illusion d’une profondeur de champ.
\/|
Cette vision peut être obtenue de manière naturelle (en se concentrant sur les photos, puis en les
$|
éloignant progressivement), ou assistée par des lentilles, lunettes ou casques spéciaux ; ces derniers
4$

peuvent éventuellement être couplés à un micro-ordinateur (réalité virtuelle). Le réalisme, la clarté


et l’impact visuel de telles photographies enrichissent fortement le souvenir de l’expérience vécue
By

par les interviewés ;


– une fois les photographies stéréoscopiques développées, chaque sujet observe son propre jeu,
étalé devant lui. Il doit décrire chaque photographie, la raison pour laquelle elle a été prise, ce
qu’elle évoque comme souvenir particulier, etc. Le répondant rédige ces quelques lignes dans la
vignette disponible sous chaque photographie. Les textes sont catégorisés et interprétés, sur la base
d’une analyse de contenu, par trois ou quatre personnes différentes. Ceci assure une meilleure
convergence pour l’établissement de la liste des thèmes.
Cette méthode a été appliquée à différentes études (image d’une ville, par exemple).
Exemple
Une étude visant à évaluer l’importance et la place occupée par les animaux
domestiques dans la vie quotidienne de leurs maîtres(245) a été menée selon la méthode
de l’essai collectif en 3D. L’échantillon regroupait une centaine de New-Yorkais dont
11 % considéraient leur animal de compagnie comme un élément clé de leur bonheur.
L’analyse des vignettes a révélé sept grands types d’opportunités associées à la
présence d’un animal de compagnie. Tout d’abord, l’animal permet d’apprécier la
nature ou d’expérimenter une tranche de vie sauvage, grâce aux contacts quotidiens
avec d’autres animaux de l’espèce ; le maître apprend beaucoup au contact de son
animal, certains y voient une source d’inspiration et une ouverture sur leur
environnement. Le sentiment de filiation ou de paternité représente une autre source de
plaisir : il se manifeste au travers des jeux, des soins, de la participation à la vie de la
famille ; au-delà, certains pensent que leur animal les rend plus altruistes, plus calmes,
« mieux dans leur peau ». Enfin, l’animal est un moyen de tisser des liens avec
d’autres humains.

L’essai photographique est un outil original bien adapté à la mise au jour des attentes, des freins et
des motivations pour la consommation de produits ou de services. Cette technique est utile pour la
\/|
recherche de créneaux pour le lancement de nouveaux produits ou la découverte d’axes de
$|
positionnement originaux. Le fait de prendre des photographies implique fortement les participants
4$

dans l’étude ; de plus, la vision en relief facilite la projection des émotions agréables ou
désagréables, parfois oubliées ou refoulées. En revanche, la technique est lourde à mettre en œuvre,
By

coûteuse en temps et en moyens : appareillage sophistiqué, présence de plusieurs analystes, etc.

C. Méthode AOL
L’objectif de la méthode est l’exploration et la compréhension des représentations associées à une
expérience de consommation. Elle identifie les axes majeurs qui structurent les représentations des
expériences de consommation, que ce soit pour des marchés mûrs ou pour des marchés émergents.
Dans le cas de marchés mûrs, la méthode peut révéler des créneaux inexploités ; dans un contexte
de nouveaux marchés, la méthode identifie les freins et les motivations des consommateurs (actuels
ou potentiels). En second lieu, la méthode AOL est fructueuse pour élaborer une politique de
communication et pour orienter la recherche de nouvelles idées de produits. En matière de
communication, la méthode met au jour des axes et des thèmes envisageables pour l’établissement
d’une copy-stratégie ; elle est apte à la recherche d’un nouveau logo ou d’un packaging, voire d’un
nouveau nom de marque(246).
Son principe repose sur l’exploitation d’images disponibles sur les sites Internet. Elle repose sur la
réunion asynchrone d’un groupe de 4 à 8 personnes. Le modérateur leur demande de sélectionner
sur l’Internet les images qui leur semblent les plus représentatives d’une expérience de
consommation, puis de réévaluer ce choix à la lumière des choix opérés par les autres membres du
groupe.
1. Collecte
Elle comporte les quatre étapes suivantes :

Étape 1. Recherche et sélection individuelle des images


Chaque membre de groupe sélectionne sur Internet les images qui correspondent le mieux à
l’expérience proposée. Tout commence par un scénario d’achat ou de consommation proposé par le
modérateur du groupe. On commence par différentes questions ouvertes concernant l’expérience de
consommation, puis le répondant introduit les mots clés qu’il juge les plus représentatifs de cette
expérience dans son moteur préféré de recherche d’images (généralement, Google Image). Il
sélectionne une dizaine d’images, puis il focalise son attention sur les cinq qu’il préfère. Celles-ci
forment son album. Il commente, dans une vignette prévue à cet effet, chaque image, dit ce qu’elle
évoque pour lui (description, ce qu’il voit devant, derrière, autour de l’image) ; le répondant
explique pourquoi il a l’a choisie, raconte ensuite une brève histoire à son sujet, etc. Puis il renvoie
l’ensemble au modérateur du groupe.

Étape 2. Composition de l’album intermédiaire du groupe


Le modérateur réalise l’union des différents albums individuels, puis il retourne cet album aux
\/|
différents membres du groupe. Il leur demande de revoir leur jugement, en tenant compte de ces
nouveaux apports. Chaque répondant a la possibilité de faire siennes les images proposées par les
$|

autres membres du groupe, ou de conserver ses premières images, ou de mixer les deux. Chaque
4$

répondant compose un album individuel comportant cinq visuels.


By

Étape 3. Évaluation individuelle de l’album intermédiaire


Chaque photo est commentée. Si une photo a déjà été choisie à l’étape 1, l’individu doit penser à de
nouvelles choses, raconter une nouvelle histoire, etc. En dernier lieu, il répartit 100 points sur les
cinq photos choisies, en fonction de la préférence accordée à chaque photo.

Étape 4. Constitution de l’album final du groupe


Si l’on recherche une convergence, on peut ajouter une nouvelle itération, comparable à un
processus Delphi (voir chapitre 5), pour obtenir un album final qui soit le plus consensuel possible.
La plupart du temps, cela n’est pas nécessaire, car on souhaite généralement plutôt mettre en
lumière les régularités et les spécificités des différentes représentations des membres du groupe.

2. Interprétation
Les données produites sont de deux types : verbales (discours) et iconiques. Les images servent de
supports de projection pour les histoires personnelles (narrations, souvenirs, expériences vécues)
mais révèlent également les peurs, frustrations, fantasmes et idéaux individuels. L’interprétation des
images se fait par analyse de contenu des discours produits par les répondants. L’analyse
thématique met en relation les différents discours associés à une même image. L’analyse verticale
identifie les représentations propres à chaque individu. La synthèse finale met au jour les
régularités (invariants) et les spécificités des représentations.
Une attention particulière est accordée aux images et discours métaphoriques. Les métaphores
visuelles sont très riches sur le plan sensoriel. Les discours tenus lors des étapes individuelles
permettent d’expliciter les métaphores de fond ; celles-ci condensent les éléments communs à
plusieurs métaphores de surface. L’analyse des premières permet d’identifier les éventuels
archétypes(247).
Les archétypes sont des représentations inconscientes et récurrentes qui renvoient à une histoire
commune, universelle, voire primitive. Le flash-étude 7.5. propose deux interprétations d’images
métaphoriques (papillon et tableau abstrait) choisies par les répondants pour représenter
l’expérience de consommation d’un parfum et la pratique du surf en mer.

Flash-Étude 7.5.
Images métaphoriques(248)

\/|
$|
4$
By

L’image ci-dessous est une métaphore produite par un groupe AOL pour illustrer l’expérience de
consommation d’un parfum. Voici les verbatims associés par les répondants qui l’ont choisie
dans leur album individuel : « Le parfait par la représentation du papillon ; quelque chose de
léger, de pratiquement imperceptible lors de son vol ; associé aux lèvres d’une femme, cela
donne la représentation d’une caresse douce et légère » ; « Évoque le printemps, toutes les fleurs
et les différentes senteurs qui se dégagent ; ce papillon a une jolie couleur, la même que le rouge
à lèvres » ; « Reflète bien le parfum (si l’on n’en met pas des tonnes !), quelque chose de doux.
Cet animal si léger pourrait être un bon logo pour une marque de parfum » ; « Un zeste de
parfum, aussi léger qu’un papillon, mais laissant une empreinte, telle que le rouge à lèvres ; le
rouge évoque un parfum sensuel, tenace, quasi indélébile ; une touche parfumée, délicate » ; « La
douceur d’un papillon qui viendrait se poser délicatement sur votre bouche... Que du bonheur !
La couleur des lèvres (rouge soutenu Chanel No 5) me fait penser à un parfum pour femme très
chic, organisée, chef d’entreprise. Une senteur envoûtante » ; « Ce joli papillon qui se pose sur
ces lèvres délicates et pulpeuses représente idéalement la fragrance d’un parfum. Le rouge est
flamboyant et inspire une certaine pureté. La brillance des lèvres fait penser à une pomme
d’amour que l’on aurait envie de croquer. Toute femme devrait associer cette belle couleur à un
parfum irrésistible pour faire craquer complètement un homme. » Nous retrouvons ici
l’archétype de la vie, souligné par une première métaphore de fond : le mythe des saisons, cycle
de la vie humaine. Le vol délicat et léger du papillon renvoie au printemps, moment fort de la
jeunesse, de la légèreté, de l’insouciance. Le paradis (espéré, fantasmé ou perdu) constitue la
seconde métaphore de fond : la sensualité et la douceur évoquent un monde paradisiaque
(« douceur » ; « que du bonheur » ; « une certaine pureté » ; « imperceptible » ; « pomme
d’amour que l’on a envie de croquer » ; « envoûtante »). La couleur rouge, omniprésente, est
polysémique : les métaphores renvoient à une violence feutrée et contenue (« flamboyant » ;
« indélébile » ; « tenace » ; « faire craquer » : « irrésistible ») et à la séduction (« femme chic » ;
« lèvres délicates et pulpeuse » ; « caresse douce et légère »). L’ambivalence du parfum
(vie/mort ; amour/haine ; violence/douceur ; légèreté/lourdeur) évoque un fascinant mélange des
contraires. On remarquera enfin la puissance du visuel du papillon rouge qui effleure des lèvres
sensuelles : il pourrait pratiquement être utilisé en l’état comme un logo ou comme base d’un
packaging, voire comme nom d’un nouveau parfum.

La figure ci-dessous illustre une autre métaphore produite par un groupe de surfeurs réguliers
\/|
pour représenter leur passion. Voici les interprétations des deux répondants qui ont sélectionné
$|
cette image dans leur album personnel : « J’aime beaucoup ce tableau, ça peut paraître bizarre
de l’associer au surf, mais finalement je trouve qu’il évoque bien l’image de vie, de chaleur, de
4$

convivialité. Le mélange de couleurs et de culture est associé à la “culture surf” dans mon
esprit » ; « Cette photo, je l’ai choisie pour les raisons cités lors de la seconde phase de l’étude.
By

Couleurs chaudes, joie, gaîté, tous les ingrédients sont dans ce tableau pour me donner envie de
faire du sport et surtout m’y faire penser... Cette image correspond totalement à ce que je suis et
je trouve que les formes ressemblent aux rouleaux faits par les vagues... ». On identifie dans ces
verbatims une métaphore de fond qui renvoie au caractère existentiel et à la quête du sens de la
vie : métissage des expériences, surprises, peines et joies... Fascination du surf et peur, mélange
des contraires que sont l’archétype du double ou du deuxième mois. Le surf reflète à la fois la
dualité (mélange) et l’unité (ce que je suis) : identité complémentaire ou opposé radical ?

L’analyse des images est riche et porteuse de sens pour le marketing. La synthèse finale fournit un
« mapping » des différentes représentations collectives, organisé autour de pivots (axes). La
figure 7.13. donne la carte des représentations de la consommation d’un parfum produite par un
groupe soumis à la méthode AOL.
Figure 7.13. Représentations d’un parfum par la méthode AOL

\/|
Source : VERNETTE É., op. cit., 2007.
$|
4$

V. Sémiotique
By

A. Arrière-plan théorique et principaux concepts


La sémiotique est formée de deux courants majeurs. Pour le premier, représenté par des auteurs
nord-américains tels que Pierce et Morris, la sémiotique est une logique formelle de comportement
articulée sur la compréhension d’un système de signes qui entretiennent des rapports entre eux, mais
qui s’appliquent aussi à des objets et des personnes. Un grand soin est accordé à la catégorisation
des signes et à leurs dimensions, car l’interprétation découle de cette classification. Un second
courant, d’origine européenne, s’intéresse à la vie des signes dans leur dimension sociale. Cet axe,
emprunté par Saussure, Jakobson et Greimas, s’inspire de la linguistique, de la psychosociologie,
voire de l’anthropologie culturelle. Il s’appuie sur le structuralisme qui appréhende le sens d’un
comportement à partir des structures du langage. On cherche à répondre aux questions suivantes :
qu’est-ce qui fait sens ? Quelles sont les représentations du sens ?

1. Définitions et champs d’action


Ferdinand de Saussure, linguiste genevois, définit en 1905 la sémiologie comme « une science qui
étudie la vie des signes au sein de la vie sociale ; elle formerait une partie de la psychologie
sociale [...] Elle nous apprendrait en quoi consistent les signes, quelles lois les régissent ». En
d’autres termes, la sémiotique étudie la création et la transmission du sens au travers des signes.
La frontière entre sémiotique et sémiologie n’est pas facile à établir. Certains considèrent que la
sémiologie est restreinte à la compréhension d’une communication à partir de l’analyse des signes
ou des codes. La sémiotique poursuivrait une mission plus large, visant à élaborer une théorie de la
signification : pour ce faire, elle embrasse toutes les formes signifiantes, les pratiques sociales ou
les langages(249). Dans une acception élargie, la sémiotique intègre tous les types de signes : image,
odeur, code du goût, geste, pratique, rite, mélodie, spectacle, architecture, etc. Ces éléments
constituent des systèmes de signification dont la structure serait interprétable par le sémioticien.

2. Principaux concepts
Les concepts développés caractérisent les composantes, les valeurs, l’organisation et la fonction
des signes dans un système de signification donné(250).
a. Composantes et supports d’un signe
Il existe deux écoles de pensée :
– La sémiotique structurale. Selon ce courant, un signe comporte une double face : le plan de
l’expression matérielle (le signifiant) et le plan du contenu (le signifié). La mise en relation de ces
deux faces crée la signification. Ainsi, une colombe avec un rameau dans son bec (signifiant)
exprime la paix (signifié). Par ailleurs, chaque face d’un signe se subdivise en deux dimensions : la
substance et la forme (voir figure 7.14.) ; \/|
– La sémiotique comportementale. Selon ce courant, tout signe est supporté par trois dimensions : la
$|
sémantique étudie les relations entre le signe et l’objet qui donnent la signification du signe ; la
4$

syntactique détermine les relations formelles entre les signes et les règles qui les lient ; la
pragmatique analyse les relations entre les signes et l’homme.
By

Figure 7.14. Contenu et dimensions d’un signe

Plans Dimensions Exemple : le sourire


1 – Substance : technique de
1 – Contraction musculaire.
production du signe.
Expression 2 – Plissement des muscles de l’œil et
2 – Forme : organisation du signifiant
(le signifiant) de la bouche ; relèvement de la
dans un énoncé : couleurs, formes,
commissure des lèvres.
espaces.
3 – Substance : aspects sémantiques
3 – Plaisir, contentement.
Contenu émotifs ou idéologiques du signifié.
4 – Système de communication
(le signifié) 4 – Forme : insertion formelle du
affective.
signifié dans un système.
Exemple
Le port d’une cravate est interprété de la manière suivante : l’axe sémantique donne
une signification de la cravate à partir des conventions en vigueur (situation sociale,
rapport hiérarchique, valeur), la syntactique décrypte le respect des règles du « bon
goût » (assortiment des couleurs, matière du tissu, etc.), la pragmatique analyse les
réactions de l’entourage (considération, distance, etc.).

b. Valeurs d’un signe


La première valeur, la dénotation, est une explication objective (explicite) et invariante du signifié
qui renvoie, sans perte de contenu, à une réalité univoque : par exemple, ce qui découle d’un geste
ou de l’ordonnancement d’objets exposés dans une image. La seconde, la connotation, exprime une
valeur subjective (personnelle, sociale, culturelle) du signifié du fait de sa substance et de sa
forme.

Exemple
\/|
Un képi dénote autorité et responsabilité, mais a une connotation variable selon le
$|
récepteur : protection des faibles pour l’un, répression pour l’autre. En simplifiant, la
dénotation renvoie à une signification cognitive, la dénotation à une signification
4$

affective, de nature plus symbolique(251).


By

c. Typologie et organisation des signes


Pour Pierce, il existe trois classes de signes :
– l’icône est une représentation qualitative de l’objet fondée sur une ou plusieurs caractéristiques.
Par exemple, une image, un tableau ou un diagramme exprime des similitudes avec l’objet qu’ils
sont censés représenter ;
– l’indice désigne un signe contigu avec l’objet. Par exemple, une forme fermée exprime un
achèvement ou une défense ;
– le symbole exprime une relation conventionnelle avec l’objet. Ainsi, le signe « = » désigne une
équivalence entre les termes situés de part et d’autre. Le sens symbolique varie selon le contexte ou
la culture. Par exemple, si le rouge signifie interdiction, il peut symboliser la violence, la passion
selon l’objet et l’environnement culturel ou social(252).
La communication suppose un échange d’une série de signes, organisés pour constituer un
« énoncé ». Ce dernier renvoie au contenu intrinsèque du message et à ses traits constitutifs (ce que
l’on veut dire). Chaque locuteur fait subir des adaptations spécifiques (tournures, choix du
vocabulaire, figures de style, ton, formes grammaticales, etc.), consciemment ou non, à l’outil
linguistique : c’est « l’énonciation ». On dira que, tout comme un produit résulte d’un processus de
production, « l’énoncé est le fruit de l’acte d’énonciation »(253). À leur tour, les énoncés se
combinent pour former « un texte » : ce dernier ne provient pas seulement d’un système linguistique,
mais peut venir d’un système iconique, gestuel, mélodique, etc. Enfin, les différents textes
s’articulent pour former un « discours ». Ces niveaux d’organisation (signe, énoncé, texte, discours)
constituent autant de matériaux interprétables par le sémioticien.
d. Fonction des signes
En sémiotique structurale, le signe poursuit une double fonction : signification et communication.
– Le processus de signification est sous-tendu par l’existence de codes qui doivent être connus et
acceptés (au moins en partie) par les différents intervenants. Un code exprime une correspondance
entre un signifiant et un signifié : c’est la mise en forme d’un contenu. Il s’organise autour de règles,
de conventions, de symboles linguistiques ou iconiques. L’ensemble forme un répertoire, plus ou
moins commun à un groupe d’intervenants. Deux axes structurent le code : l’axe paradigmatique qui
sélectionne les unités de sens (la conjonction « ou ») et l’axe syntagmatique qui agrège ces éléments
entre eux (la conjonction « et »). Dans une phrase, un signe acquiert du sens par opposition à ce qui
précède ou suit.

Exemple \/|
On peut ainsi comparer deux menus selon ces axes : par exemple, l’angle
$|
syntagmatique s’exprime par une séquence de plats (menu no 1 : entrée et plat
4$

principal ; menu no 2 : entrée et dessert) et l’angle paradigmatique représente l’étendue


des choix possibles à chaque étape du repas (entrées au choix : salade ou quiche ou
By

soupe).

Une image s’analyse à partir de quatre codes : iconique (stimulation des sens), iconographique
(utilisation de symboles graphiques connus), rhétorique (argumentation particulière) et stylistique
(reprise des codes personnels d’une marque). Par ailleurs, la manifestation d’un produit ou d’une
marque dans une image publicitaire s’opère selon deux registres : la présentation (le produit est
montré, offert) et la prédication (le produit est qualifié par l’attribution de caractéristiques
propres). La première préfère les codes iconiques, la seconde privilégie des codes rhétoriques ; la
figure 7.15. illustre quelques-uns d’entre eux(254).
Figure 7.15. Quelques codes d’une expression iconique

Types de codes Commentaires


L’objet est mis en avant par un geste d’exhibition tenu, soutenu ou
Gestuel tendu/non tendu tendu ; renvoi au code plus général de l’élévation dans les rites
religieux.
L’objet est tendu et placé à une certaine distance du présentateur :
Gestuel dégagé/non dégagé signe-frontière qui distingue le saisi du brandi, la préhension de
l’exhibition, l’accaparement de la préhension.
La situation de l’objet dans l’espace : devant ou derrière, au-dessus
Positionnels ou au-dessous du présentateur, position spatiale dans le message,
etc.
Le traitement de l’objet : singulier ou pluriel, centrage ou
Objets décentrage du regard, présence intégrale ou en partie, opposition
net ou flou (contraste ou immersion par rapport au fond).

On notera que l’interprétation sémiologique des codes est difficile car, très souvent, il n’existe pas
de code stable : c’est le contexte qui donne du sens au code, dimension qui échappe au périmètre de
\/|
l’analyse sémiologique.
$|
– Dans la fonction de communication, la personne ou l’objet qui communique est qualifié
d’« énonciateur » (émetteur ou destinateur) ; celui qui reçoit le message est l’« énonciataire »
4$

(récepteur ou destinataire). Il existe un grand nombre d’énonciations différentes pour communiquer


un même énoncé : les formes dépendent des relations entre les acteurs (hiérarchie, degré de
By

proximité, parenté, intimité), du caractère des acteurs, etc.

Exemple
Les journaux féminins destinés aux adolescentes utilisent une énonciation plus directe,
impérative ou affirmative (« Dis-lui que tu l’aimes », « Je pars à l’étranger »), alors
que les journaux féminins haut de gamme vouvoient leurs lectrices, posent plus de
questions, suggèrent des actions (« Êtes-vous amoureuse ? », « Savoir se préparer à
partir »). À l’inverse, des énoncés en apparence voisins peuvent avoir des
significations divergentes : un haussement d’épaule, un ton de voix particulier
accompagnant une affirmation traduisent le détachement ou l’émotion, le doute ou la
certitude, etc.

Une communication fait appel, selon Jakobson, à cinq types de fonctions :


– expressive : c’est la relation émotive entre le message et la nature de son énonciation ; elle
privilégie l’expression de l’émetteur : le ton, les interjections, le choix des mots. C’est la
dimension subjective du discours ;
– impressive : elle vise à obtenir un certain comportement du destinataire du message, par
apostrophe, injonction, prise à partie, etc. ;
– phatique : elle correspond aux modalités d’établissement, de prolongation ou de rupture d’un
contact selon le canal d’émission utilisé. Par exemple, le « allô » téléphonique indique une
disponibilité d’écoute ;
– poétique : elle représente l’esthétique du message, en tant qu’objet de contemplation, qui vise à
séduire le récepteur ;
– métalinguistique : c’est un test de compréhension entre émetteur et récepteur lorsqu’un partenaire
vérifie si les deux partenaires utilisent bien le même code, par exemple : « Vous voyez ce que je
veux dire ? ».

B. Perspective adoptée par l’étude sémiotique


La sémiotique travaille sur les constructions (schémas, modèles) d’une réalité que les individus se
donnent. Ces constructions sont des représentations que nous bâtissons pour interpréter notre
environnement, à partir des connaissances et expériences personnelles. Il n’y aurait plus alors une
seule représentation d’une réalité objective (monde réel), mais plusieurs, différentes selon les
individus. Ainsi, nous construisons une image (représentation) de l’émetteur réel (par exemple, un
\/|
annonceur dans une publicité) à partir de l’analyse des signes présents dans le message, sachant que
l’émetteur réel s’est lui-même construit sa propre image du récepteur, par exemple à partir d’études
$|
de marché antérieures. Ces images s’organisent pour créer une vision personnelle (monde construit)
4$

de l’environnement, interprétable pour le sémioticien à partir du seul « texte ».


L’analyse sémiotique recherche la signification des objets, indépendamment des lectures
By

psychologiques, sociologiques ou physiques, celles-ci intervenant éventuellement en second lieu.


Par exemple, dans l’analyse d’une publicité, le sémioticien vérifie que le créatif exprime
correctement la fonction « signifiant/signifié » : le système de signes inscrit dans le message (mots
et images signifiants) doit transmettre clairement le sens souhaité (le signifié), sachant que seuls
quelques traits pertinents sont à l’origine du sens. L’analyse met au jour les règles de
fonctionnement du sens et ses points de passage, tout en repérant les agencements qui le favorisent.
À la différence des analyses psychologiques focalisées sur le récepteur du message, la sémiotique
accorde une prééminence à l’émetteur.
Il faut souligner que ces choix théoriques limitent l’apport de la sémiotique à la compréhension de
la construction d’un sens « objectif » tel qu’il résulte des présupposés des différentes écoles de
pensée. En considérant que le sens effectivement construit par la cible marketing (c’est-à-dire le
récepteur réel) et les perceptions résultantes sont hors sujet, l’apport offert par les études
sémiotiques au marketing se restreint sensiblement. Le flash-étude 7.6 illustre à la fois l’intérêt et
les limites de la sémiologie appliquée à la création publicitaire.
Figure 7.16. Perspective de la description sémiotique

Source : adapté de FOUQUIER E., « Les effets du sémiologue », Diogène, no 127, 1984, p. 138.

\/|
$|
4$
By
Flash-Étude 7.6.
La démarche de la sémiologie publicitaire
La mission du sémiologue de l’image
« L’approche est méticuleuse et ascétique. Elle est une tentative de localisation de ce qui dans
l’image fait fonctionner le sens, une recherche d’imputation, avec ce que ce vocable peut tracter
de rectitude dans la démarche, de stricte précision et de discernement : c’est donc ouvrir une
école de responsabilité, car imputer implique rendre responsable de. C’est un peu le côté
détective, excitant, du rôle : découvrir et faire admettre qu’un détail sans importance apparente
peut peser de manière décisive sur la signification. La perspicacité joue lorsque vous êtes en
présence de deux images quasi semblables, quasi homonymiques, et pourtant sémantiquement
distinctes. C’est pourquoi la sémiologie de l’image donne volontiers l’impression d’une
recherche byzantine, atomistique ; elle décompose toujours les choses en éléments plus petits,
comme si le sens se réfugiait dans l’infime. Il est vrai que la recherche du trait pertinent peut
conduire à des analyses, que l’on dira indifféremment d’une grande finesse ou d’une
sophistication exagérée. Mais l’intelligence et la valeur de l’analyse sont à ce prix [...] »

Le sémiologue et la création publicitaire \/|


« De même que la linguistique n’est pas prescriptive, de même la sémiologie n’est pas
$|
normative. Elle ne dicte pas de règles de création. Simplement, plus le degré de conscience d’un
4$

créateur à l’égard de ce qu’il fait grandit, plus sa lucidité s’accroît, plus sa maîtrise du signe
publicitaire peut s’affirmer, plus sa conscience de la responsabilité des signes peut se
By

développer. En fait, la véritable interrogation consiste à se demander si elle restitue bien, ou


mieux que d’autres approches, l’intelligence d’une création, et si, par conséquent, les créateurs
peuvent se sentir de connivence. Or, à leur égard, elle garantit deux ou trois choses, mais
essentielles : tout d’abord elle prend en charge l’image dans son intégrité, sans les déformations,
appauvrissements, incompréhensions, oblitérations auxquelles elle est sujette quand elle a
pénétré la conscience des destinataires. Elle conserve donc, vis-à-vis de l’analyste, un statut
d’objet scientifique indiscutable, ce qui n’est plus le cas lorsqu’elle est appréciée sur le
souvenir que l’on garde d’elle. En second lieu, son appréciation n’est pas grevée de critères
étrangers à la considération intrinsèque de l’image : la crédibilité, l’intérêt, le plaisir,
l’incitation à acheter, qui relèvent d’une psychologie de la réception, non d’une sémiologie de la
création [...] »
Source : PÉNINOU G., Intelligence de la publicité, éditions R. Laffont, 1972, pp. 21-22.

C. Techniques d’interprétation
Les préoccupations diffèrent selon les courants théoriques. Pour le structuralisme, la recherche des
composants d’un signe et des lois qui les gouvernent est une priorité ; tout signe se décompose en
catégories qui s’opposent les unes aux autres, tout en formant un système global. Pour le courant
nord-américain, les signes sont étudiés sur la base d’une typologie fondée sur les relations entre le
signe et son objet de référence. Cependant, dans les deux cas, l’analyse sémiotique comporte trois
étapes(255).
1 – Observation : recueil et transcription de l’ensemble des signes qui sont suggérés par l’énoncé,
le texte ou le discours, objets de l’analyse.
2 – Description et sélection : sélection des signes qui apparaissent saillants pour la génération du
sens et recherche des oppositions et schématisations.
3 – Généralisation : repérage des significations qui seront vraisemblablement perçues par d’autres
que soi.
Bon nombre de schémas et de techniques d’interprétation sémiotique existent. Nous limitons notre
présentation aux principaux instruments applicables pour une étude de marché.

1. Carré sémiotique
C’est une grille de structuration du sens produit par un texte. Elle met au jour les structures
fondamentales qui sont à l’origine du sens, en travaillant sur les deux faces du signe : l’expression
(signifiant) et le contenu (signifié). Le résultat s’illustre par un carré sémiotique. Sa construction
nécessite de repérer dans le texte à analyser l’axe sémantique fondamental, appelé catégorie(256). La
fiche technique 7.5. détaille cette technique. Le carré explore les processus d’émission et de
réception d’un texte : discours, publicité, packaging, modalité de consommation d’un produit, etc. Il
\/|
détecte l’existence d’éventuels signaux négatifs (incohérents) ou positifs dans le message.
$|
4$

Fiche technique 7.5. Le carré sémiotique


By

1 – Fondements théoriques
Le carré sémiotique se fonde sur le Cours de linguistique générale de Saussure. La langue est vue comme un
langage doté de propriétés particulières, le langage permettant à l’homme de signifier sa pensée au moyen d’un
ensemble de conventions. Différentialité et systématicité, système de signes plus ou moins arbitraire, caractère
double face des signes sont les propriétés communes à tout langage(257). Le carré sémiotique illustre un double
axiome de base : « Dans une langue, il n’y a que des différences sans termes positifs, et les deux faces d’un signe
se complètent, l’une ne valant que par l’autre. » Le schéma initial a été proposé par Greimas en 1968.
2 – Principes de construction
Le carré se construit en quatre temps. Les deux premiers établissent une double opération de négation et
d’assertion, à partir d’un concept considéré comme fondamental pour la production du sens dans un texte. Par
exemple, si Pierre affirme : « Avoir beaucoup d’argent, c’est bien » (S1), Jacques peut nier ce jugement en
répliquant : « Je ne suis pas d’accord, ce n’est pas bien » ({S1}). Comment interpréter cette réplique ? Elle
présuppose que Jacques considère que « C’est mal d’avoir beaucoup d’argent » (S2) : cette seconde opération
d’assertion conduit à identifier le complément de « Pas bien ». Nous avons représenté ces deux temps dans le
carré de gauche ci-après. De façon symétrique, Pierre peut rétorquer : « Mais non, ce n’est pas mal d’avoir
beaucoup d’argent » ({S2}) ; c’est à nouveau une opération de négation (3e temps). On peut en déduire l’assertion
qu’effectivement Pierre considère que c’est bien d’avoir beaucoup d’argent (4e temps) (S1). Cette relation
complémentaire (« Pas mal » et « Bien ») n’est pas automatique : Pierre peut souhaiter nuancer son jugement
initial, en laissant entendre que, si ce n’est pas mal, cela ne veut pas dire pour lui que c’est forcément bien d’avoir
beaucoup d’argent. Dans le cas où l’analyste opère cette équivalence (complément entre « Pas mal » et « Bien »),
il établit une opération d’assertion. Dans le carré sémiotique, la compréhension du sens de l’axe sémantique
(formé des deux termes contraires « Bien vs Mal ») ne s’obtient que par une double opération de contradiction,
puis d’assertion.
3 – Exemple d’application
Floch a appliqué le carré sémiotique à bon nombre d’études marketing. Il compare ainsi les discours d’Ikea et
d’Habitat pour comprendre le sens du mobilier d’ameublement(258). L’observation met au jour un axe sémantique
majeur articulé sur le concept de « valeur de base » vs « valeur d’usage ». La valeur de base est la finalité
recherchée (par exemple, cueillir une banane pour le singe), la valeur d’usage étant un moyen d’obtenir la valeur
de base (par exemple, le bâton utilisé par le singe pour faire tomber la banane). La valorisation pratique du
meuble (solidité, confort, légèreté) s’oppose à sa valorisation existentielle ou utopique (style de vie, attitude par
rapport au temps et à la tradition) : on obtient les deux contraires S1 et S2 du carré. Les opérations de
contradiction de ces termes donnent une valeur ludique ({S1} = couleur, luxe, raffinement, etc.) et valeur critique
({S2} = économique, astucieux, etc.).
L’analyse montre que chacun des quatre pôles du carré correspond à un âge différent de la vie ; chaque phase
entraîne une modification des valeurs associées aux biens. Le démarrage dans la vie privilégie la valorisation
critique (« tirer parti d’une surface d’habitation réduite »), puis l’éducation des enfants rend prioritaire la
valorisation pratique (« un mobilier qui saura évoluer avec vos enfants »), suivie d’une phase de maturité et
d’aisance où le couple reçoit, se récompense de ses efforts avec une valorisation ludique (« le plaisir de la mise en
scène ») ; arrive le temps de l’art de vivre, avec ces questions existentielles (« un univers à votre mesure, à votre
convenance »). Le positionnement d’Habitat couvre les deux derniers angles du carré, IKEA étant installé sur les
deux premiers.

\/|
$|
4$
By

Source : adapté de FLOCH J.-M., Identités visuelles, op. cit., 1995, p. 155.
\/|
$|
4$

2. Mapping sémiotique
By

Cette représentation complète le carré sémiotique(259). On applique d’abord cet outil à un grand
nombre de publicités concernant des marques et produits différents. Quatre valeurs émergent
régulièrement : elles sont jugées représentatives des orientations profondes de la consommation.
L’axe vertical décrit les deux termes de l’opposition principale du carré sémiotique : la
valorisation pratique, centrée sur les fonctions instrumentales du produit (performances, esthétique,
etc.) et la valorisation utopique (existentielle), orientée vers le projet à long terme de l’acheteur
(acquérir plus de liberté ou de pouvoir, etc.). L’axe horizontal donne les qualifications des termes
de l’opposition : la valorisation critique définit les questionnements (comparaison, évaluation
systématique de marques, optimisation, etc.) et la valorisation ludique traduit la complicité avec
l’objet, fondée sur la recherche du plaisir. Les marques sont placées dans chaque quadrant à partir
d’une analyse sémiotique de leur discours publicitaire, en fonction de leur proximité avec les
différentes formes de valorisation.
Exemple
La figure 7.17. montre une application du mapping sémiotique au marché des
dentifrices. Les principales marques se positionnent dans l’un des quatre quadrants du
mapping et occupent ainsi un espace concurrentiel bien délimité. Les bénéfices offerts
par les marques aux consommateurs sont ainsi nettement différenciés.
Figure 7.17. Mapping sémiotique du marché des dentifrices

\/|
$|
4$

Source : SEMPRINI A., Le marketing de la marque, approche sémiotique, Éditions Liaisons, 1992.
By

3. Parcours génératif de sens


Pour Greimas, la production du sens se fait par génération et narration. Ce processus reconstitue la
manière dont la signification d’un énoncé se construit et s’enrichit progressivement au cours
d’étapes successives.
– La génération du sens comporte trois niveaux. Elle s’oriente du plus simple (le niveau profond)
au plus complexe (le niveau de surface), du plus abstrait au plus concret, jusqu’aux signes qui en
assurent une manifestation verbale ou non verbale. Contrairement à l’approche motivationiste (voir
chapitre 4), pour le sémiologue c’est la partie visible, le superficiel qui est le niveau le plus
complexe à interpréter : la remontée vers la surface du signe (sa manifestation) enrichit la
signification. La figure 7.18. récapitule ces trois niveaux du parcours du sens.
Figure 7.18. Parcours génératif de sens

\/|
$|

Exemple
4$

Cette approche a été appliquée à la conception du packaging de riz et de


By

shampooing(260). Quatre groupes de valeurs de base (niveau axiologique) ont été


identifiés à partir d’un carré sémiotique : existentielle (écologie, humanisme, etc.), non
existentielle (économie, garantie, sécurité), utilitaire (efficacité, commodité) et non
utilitaire (plaisir, beauté, goût, etc.). La structure narrative renvoie aux logiques de
fonctionnement (rôles et fonctions du packaging) et aux univers sollicités (magasin,
transport, domicile). Le niveau de surface (manifestation) correspond aux discours sur
les formes, les matériaux, les modalités de consommation du produit.

– La narration s’organise à partir d’un schéma narratif. Inspiré de la morphologie des contes(261),
ce schéma s’articule autour d’un axe central : la performance attendue du héros. À l’instar des
contes, on présuppose qu’un contrat initial a été accepté par le héros (épreuve, défi, quête d’un
objet symbolique, etc.). Le sujet devra acquérir ou s’appuyer sur des compétences spécifiques
(courage, ruse, force, etc.) pour tenter de réaliser le programme souscrit. La sanction résulte de la
comparaison entre le contrat préalable et le résultat : en cas de réussite, la récompense est au
rendez-vous (amour, mariage, pouvoir, fortune, etc.).
Exemples
• Ce schéma a été appliqué pour la conception du logo bancaire du Crédit du Nord(262).
Les différents signes émis par les logos concurrents s’ajustent bien au découpage en
quatre temps du schéma narratif : la mission ou le contrat (solidarité, humanisme,
charité, développement, conseil, etc.), les compétences revendiquées (ambition,
proximité, bon sens, écoute), la performance (gain, sécurité, tranquillité, interactif,
innovation, etc.) et la sanction (fierté, modestie, discrétion, etc.).
• Une autre application a été proposée pour l’interprétation des courriers et e-mails
envoyés par les enfants au Père Noël(263). Le contrat passé est la visite avec les
cadeaux. L’enfant lance dans sa lettre un programme d’action précis visant à faire agir
le Père Noël, en utilisant des stratégies d’influence : persuasion, injonction ou
promesse. L’acquisition de la compétence passe la capacité du Père Noël à disposer
d’un moyen de transport fiable et d’une logistique capable de gérer la surcharge
exceptionnelle de travail ; l’enfant se soucie également de la santé du Père Noël et de
sa capacité à pouvoir travailler de nuit. La réalisation de la performance a lieu durant
la nuit de Noël ; elle se concrétise par le dépôt des cadeaux en temps et en heure, sans
erreur ; les traces du passage sont évoquées, sinon attendues. La sanction finale vient
du jugement de l’enfant, à savoir la satisfaction des attentes formulées dans la lettre ;
\/|
néanmoins, le Père Noël peut moduler délibérément sa réponse en fonction du
$|
jugement personnel qu’il porte sur l’enfant.
4$
By

D. Applications dans le domaine des études de marché


La sémiotique est utilisée depuis une vingtaine d’années comme technique d’étude de marché. Elle
offre des solutions à de nombreuses interrogations marketing.

1. Stratégie marketing
a. Veille stratégique
L’étude de l’évolution des rapports d’activité publiés par les sociétés, sur une période de dix ans, a
été réalisée à partir d’une analyse sémiotique. Le repérage des ruptures énonciatives des discours
des dirigeants (éditorial, synthèse d’activité) a révélé des changements de cap stratégique et a
permis, selon les auteurs, d’anticiper les performances ultérieures des entreprises(264).

b. Segmentation et positionnement
L’analyse du positionnement de marques de jeans, parfums, dentifrices ou d’eaux minérales est
explicable par la sémiologie ; de même, cette technique a servi à comparer les positionnements
concurrentiels d’IKEA et d’Habitat(265).

2. Élaboration du marketing-mix
a. Conception produit
La régie Métrobus de la RATP a conçu de nouvelles formes de supports publicitaires, à partir de
l’analyse sémiotique des différents types de déplacements dans le métro(266). La réflexion
sémiotique permet d’évaluer le design d’un produit, de concevoir un packaging adapté aux attentes
des consommateurs ou d’agencer un hypermarché(267). La sémiotique joue un rôle central dans la
construction du « contrat de lecture » qui s’établit entre un titre de presse et son lectorat. La fiche
technique 7.6. développe cet exemple dans le cas des supports de presse féminine.
b. Publicité et logos
La sémiologie a été appliquée, dès les années 1970, à l’évaluation de la création publicitaire(268) ;
de même, les logos d’Apple et IBM ont été comparés pour repérer leurs oppositions et
complémentarités(269).

\/|
$|
4$
By
Fiche technique 7.6. Le contrat de lecture pour positionner un support presse
1 – Objectifs et définition
Le contrat de lecture est « le discours du support d’un côté, ses lecteurs de l’autre. Ce sont les deux parties entre
lesquelles se noue un lien de lecture »(270). Le succès d’un support de la presse écrite se mesure à sa capacité de
proposer un contrat qui s’articule correctement aux attentes, aux motivations, aux intérêts, aux contenus de
l’imaginaire de la cible visée ; de le faire évoluer de façon à suivre l’évolution socioculturelle du lectorat tout en
préservant le lien ; de le modifier de manière cohérente, si la situation concurrentielle l’exige.
2 – Méthode
Elle se fonde sur l’analyse des formes d’énonciation utilisées par les différents supports. Ces énonciations
traduisent les spécificités des contrats existant sur le marché. Deux questions résument la démarche : « Qu’est-
ce qui est lu ? » et « Comment est-ce lu ? ». La méthode repose sur deux séquences : une analyse sémiologique des
discours tenus par un échantillon de supports de presse et une série d’entretiens individuels semi-directifs.
L’étude des différents modes d’énonciation utilisés permet de construire une image de l’émetteur (le support) et
du récepteur (le lecteur) : le lien particulier qui s’établit entre ces différents acteurs caractérise le contrat de
lecture. L’analyse sémiologique s’étend aux différentes couvertures, au pourcentage de la surface d’une page
consacrée au rédactionnel et à l’image, à la présentation du sommaire, au mode de classement, aux intertitres,
aux procédures d’accroche, aux types de parcours proposés au lecteur, à la construction des images, etc. Le
résultat définit un espace concurrentiel où l’on situe chaque sup port. Les entretiens semi-directifs vérifient
l’adéquation entre le contrat de lecture proposé par le support et les attentes des lectorats actuel et potentiel.
3 – Application
L’analyse de quelques titres d’articles de la presse féminine montre que les modes d’énonciation et les énoncés
\/|
sont très différents, alors même que les cibles sont souvent proches en termes de variables
sociodémographiques (âge, habitat, PCS, revenus).
$|
Considérons, par exemple, les quatre titres suivants : « Nos secrets pour une fête réussie », « Vous êtes douée
4$

pour cela : faites-le », « Quatre façons d’offrir un verre », « Dis-lui que tu l’aimes ».
Dans le premier cas, la proposition énoncée (= le message) montre que les deux acteurs ne sont pas égaux dans
By

la communication : l’énonciateur est actif, il conseille une action à un énonciataire passif. Dans le second exemple,
les deux acteurs sont situés sur un même plan, car l’énoncé est considéré comme vrai par les deux parties ; le
conseil existe, mais il se fonde sur une logique présupposée : l’émetteur sait ce qui est profitable et implique le
récepteur dans l’action. Le troisième titre contient un énoncé neutre, avec une énonciation relativement neutre :
l’émetteur constate objectivement, énumère quatre manières d’agir, sans s’impliquer particulièrement dans l’une
d’entre elles. Avec l’énoncé no 4, l’énonciateur prend à partie le récepteur, mais s’efface derrière un individu
extérieur (le copain « X ») ; l’impératif existe, mais il suggère une proximité et un encouragement à un dialogue
intime (tutoiement) dans lequel l’émetteur n’est pas présent.

E. Évaluation
Les techniques sémiotiques interviennent dans le domaine de l’étude qualitative, soit de manière
autonome, soit en complément des méthodes d’entretien individuel ou de groupe, la majeure partie
des applications entrant dans ce deuxième cas. Le champ d’investigation s’est progressivement
déplacé de l’analyse d’une communication (Quelle énonciation ? Comment fonctionne un
message ?) vers une problématique de la signification (Quel est l’énoncé ? Qu’est-ce qui fait
sens ?). Cet élargissement permet d’aborder des questions propres au marketing stratégique
(positionnement) avec des méthodes originales.
La faiblesse de ces techniques, au-delà de leur caractère parfois jargonnant, réside dans
l’établissement de leur fiabilité et de leur validité. Les étapes méthodologiques sont souvent peu
explicitées et la question de la reproductivité des résultats reste dans l’ombre(271). Les applications
marketing sont questionnables si les signes porteurs de sens varient d’un sémioticien à l’autre, ou
changent radicalement si un concurrent ne respecte plus les codes : la sémiotique se réduit à une
dimension descriptive, mais peut plus difficilement être explicative du sens. Cette difficulté de
reproduction des résultats est une sévère limite pour la sémiotique. Enfin, l’universalité des
typologies de consommateurs fondées sur le carré ou le mapping sémiotique pose un problème : il
n’est pas facile d’admettre que, quel que soit le marché, les mêmes dimensions apparaissent. Ainsi,
la validation d’une typologie issue d’un carré sémiotique n’a pas été concluante, car les cinq
groupes identifiés n’ont pas été retrouvés par une méthode typologique classique(272).
L’approche sémiotique doit être réservée à un objectif d’étude exploratoire. Son éclairage original
\/|
doit être complété par les méthodes qualitatives traditionnelles ou par des techniques qui font
$|
interpréter le sens par le répondant.
4$

Conclusion
By

Ce chapitre clôt la partie consacrée aux techniques d’études qualitatives. Nous avons
successivement passé en revue la quasi-totalité des méthodes qualitatives traditionnelles et
spécifiques. Nous avons montré l’apport original – parfois déroutant – des techniques de recherche
de sens dans la compréhension du processus de consommation d’un produit ou d’un service. La
richesse de cet éclairage offre au chargé d’études de nouvelles perspectives pour expliquer le choix
d’une marque à partir de la compréhension du sens de la consommation. Les décisions marketing
sont également facilitées par ces apports d’informations. Nous avons au passage souligné les
précautions qu’il convenait d’observer dans l’utilisation des résultats, sous peine de cruelles
déconvenues.
Les chapitres suivants aborde la phase de quantification des phénomènes observés. Les calculs
nécessaires ne doivent pas perdre de vue que la quantification n’a d’intérêt que si elle repose sur
une compréhension correcte du marché, généralement obtenue après une réflexion de nature
qualitative.
Test de connaissance
(Cochez une seule réponse par question.)
Q1. En tant que composante d’un signe, le signifié représente :
(1) l’expression matérielle du signe
(2) l’essence conceptuelle du signe
(3) la valeur objective du signe
Q2. En sémiotique, le texte est limité au seul :
(1) contenu intrinsèque d’un message
(2) contenu explicite d’un discours ou récit
(3) système d’expression (linguistique, iconique, gestuel, etc.)
Q3. Appliqué à l’étude de marché, l’objectif prioritaire du TAT est de permettre :
(1) la mise en évidence des freins et motivations d’achat des consommateurs
(2) la connaissance de la personnalité des acheteurs
\/|
(3) la suggestion d’idées de nouveaux produits
$|
4$

Q4. L’administration de la liste d’achats se fait en demandant aux consommateurs :


(1) d’imaginer une liste d’achats exceptionnels
By

(2) de penser à leurs achats habituels et de se décrire durant cette activité


(3) de décrire la personne qui pourrait acheter une liste spécifique d’achats
Q5. La méthode de citation directe fait appel au principe :
(1) de l’association des mots
(2) d’analogie imaginaire
(3) de jeux de rôle
Réponses : voir annexes téléchargeables sur www.vuibert.fr

Bibliographie
ANDERSON J. C., « The validity of Haire’s shopping list, projective technique », Journal of
Marketing Research, vol. 15, novembre 1978, pp. 644-649.
ANDREANI J. C., « L’interview qualitative marketing », Revue française du marketing, nos 168/169,
1998, 3-4, pp. 7-37.
ANZIEU D. et CHABERT C., Les méthodes projectives, PUF, coll. « Le Psychologue », 9e éd., 1992.
COURTÈS J., Analyse sémiotique du discours. De l’énoncé à l’énonciation, Hachette, 1991.
EIDOS (coll.), L’image réfléchie : sémiotique et marketing, L’Harmattan, 1998.
FLOCH J.-M., Sémiotique, marketing et communication : sous les signes, les stratégies, PUF, 1990.
FLOCH J.-M., Identités visuelles, PUF, 1995.
FRAENKEL B. et LEGRIS-DESPORTES C., Entreprise et sémiologie, Dunod, 1999.
HAIRE M., « Projective techniques in marketing research », Journal of Marketing, vol. 14, avril
1950, pp. 649-656.
HEISLEY D. et LEVY S., « Autodriving : a photo-elicitation technique », Journal of Consumer
Research, décembre 1991, pp. 257-272.
HOLBROOK M. et KUWAHARA T., « Collective stereographic photo essay : an integrated approach to
probing consumption experiences in depth », International Journal of Research in Marketing, 15,
1998, pp. 201-221.
KIRCHLER E. et DE ROSA A., « Analyse de l’effet des messages publicitaires grâce au réseau
d’associations », Recherche et Applications en marketing, vol. 13, no 1/1998, pp. 35-49.
PASQUIER M., Marketing et sémiotique, université de Fribourg, 1999.
PÉNINOU G., Intelligence de la publicité, éd. R. Laffont, 1972.
\/|
ROBERTSON D. et JOSELYN R., « Projective techniques in Research », Journal of Advertising
$|
Research, octobre 1974, pp. 27-31.
4$

SEMPRINI A., Le marketing de la marque, approche sémiotique, Éd. Liaisons, 1992.


VERNETTE E., FILSER M. et GIANNELLONI J. L., Études marketing appliquées, Dunod, chapitre 3,
By

2008.
ZALTMAN G., Dans la tête du client, Éditions d’Organisation, Paris, 2004.
Troisième partie

Approche quantitative
La troisième partie de l’ouvrage adopte une vision quantitative pour présenter le terrain d’une étude
de marché : nous ferons le tour d’horizon des méthodes de collecte et d’analyse à disposition du
chargé d’études. Elles sont nombreuses et parfois complexes. Notre objectif n’est pas de toutes les
présenter de manière exhaustive, mais d’aider à comprendre leur logique et d’illustrer leur
fonctionnement.
Nous verrons d’abord comment prélever un échantillon de répondants (chapitre 8). Nous listerons
ensuite les règles nécessaires à la construction d’un questionnaire (chapitre 9) et en détaillerons les
méthodes d’administration (chapitre 10).
Nous aborderons l’analyse des informations en commençant par les traitements les plus simples
(chapitre 11). Les chapitres suivants présenteront des analyses plus sophistiquées, telles que les
tests statistiques (chapitre 12), les mesures d’association et de dépendance (chapitre 13), les
\/|
méthodes d’analyse multivariée (chapitre 14) et, pour finir, les plans expérimentaux et leur
$|
exploitation ainsi qu’une introduction à la modélisation par équations structurelles (chapitre 15).
4$
By
By
4$
$|
\/|
Chapitre 8

Échantillonnage
Il n’est pas nécessaire de manger le bœuf entier pour savoir qu’il est coriace.
S. JOHNSON

Dans une étude quantitative nous nous intéressons à une certaine catégorie d’« objets » : individus,
marques, entreprises, produits, etc. Pouvons-nous nous contenter d’étudier une petite partie de ces
objets ? Devons-nous au contraire en étudier la totalité ? Sous quelles conditions l’étude d’une
partie des objets donnera-t-elle une information qui permettra une conclusion relative à la totalité ?
Une étude quantitative se réfère toujours à une population. En statistiques, ce terme désigne
l’ensemble des objets susceptibles de détenir une information intéressante au regard des objectifs
\/|
de l’étude. La « géométrie » de la population étudiée est toujours circonscrite par une ou plusieurs
$|
caractéristiques.
4$

L’étude de tous les individus d’une population s’appelle un recensement. Pour des raisons de coût
et de délai, le recensement est pratiquement impossible dans les études marketing.
By

Dès lors, la troisième question ci-dessus (Sous quelles conditions...) devient essentielle. Y
répondre positivement implique que la sélection de la « petite partie », que l’on appelle
« échantillon », soit faite de manière très rigoureuse. En effet, toute décision prise en matière
d’échantillonnage a un impact majeur sur la validité des conclusions et sur le coût financier de
l’étude.
La préparation de l’échantillonnage et la sélection de l’échantillon feront l’objet des deux
premières parties. Les calculs de taille d’échantillon clôtureront le chapitre.
Figure 8.1. Plan de chapitre

\/|
$|
4$
By

I. Préparation de l’échantillonnage
La nature de la population à interroger découle directement de l’objectif de l’étude. Au stade de
l’échantillonnage, elle doit par conséquent être connue. Autrement dit, le périmètre de la population
doit pouvoir être défini sur le modèle décrit dans l’introduction. Au plan technique, il est
nécessaire de distinguer la définition de ce périmètre et la détermination de la base de sondage
correspondante.

A. Définir la population à étudier


Les critères de définition de la population de référence seront présentés dans un premier temps. Les
conditions d’arbitrage entre recensement et échantillonnage feront l’objet d’un second paragraphe.

1. Critères de définition de la population de référence


La population de référence, ou population cible, peut être définie comme « l’ensemble des objets
possédant les informations désirées pour répondre aux objectifs d’une étude ».
Ces objets, ou éléments, sont souvent le répondant lui-même. Mais ce n’est pas toujours le cas.
Pour cette raison, on préfère parler d’unité d’échantillonnage. C’est un « objet, ou une entité
contenant un objet, qui fera l’objet d’une sélection pour figurer dans l’échantillon ».

Exemple
Supposons que le groupe Yves Rocher veuille tester l’idée d’une nouvelle crème
antirides. Les éléments de la population cible pourraient être les femmes âgées de
18 ans et plus, et constituer également les unités d’échantillonnage. Mais ces dernières
pourraient être les foyers, ce qui les distinguerait des éléments à interroger : dans
chaque foyer, on interrogerait toutes les femmes de 18 ans et plus.

À ces deux concepts d’élément et d’unité d’échantillonnage on adjoint très souvent un critère de
localisation et un critère temporel. La figure 8.2. présente quelques problématiques d’études et les
définitions des populations cibles qui peuvent leur correspondre.
Définir la population cible n’est pas toujours aussi simple qu’il y paraît. Le type d’élément à
prendre en compte pose souvent problème. Considérons une étude dont l’objectif serait d’évaluer
l’intérêt des consommateurs pour une eau de toilette masculine. Qui doit-on inclure dans la
\/|
population ? Tous les hommes ? Seulement ceux qui utilisent régulièrement de l’eau de toilette ? Les
hommes à partir de 15 ans, ou plus ? Doit-on inclure les femmes qui achètent souvent l’eau de
$|
toilette de leurs maris ou amis ? Répondre à ces questions nécessite une connaissance précise de la
4$

stratégie de segmentation et de positionnement de l’entreprise.


Pour limiter le risque de ne pas identifier les éléments possédant réellement les informations
By

cherchées, on pourrait être tenté de multiplier les critères de définition de la population. Cet
« excès de zèle » conduit à diminuer la taille de cette dernière. La portée des conclusions s’en
trouve forcément limitée et le coût d’accès à l’information augmente fortement(273). Nous
considérerons donc que ces quatre critères permettent d’approcher la définition de la population
cible la plus pertinente.
Figure 8.2. Exemples de définition d’une population cible

Problème
Réponse = population cible
posé
Unité Critère Critère
Exemples Élément
d’échantillonnage géographique temporel
Identifier les
forces et Membre du
faiblesses de foyer, homme ou
Résider dans
l’image d’un femme,
la zone depuis
hypermarché par responsable de Les foyers. Métropole lilloise.
au moins
rapport à ses la plupart des
un an.
principaux achats en
concurrents de hypermarché.
la zone.
Les femmes de
Tester le 15 ans et plus,
concept d’une déjà utilisatrices
Les foyers. France.
\/|
nouvelle crème ou non d’un
$|
antirides. produit
4$

similaire.
Évaluer l’intérêt
By

pour un
catalogue
Le(s)
d’articles de
responsable(s) Les entreprises de
linge de corps France.
des achats du 500 salariés et plus.
destinés aux
CE.
comités
d’entreprise
(CE).
La production
Tester la qualité du
Le produit Les usines d’une
de la Le produit fabriqué.
production.
fabriqué. zone donnée. 1er trimestre
2015.

2. Arbitrage entre recensement et échantillonnage


Parfois, un recensement est possible, et peut être préférable à l’utilisation d’un échantillon. La
figure 8.3. en compare les conditions de choix.
Figure 8.3. Arbitrage entre recensement et échantillonnage

Conditions favorisant
Caractéristiques de l’étude l’utilisation de
Échantillon Recensement
Budget Petit Grand
Temps disponible Court Long
Taille de la population Grande Petite
Variance des variables étudiées Petite Grande
Coût des erreurs d’échantillonnage Faible Élevé
Coût des erreurs d’observation Élevé Faible
Nature de la mesure Destructive Non destructive
Intérêt pour des situations individuelles Oui Non

Source : Traduit et adapté de MALHOTRA N. K. et BIRKS D. F., Marketing Research. An Applied Approach, 2e éd. européenne,
Prentice-Hall Financial Times, Harlow, 2006, p. 357.
\/|
Si la population est petite et facilement identifiable, il est préférable de faire un recensement. À cet
$|
égard, le chargé d’études doit arbitrer entre deux risques :
4$

– L’erreur d’échantillonnage : c’est le fait d’oublier une ou plusieurs observations importantes, qui
rendent l’échantillon non représentatif, comme le fait de ne pas prendre en compte Renault-Nissan
By

dans une étude sur l’industrie automobile française.


– L’erreur d’observation (non sampling error) : c’est, par opposition, toute erreur qui n’est pas due
à l’échantillonnage(274). Par exemple, ce peut être une erreur de réponse due à la mauvaise
formulation d’une question, ou une erreur de saisie, ou une non-réponse à une question trop
personnelle. L’erreur d’observation a un impact plus important sur les résultats lorsque l’on fait un
recensement puisque, par définition, un répondant ne peut pas être remplacé.

B. Déterminer la base de sondage


La base de sondage, ou cadre d’échantillonnage (en anglais sampling frame), est une représentation
concrète des éléments de la population cible. Il s’agit généralement d’une liste à partir de laquelle
la sélection des éléments va être opérée.
Très concrètement, cette base de sondage peut être l’annuaire téléphonique, un annuaire
d’entreprise, le plan d’une ville, un fichier loué à un FAI(275) ou un prestataire de service public
(ERDF, GDF-Suez, Orange, etc.) En l’absence d’une telle liste, on peut utiliser d’autres techniques,
telles que la reconstruction aléatoire des numéros de téléphone, qui permet de toucher,
éventuellement, les foyers sur liste rouge ou équipés trop récemment pour figurer dans l’annuaire.
Selon la nature de la base, l’unité d’échantillonnage peut être différente. C’est le nom, l’adresse
(postale ou électronique) ou le numéro de téléphone. Mais il faut ensuite distinguer l’unité
déclarante et, éventuellement, l’unité d’analyse.

Exemple
Dans une enquête sur la consommation des enfants, l’unité d’échantillonnage peut être
le ménage, l’unité déclarante l’un des parents, et l’unité d’analyse l’enfant ou les
enfants.

Une base de sondage doit être exhaustive et à jour : tous les éléments de la population visée
devraient y figurer. En pratique, c’est presque impossible et l’erreur de liste (coverage error ou
sampling frame error en anglais) est fréquente. Il s’agit d’un décalage entre la population visée et la
liste utilisée.

Exemple
Si l’on vise les femmes de 18 à 55 ans, l’annuaire téléphonique nous sera d’une piètre
\/|
utilité. L’échantillon constitué sur cette base inclura probablement des individus
$|
célibataires masculins et des retraités. Il n’inclura pas, en revanche, les foyers sur liste
4$

rouge et les foyers non abonnés au téléphone. On est ici dans un cas de figure où la
base de sondage est globalement plus large que la population visée.
By

Le cas de figure inverse peut également se produire : on aura alors une base de sondage plus étroite
que la population cible.

Exemple
Dans une enquête sur le comportement d’achat organisationnel, un annuaire
d’entreprises permettrait d’identifier le responsable des achats. Mais dans beaucoup
de grandes organisations les services ont une certaine autonomie d’achat. C’est le cas,
en particulier, dans les universités : entre les services centraux, les UFR, les
laboratoires et, parfois, les achats à titre individuel des personnels, on a autant de
micro-centres de décision non répertoriés.

Il n’y a malheureusement pas de recettes préétablies pour éliminer cette source d’erreur. Une
solution consiste à vérifier par un pré-test que les individus issus de la liste possèdent bien les
caractéristiques souhaitées et à réorienter la sélection dans le cas contraire.

II. Sélection de l’échantillon : choix d’une méthode de tirage


L’utilisation d’une base de sondage est liée à une famille de méthodes d’échantillonnage que l’on
nomme aléatoires, ou probabilistes. On peut également utiliser des méthodes dites empiriques, ou
non probabilistes. Les méthodes aléatoires sont fondées sur une sélection entièrement ou
partiellement au hasard des éléments figurant dans l’échantillon. Les méthodes empiriques reposent,
quant à elles, sur un choix orienté et plus ou moins construit des individus. La figure 8.4. (page
suivante) présente une classification schématique de ces méthodes.

A. Méthodes d’échantillonnage aléatoire


Un échantillon est dit aléatoire ou probabiliste « lorsque n’importe quel élément de la population
cible peut appartenir à l’échantillon, avec une probabilité identique connue à l’avance et constante
tout au long du tirage ». Cette notion est fondamentale. Elle fonde le concept d'indépendance des
observations en statistiques, tout aussi fondamental. Nous aborderons successivement
l’échantillonnage aléatoire simple, l’échantillonnage systématique, l’échantillonnage stratifié et,
enfin, l’échantillonnage en grappes.
Figure 8.4. Classification des méthodes d’échantillonnage

\/|
$|
4$
By

1. Échantillonnage aléatoire simple


Cette méthode est très facile à mettre en œuvre, à condition de pouvoir respecter la règle
d’équiprobabilité énoncée ci-dessus. Le meilleur moyen d’y parvenir est de baser entièrement le
tirage sur le hasard pur. Le principe consiste à disposer d’une liste exhaustive de la population,
numérotée de 1 à N.
Exemple
Le tirage du loto est caractéristique d’un tirage aléatoire simple. Chaque individu est
repéré par une boule dans une urne. On sélectionne les boules par une procédure en
aveugle. À une nuance près : le tirage se faisant sans remise, l’équiprobabilité de
sélection de tous les individus de la population n’est pas constante tout au long de la
procédure. Le premier numéro sélectionné avait une chance sur quarante-neuf de
l’être, le second une sur quarante-huit, etc.

L’équiprobabilité constante tout au long du tirage est un critère difficile à satisfaire, en particulier
lorsque l’élément sélectionné est un individu. Avec remise, certains pourraient être interrogés
plusieurs fois. Pour des raisons évidentes de fiabilité des réponses obtenues, ce n’est pas
souhaitable. Lorsque le ratio taille d’échantillon sur taille de population est très petit, le tirage avec
remise n’est pas un problème. L’équiprobabilité n’est pas respectée mais les différences entre
individus sont négligeables. Lorsque ce ratio devient relativement grand, des corrections doivent
être apportées (voir le guide statistique en ligne et le chapitre 12).
Pour procéder au tirage, deux méthodes sont utilisables : une table de nombres au hasard, ou une
procédure aléatoire informatisée. \/|
Une table de nombres au hasard est le fruit du travail de statisticiens qui ont « tiré au hasard » des
$|
milliers de nombres compris entre 0 et une limite supérieure donnée. Chaque table contient un
4$

certain nombre de lignes et de colonnes de nombres par paquets de 1 à 5 chiffres selon les tables.
On tire au hasard un point de départ dans la table, dont on retient les c premiers chiffres, c
correspondant au nombre de chiffres de la taille de population. On retient ensuite n paquets de c
By

chiffres en se déplaçant de gauche à droite et de haut en bas dans la table. La fiche technique 8.1.
illustre un exemple élémentaire de tirage aléatoire simple.
Fiche technique 8.1. Utilisation d’une table de nombres au hasard
On souhaite tirer au hasard un échantillon de cinq régions françaises parmi les 22 existantes (i.e. la population).
On dispose, bien entendu, de la liste exhaustive et nominative de ces régions, repérées chacune par un chiffre de
1 à N = 22 :
1 – Île-de-France
2 – Champagne-Ardenne
3 – Picardie
4 – Haute-Normandie
5 – Centre
6 – Basse-Normandie
7 – Bourgogne
8 – Nord-Pas-de-Calais
9 – Lorraine
10 – Alsace
11 – Franche-Comté
12 – Pays de la Loire
13 – Bretagne
14 – Poitou-Charentes \/|
15 – Aquitaine
$|
16 – Midi-Pyrénées
17 – Limousin
4$

18 – Rhône-Alpes
19 – Auvergne
By

20 – Languedoc-Roussillon
21 – Provence-Alpes-Côte d’Azur
22 – Corse
On prend ensuite un extrait d’une table des grands nombres (276) comprenant, par exemple, 6 lignes et 6
colonnes.
02 22 85 19 48 74
55 24 89 69 15 53
00 20 88 48 95 08
85 76 34 51 40 44
62 93 65 99 72 64
09 34 01 13 09 74
On tire au hasard, avec un dé, la colonne de départ : 3. Idem pour la ligne de départ : 2.
Le chiffre correspondant est 2. Comme c = 2, on va retenir le premier groupe de deux chiffres inférieur ou égal à
22, soit la région 15 (Aquitaine). Viennent ensuite, sur le même principe, les régions 20, 08, 09 et 01.

Le recours à l’informatique est sans doute plus commode. Les tableurs, systèmes de gestion de
bases de données ou logiciels de traitements statistiques possèdent tous une fonction random ou
alea, qui permet de générer des nombres au hasard. Le point de départ est identique : chaque
élément de la population est connu et repéré par un chiffre. Il suffit donc de fixer deux bornes,
normalement 1 et N, et de faire afficher une série de n chiffres compris entre 1 et N.
Il existe une alternative à l’échantillonnage aléatoire simple, nommée échantillonnage aléatoire à
plusieurs degrés. Elle peut se pratiquer lorsque l’on dispose de bases de sondages emboîtées.

Exemple
À l’échelle d’un département, on dispose d’une liste des communes. Si l’on dispose
également de la liste des bénéficiaires des minima sociaux, on pourra procéder à un
double tirage aléatoire : un échantillon de communes puis un échantillon de
bénéficiaires dans ces communes

Pour que cette approche soit valide, les unités de regroupement doivent être de taille comparable.
Elle permet alors une dispersion géographique moindre des répondants, donc une économie. Mais
elle induit un biais lié à l’hétérogénéité des unités de regroupement initiales. Cette hétérogénéité
oblige à une plus grande taille d’échantillon, à précision des résultats identique (voir le III dans ce
chapitre et le guide statistique en ligne).

2. Échantillonnage aléatoire systématique (systematic sampling)


\/|
$|
Cette méthode, plus simple à mettre en œuvre que la précédente, peut s’appliquer lorsque l’on ne
dispose pas de liste nominative de la population.
4$
By

Exemple
Sur les chaînes de production la population exacte n’est connue que rétrospectivement,
et ne peut être stockée que pendant un délai relativement court.

La procédure comporte trois étapes :


1 – Calcul d’un intervalle de sondage N/n, arrondi au nombre entier le plus proche, dont l’inverse
n/N est appelé taux de sondage.
2 – Tirage au hasard d’un nombre i entre 1 et N/n.
3 – Sélection systématique des individus i, i + N/n, i + 2N/n...
Établir un échantillon
On veut sélectionner un échantillon de 30 entreprises au sein d’une population de
1 800. L’intervalle de sondage est 1800/30, soit 60. On va ainsi sélectionner une
entreprise toutes les 60 (taux de sondage), en partant d’un chiffre tiré au hasard entre 1
et 60. Supposons que ce tirage ait donné le chiffre 15. L’échantillon sera composé des
15e, 75e, 135e entreprises, et ainsi de suite jusqu’à la 1 755e, ce qui donnera
l’échantillon de 30 souhaité.
Pour éviter tout « défaut » (biais) systématique de représentativité dans l’échantillon,
il est nécessaire que les individus de la population soient, si possible, listés
indépendamment du critère étudié. En effet, les listes sont, dans la plupart des cas,
constituées selon un certain ordre. Assez souvent, c’est l’ordre alphabétique et il y a
peu de chances pour que la caractéristique étudiée soit liée à ce rangement. Dans ce
cas, peu de problèmes se posent.
Si la liste est construite selon un ordre lié à la variable étudiée, il faut être très attentif,
car :
– L’effet peut être positif. Si des entreprises sont classées par ordre de chiffre
d’affaires décroissant, un tirage systématique produira un échantillon comprenant des
\/|
grosses, des moyennes et des petites entreprises. Un tirage aléatoire simple aurait pu,
$|
dans ce cas, ne donner que des petites entreprises.
4$

– L’effet peut être négatif. Tel est le cas, si la liste présente une saisonnalité marquée.
By

Exemple
Si, pour étudier les chiffres d’affaires mensuels du rayon jouets dans un hypermarché
sur les quinze dernières années, on prend 12 comme point de départ, le sondage
donnera systématiquement les mois de décembre, ce qui biaisera fortement les
résultats.

3. Échantillonnage aléatoire stratifié


L’échantillonnage stratifié (stratified sampling) s’obtient en deux étapes.

a. Réalisation d’une partition de la population


On divise cette dernière en groupes mutuellement exclusifs et collectivement exhaustifs. Un
individu appartenant à un groupe ne peut appartenir à aucun autre et tous les groupes réunis
permettent de reconstituer, sans omission, la population. Cette partition est réalisée au moyen d’une
ou de plusieurs variables, nommées variables de stratification. Ces variables peuvent être
objectives (sexe, âge pour des individus ; nombre d’employés pour des entreprises), ou plus ou
moins subjectives.
Exemple
Partitionner les régions françaises sur une variable « vocation touristique » conduirait
inévitablement à une part d’arbitraire, à moins de disposer d’une mesure
scientifiquement validée de cette variable.

On obtient alors k sous-populations, si k est le nombre de modalités de la variable de stratification.


Avec deux variables de stratification, avec respectivement k et p modalités, on aura k*p sous-
populations, et ainsi de suite. Avec une variable à deux modalités :
N = N1 + N2
Le choix des variables de stratification est fondé sur des critères d’homogénéité, d’hétérogénéité,
de pertinence et de coût :
– dans une strate homogène les individus se ressemblent le plus possible, sur le(s) critère(s)
retenu(s) ;
– d’une strate à l’autre, les individus doivent être très différents. C’est l’hétérogénéité ;
– pour être pertinente, une variable de stratification doit être liée à la variable étudiée. Si l’on
s’intéresse à la taille des individus, le sexe et l’âge satisfont les deux premiers critères. Pas si l’on
\/|
étudie les aptitudes intellectuelles ;
$|
– le coût de la stratification diminue si la variable choisie est facilement mesurable.
4$

b. Tirage aléatoire simple dans chacune des strates


By

Chacun des tirages, autant qu’il y a de strates, doit être réalisé indépendamment des autres. La taille
globale de l’échantillon est obtenue en sommant les tailles des sous-échantillons obtenus dans
chaque strate.
Le chargé d’études a deux possibilités en effectuant ce tirage :
– Échantillonnage stratifié proportionnel : chaque strate est proportionnelle à sa taille dans la
population. Dans ce cas :

Exemple
Prenons le cas où la variable de stratification est le sexe. On sait que la population
française, toutes classes d’âge confondues, est à 52 % féminine et à 48 % masculine.
Si on tire un échantillon de taille totale n = 100, on aura donc une strate féminine de
52 individus et une strate masculine de 48 individus.
– Échantillonnage stratifié non proportionnel : la taille des strates dans l’échantillon ne respecte
plus la stricte proportionnalité par rapport à leur taille dans la population. On ajoute un critère
supplémentaire, relatif à la variabilité du phénomène étudié dans chaque strate de la population.
Plus cette variabilité est élevée, plus la strate sera surreprésentée, et inversement. En effet, dans le
cas extrême où tous les individus d’une même strate sont strictement identiques, la variabilité est
nulle et un seul individu suffit à apporter toute l’information recherchée. Donc peu importe la taille
de cette strate dans la population, elle sera, dans l’échantillon, de taille nh = 1. Mais, si la
variabilité est très forte dans la population, on aura besoin dans l’échantillon de beaucoup
d’observations de cette strate pour « stabiliser » la moyenne à un niveau proche de ce qu’elle est
dans la population. Automatiquement, cette strate sera surreprésentée dans l’échantillon. Si l’on
raisonne en praticien, on objectera que la variabilité, dans la population, du phénomène étudié
(intention de comportement, chiffre d’affaires, etc.) peut difficilement être connue à l’avance. En
effet, c’est justement ce que l’on cherche à étudier, et qui motive la construction d’un échantillon !
Les statisticiens n’ont pas de réponse très claire à apporter à cette objection. L’expérience, la
logique et, surtout, l’intuition du chargé d’études seront alors d’un grand secours.

4. Échantillonnage aléatoire en grappes


L’échantillonnage en grappes (cluster sampling) se réalise en trois étapes(277) :
– découpage de la population en grappes mutuellement exclusives et collectivement exhaustives,
\/|
selon un critère déterminé à l’avance(278) ;
$|
– tirage aléatoire simple d’un échantillon de grappes ;
4$

– recensement dans chacune des grappes retenues.


Cette méthode est moins contraignante que l’échantillonnage stratifié. En effet, elle s’utilise
By

lorsqu’il est difficile d’obtenir une liste exhaustive de la population étudiée.

Exemple
Les chewing-gums sont distribués par une grande variété de types de points de vente,
dont on ne peut avoir une liste fiable (vendeurs ambulants, ventes saisonnières, etc.).

Dans ce cas, on fractionne la population en groupes hétérogènes, sur un critère qui n’a aucun lien
avec la variable étudiée. Le plus souvent ce critère est géographique. Nous aurons donc un
ensemble de grappes qui satisferont bien au critère d’exclusivité mutuelle et d’exhaustivité
collective, mais qui seront cette fois interchangeables. Un point de vente, s’il appartient à une
grappe, ne peut pas appartenir à une autre, et la réunion des grappes (e.g. quartiers) donne bien la
population de départ (e.g. la ville). On part ainsi du principe que chaque grappe est une
reproduction miniature de la population étudiée. Si tel était le cas, une seule grappe suffirait. En
pratique, comme il y a toujours une certaine homogénéité au sein des grappes (quartiers « riches »
vs « pauvres » ; industriels vs tertiaires ; habitat collectif vs. individuel), on en sélectionne
plusieurs, par un tirage au hasard, pour limiter le risque d’obtenir des grappes trop spécifiques.
Quand un recensement au sein des grappes sélectionnées est impossible, on procède à un nouveau
tirage au hasard dans chacune des grappes. On parle alors d’échantillonnage par étapes.

Exemple
On étudie la consommation de vin par foyer dans une ville moyenne de province. On a
tiré au hasard 5 quartiers. Dans chaque quartier, on retient une rue sur 5, dans chaque
rue un immeuble sur 3 et, si besoin est (habitat vertical), dans chaque immeuble, un
foyer par étage. On a affaire ici à un sondage en 4 étapes.

L’échantillonnage en grappes, quelle que soit la variante retenue, a un avantage majeur : le coût.
Aucune liste exhaustive n’est réellement nécessaire et la sélection sur des critères géographiques
diminue les temps et les frais de déplacement. Mais cette méthode a également un inconvénient
majeur, appelé « effet de grappe » : l’échantillon est fortement biaisé si les zones géographiques
sont trop spécifiques par rapport au problème étudié.

Exemple \/|
Dans cette étude sur le vin, il ne serait pas neutre d’avoir retenu des quartiers
$|
essentiellement « populaires ». Les quantités, et la qualité, des vins consommés
4$

risquent d’y être différentes de celles des foyers habitant des zones plus résidentielles.
By

Lorsque l’on ne souhaite pas, ou que l’on ne peut pas, faire appel au hasard, des méthodes
d’échantillonnage empirique peuvent être utilisées.

B. Méthodes d’échantillonnage empirique


Quatre méthodes vont être présentées. Elles reposent sur l’absence de prise en compte du hasard,
au sens de la définition donnée ci-dessus. Ces méthodes diffèrent, en revanche, dans leur degré de
structuration (voir figure 8.4.) Elles sont présentées par ordre croissant de complexité :
échantillonnage de convenance, échantillonnage a priori, échantillonnage « boule de neige » et
échantillonnage par quotas.

1. Échantillonnage de convenance
On obtient un tel échantillon quand rien n’a été fait pour s’assurer que les individus qui le
composent posséderont bien certaines caractéristiques désirées. Un échantillon de convenance est
parfois nommé « échantillon accidentel », parce qu’il est constitué d’individus qui se trouvaient à
l’endroit et au moment où l’information a été collectée.
Exemples
– Questionnaires figurant dans les magazines et renvoyés spontanément.
– Enquêtes dans la rue, les lieux publics, en sortie de caisse d’hypermarché, si l’on ne
dispose d’aucune qualification a priori des interviewés.

Les échantillons de convenance ne sont représentatifs d’aucune population. On peut,


éventuellement, vérifier cette représentativité a posteriori. Mais il est risqué de généraliser à la
population des résultats obtenus sur un tel échantillon, même de grande taille. Le flash-étude 8.1.
montre que la représentativité d’un échantillon n’est pas liée à sa taille.

Flash-Étude 8.1.
Quelques illusions sur la représentativité des échantillons(279)
Une station de télévision de la ville de Madison, aux États-Unis, avait l’habitude de mener
auprès de son public une enquête d’opinion journalière sur des thèmes relatifs à la vie locale.
Tous les jours, au journal de 18 heures, l’animateur posait une question à laquelle les auditeurs
\/|
étaient invités à répondre par oui ou par non. La réponse se faisait par téléphone à un standard
$|
électronique. Un numéro valait pour le « oui », un autre pour le « non », et les résultats étaient
4$

diffusés au journal de 22 heures. La station recevait une fourchette de 500 à 1 000 appels par
soirée et semblait considérer que ces réponses reflétaient l’opinion de la ville.
By

Un jour, on posa la question suivante : « Pensez-vous que l’âge minimum pour pouvoir acheter
de l’alcool à Madison doive être abaissé à 18 ans ? » (il était de 21 ans à cette époque). Ce soir-
là 4 000 appels parvinrent à la station, dont 78 % de « oui ». Pour les responsables de la station,
4 000 réponses sur un total de 180 000 habitants étaient nécessairement représentatives.
C’est malheureusement faux. Il est apparu que des étudiants s’étaient organisés pour appeler
autant de fois que possible le numéro correspondant au « oui ». Le standard étant électronique,
personne n’a décelé la supercherie. Elle le fut a posteriori par l’indiscrétion des acteurs.

En effet, un échantillon de grande taille n’est pas nécessairement semblable dans sa structure et sa
composition (i.e. représentatif) à la population étudiée :

Exemple
Si l’on s’intéresse aux réactions du public face à un nouveau produit dont la cible est,
par exemple, les femmes actives urbaines de 18 à 50 ans, ce n’est pas parce qu’on
aura recueilli les opinions de 5 000 étudiantes sur ce produit que l’on aura une idée
précise des réactions de la cible à son égard.
Dans la réalité, la représentativité d’un échantillon est assurée par une démarche de construction
réfléchie, que la méthode soit probabiliste ou non. Comme nous le verrons dans la partie III de ce
chapitre, la taille de l’échantillon n’a d’influence que sur la précision escomptée des résultats.

2. Échantillonnage par jugement a priori


L’échantillonnage par jugement a priori consiste à sélectionner des individus dont on pense, avant
de les interroger, qu’ils peuvent être détenteurs d’informations cruciales pour l’étude. Pour ce faire,
on peut considérer des individus en apparence représentatifs de la population étudiée, ou encore
des personnes supposées expertes dans le domaine étudié.

Exemples
– On s’intéresse toujours aux réactions du public face à un nouveau produit dont les
femmes actives et urbaines de 18 à 50 ans sont la cible. Si l’on interroge, à la sortie du
siège d’une grande entreprise à Paris-La Défense, une femme âgée « à vue de nez »
d’une trentaine d’années, on a toutes les chances pour qu’elle appartienne à la cible
visée par le produit.
– Dans le cadre d’une étude exploratoire sur les valeurs liées à l’utilisation de la
bicyclette, on peut décider de commencer par interroger dans la rue les individus
\/|
pratiquants.
$|
4$

Une fois encore, ce type d’échantillonnage est à utiliser prudemment, car rien ne garantit la
représentativité réelle de l’échantillon. Un biais fréquent chez les enquêteurs est de retenir, plus ou
By

moins inconsciemment, des individus qui leur ressemblent.

Exemple
À l’occasion d’une étude exploratoire sur la sensibilité des Chambériens à la
protection de l’environnement, instruction avait été donnée aux enquêteurs d’interroger
moitié hommes, moitié femmes et d’essayer d’équilibrer les classes d’âge. La
répartition en termes de sexe était bonne. Mais l’échantillon montrait une très nette
surreprésentation des 20-29 ans et, à un moindre degré, des 40-50 ans, au détriment
des autres classes d’âge. Eux-mêmes étudiants, les enquêteurs ont interrogé
majoritairement d’autres étudiants et leurs parents.

L’échantillon de jugement est utile dans un cadre exploratoire. Il est plus précis que l’échantillon de
convenance. En revanche, il ne permet toujours pas de généraliser à une population.

3. Échantillonnage « boule de neige »


Cette méthode est en principe réservée aux populations « spéciales » composées d’experts, ou plus
généralement d’individus dont l’identification est difficile et/ou qui possèdent des caractéristiques
particulières, plutôt rares. Ces populations sont le plus souvent petites.

Exemples
– Ingénieurs en peinture de l’industrie navale.
– Chauffeurs-routiers artisans spécialisés dans les transports internationaux.

La méthode consiste à faire construire l’échantillon par les individus eux-mêmes. Il suffit d’en
identifier un petit nombre initial (un seul peut convenir) et de leur demander de faire appel à
d’autres individus possédant les mêmes connaissances et/ou caractéristiques qu’eux.
L’échantillonnage « boule de neige » (snowball sampling) est d’un intérêt particulier pour les
études en business to business, quand les individus recherchés dans les entreprises ne figurent pas
dans les annuaires professionnels.

Exemple
Une étude sur les interactions vendeur-acheteur serait un cas type de l’utilisation d’un
échantillonnage « boule de neige ». Chaque individu contacté serait chargé d’amener
\/|
dans l’échantillon son interlocuteur habituel dans l’autre entreprise.
$|
4$

4. Échantillonnage par quotas


By

C’est la méthode la plus utilisée dans les études de marché en grande consommation, car les
méthodes probabilistes sont difficiles à mettre en œuvre, à cause des contraintes de liste exhaustive
et fiable pour les populations concernées. Par ailleurs, la représentativité des échantillons obtenus
avec les autres méthodes non probabilistes reste douteuse. L’échantillonnage par quotas (quota
sampling) permet de s’affranchir de ces deux inconvénients.
Cette méthode consiste à étudier la structure de la population selon des critères choisis
empiriquement (quotas). L’échantillon est ensuite construit de manière à constituer une reproduction
en miniature de la population sur ces critères. On peut considérer cette méthode comme une
variante simplifiée de l’échantillonnage stratifié proportionnel. Les quotas représentent les
variables de stratification. La différence est que les individus, une fois la stratification effectuée, ne
sont plus choisis au hasard, mais sélectionnés à la convenance de l’enquêteur.
Les critères servant de base à la définition des quotas peuvent être au nombre d’un, deux, ou trois.
Les quotas peuvent être simples ou croisés et doivent être construits sur une base de données fiable
indiquant la répartition de la population sur les critères choisis. C’est pour cette raison que les
critères le plus souvent utilisés sont sociodémographiques, et en particulier le sexe, l’âge et la
PCS(280), pour lesquels on dispose des données de recensement de l’Insee. Quand on travaille sur
trois critères croisés, la complexité s’accroît sensiblement.
Exemple
Lors du recensement de 2008, le nombre d’agricultrices exploitantes âgées de moins
de 25 ans était de 1 384 dans la population française âgée de 15 ans et plus. En
pourcentage, elles représentent 0,00523 %. Si l’on veut disposer, pour la fiabilité
statistique, d’un groupe d’au moins 20 individus de ce type dans un échantillon, il
faudra que ce dernier comporte au total 20/0,0000523, soit 382 683 individus.

La fiche technique 8.2. présente un exemple de construction d’un échantillon par quotas.

Fiche technique 8.2. Construction d’un échantillon par quotas


1 – Quotas simples
Au recensement de 2008 la population des 15-74 ans se répartit ainsi :
Sexe : 50,93 % de femmes et 49,07 % d’hommes
Âge :
15-29 = 25,83 %
30-44 = 28,15 % \/|
45-54 = 18,68 %
$|
55-64 = 16,40 %
4$

65-74 = 10,94 %
Pour un échantillon de 1 000 personnes, on devra ainsi interroger :
By

1 000 × 0,5093 = 510 femmes et 1 000 × 0,4907 = 491 hommes.


Soit au total 1 001 personnes, en raison des arrondis (s’agissant d’individus, l’usage est de ne pas arrondir au
chiffre inférieur).
Et 1 000 × 0,2583 = 259 individus entre 15 et 29 ans et, selon le même principe de calcul, 282 entre 30 et
44 ans, 187 entre 45 et 54 ans, 164 entre 55 et 64 ans et 110 entre 65 et 74 ans (total : 1 002 personnes en
raison des arrondis).
La procédure est simple mais ne permet pas de refléter les différences de répartition des sexes selon la classe
d’âge. Ici, on se base sur une répartition constante quel que soit l’âge. En réalité le pourcentage d’individus de
sexe féminin croît au fur et à mesure de l’avancée en âge.
2 – Quotas croisés
Pour pallier cet inconvénient, il faut disposer de statistiques croisées. Mais la procédure devient complexe. Le
tableau suivant donne la répartition de la population française selon sexe, âge, PCS, à partir des données Insee
de 2008. La population concernée est celle des 15 ans et plus. Les valeurs sont exprimées en nombre d’individus.
On traduit ensuite ces chiffres en nombre de personnes à interroger. Pour un échantillon de 1 000 individus, le
nombre d’ouvriers âgés entre 30 et 44 ans sera (1 919 709 / 26 481 648) × 1 000 = 72,49.
Pour un échantillon de 1 000 personnes, cela donne, par exemple, le tableau de la page suivante.
\/|
Source : Recensement général de la population, 2008, www.recensement.insee.fr/
$|
Une fois ceci effectué, il reste à arrondir les chiffres, de manière à les exprimer en nombres
4$

entiers d’individus à interroger, sachant que les « grosses » cellules peuvent être arrondies au
chiffre inférieur, tandis que les petites sont arrondies à au moins un individu. Au total, le
By

nombre final d’individus à interroger n’est pas forcément exactement égal à 1 000.
\/|
$|
La méthode des quotas est la plus sûre des méthodes empiriques pour obtenir un échantillon aux
4$

caractéristiques proches de celles de la population de référence étudiée. Elle présente néanmoins


trois limites :
By

– Oubli d’un critère de découpage important


Le sexe, l’âge et la PCS ne sont pas toujours les plus pertinents pour le découpage de la population.
La procédure subjective de recrutement des répondants utilisée par l’enquêteur peut alors accentuer
les biais causés par cet oubli, comme par exemple n’interroger que des étudiants dans la catégorie
masculine de 20 à 29 ans. Le niveau d’éducation est sûrement très intéressant si l’on étudie
certaines formes de comportements culturels (achat de livres et disques ; aller au cinéma, au
théâtre, au musée ; pratiques sportives, etc.). Seulement, l’Insee ne donne pas de statistiques
croisées à partir de cette variable. La construction d’un échantillon par quotas croisés avec ce
critère est impossible.

– Multiplicité des critères


Le travail de l’enquêteur devient presque impossible. Où trouver une agricultrice exploitante âgée
de 20 à 29 ans, titulaire d’un diplôme de Master, mariée, ayant au moins un enfant ?

– Habitudes des enquêteurs


Ceux-ci vont généralement au plus simple : amis, voisins, parents, quartiers ou endroits privilégiés
(gares, aéroports, centres commerciaux, etc.). Même si les quotas sont respectés, il y a un double
biais : les individus sont issus d’un même milieu, et deviennent des habitués des enquêtes, d’où une
perte évidente de spontanéité dans les réponses.

C. Synthèse
Aucune méthode n’est réellement idéale. Les figures 8.5. et 8.6. résument les informations clés dans
ce domaine. À leur lecture, on se rend compte du paradoxe auquel est confronté le chargé d’études.
En effet, celui-ci construit son échantillon en cherchant la meilleure efficacité au moindre coût. Tout
ce qui alourdit et allonge la procédure d’échantillonnage en augmente le coût. Tout ce qui limite la
représentativité de l’échantillon et empêche la généralisation des résultats en diminue l’efficacité.
Or, on constate globalement que, plus on cherche à garantir la représentativité, plus on augmente la
lourdeur de mise en œuvre.

\/|
$|
4$
By
Figure 8.5. Avantages et inconvénients des méthodes d’échantillonnage

Méthodes Avantages Inconvénients


Empiriques
La moins chère. La moins longue Fort biais de sélection, donc non-
Convenance
à mettre en œuvre. représentativité.
Faible coût. Richesse des
Généralisation limitée, voire
Jugement a priori informations obtenues
impossible.
(si experts).
Idéale si on cherche des
individus spécifiques et rares,
Boule de neige Mise en œuvre longue.
détenant une information
éparpillée.
Coût. Non-représentativité si
Contrôle précis de l’échantillon
mauvais choix des critères. Biais
Quotas sur des caractéristiques choisies
de sélection (nécessité d’un
a priori.
contrôle strict des enquêteurs).
Aléatoires \/|
Base de sondage pas toujours
Principe simple. Possibilité de
$|
facile à construire.
Aléatoire simple généralisation par inférence
Représentativité non garantie.
4$

statistique.
Coût.
By

Pas besoin d’une base de Suivant les cas, représentativité


Aléatoire systématique sondage formelle. meilleure ou moins bonne
Facile à mettre en œuvre. qu’avec l’aléatoire simple.
Permet d’inclure toutes les sous-
populations (strates) Difficulté de choisir les
intéressantes, d’où meilleure « bonnes » variables de
Stratifié
précision. Permet de conserver stratification. Limite pratique à
des procédures formelles deux ou trois variables. Coût.
d’estimation et d’inférence.
Assez facile à mettre en œuvre. Échantillon imprécis. Calculs
En grappes Rapport « qualité-prix » (peu d’estimation et d’inférence
onéreux à mettre en place). possibles mais complexes.
Figure 8.6. Échantillonnage probabiliste et empirique

Conditions favorisant l’utilisation de


Conditions Échantillonnage Échantillonnage
empirique aléatoire
Nature de la recherche.
Exploratoire.
Importance relative des erreurs Causale et/ou normative.
Les erreurs d’observation sont
d’échantillonnage et Les erreurs d’échantillonnage
plus importantes.
d’observation. sont plus importantes.
Faible (homogénéité).
Variabilité dans la population. Forte (hétérogénéité).
Normalement impossible.
Utilisation de l’inférence Possible.
Globalement plus facile à
statistique. Globalement plus difficile.
utiliser.
Considérations pratiques.
Source : les deux tableaux sont traduits et adaptés de BIRKS D. F. et MALHOTRA N. K., op. cit., p. 374.

En principe, les méthodes aléatoires sont à préférer, pour des raisons techniques. En pratique, elles
sont lourdes, voire impossibles, à utiliser. Les méthodes empiriques sont pratiques mais peu
efficaces en termes de représentativité, au sens statistique, de l’échantillon.
\/|
Alors quelle méthode choisir ? Quelques règles de bon sens, regroupées dans la figure 8.7., peuvent
$|
être proposées.
4$
By

Exemple
Appliquons les principes de la figure 8.7. à une étude ayant pour objectif la mesure de
l’intention d’achat d’un produit par des consommateurs : cette population est de grande
taille, hétérogène par rapport aux variables étudiées (multitude d’intentions) et l’on
n’en possède pas de liste exhaustive. Comme il s’agit de prévoir, la représentativité
est nécessaire. Le choix devrait se porter sur un échantillonnage par quotas.
Figure 8.7. Choix d’une méthode d’échantillonnage

Une fois arrêté le choix de la méthode, se pose la question de la taille de l’échantillon.


\/|
$|
III. Détermination de la taille de l’échantillon
4$

Le premier réflexe est de penser qu’il suffit de choisir un gros échantillon. Mais le flash-étude 8.1.
By

a montré que le nombre ne garantit pas la représentativité. La définition rigoureuse de la base de


sondage et une méthode de tirage adaptée au problème posé sont des conditions préalables à
remplir.
La taille de l’échantillon se détermine en s’appuyant sur les principes de l’inférence statistique. Au
moyen d’une logique inductive, celle-ci permet d’estimer la valeur de paramètres dans une
population à partir de résultats observés sur des statistiques d’échantillon. Cette estimation se fait à
l’intérieur de marges de fluctuation que l’on calcule avec un risque d’échec assumé et fixé à
l’avance. Plus l’échantillon est grand, plus étroites sont les marges, c’est-à-dire meilleure est
l’estimation. Ce principe d’inférence implique en principe l’indépendance des observations, donc
un tirage aléatoire simple.
La compréhension des formules présentées dans ce paragraphe exige une bonne maîtrise des calculs
d’estimation par intervalle de confiance. Le guide statistique (téléchargeable gratuitement sur
Vuibert.fr) présente ces calculs.
Nous présenterons d’abord les facteurs généraux à retenir pour déterminer la taille de l’échantillon,
puis nous entrerons dans le détail des calculs, selon que les réponses aux questionnaires conduiront
à estimer des moyennes ou des pourcentages.

A. Éléments à prendre en compte


La détermination de la taille de l’échantillon dépend essentiellement de deux facteurs antagonistes :
la précision souhaitée et le budget disponible. Idéalement, la taille d’échantillon doit permettre
d’atteindre le meilleur équilibre entre le risque de commettre des erreurs d’échantillonnage, le coût
induit par ces erreurs, et le coût de l’échantillonnage lui-même. La figure 8.8. illustre la notion de
taille optimale d’échantillon.
Figure 8.8. Taille optimale d’un échantillon

\/|
$|
4$
By

Source : d’après LAPIN L. L., Statistics for Modern Business Decisions, 6e éd., The Dryden Press, New York, 1993, p. 337.

B. Taille d’échantillon pour estimer une moyenne


Selon les études, les enjeux marketing ou économiques ne sont pas les mêmes. Le chargé d’études
doit d’abord estimer le niveau de précision qui permettra de faire reposer les décisions ultérieures
sur des bases solides. Autrement dit, il s’agit de réduire au maximum l’incertitude des choix
ultérieurs.
Exemples
– Dans un panel de grande consommation, une précision de ± 1 litre pour estimer les
quantités moyennes annuelles de bières consommées par ménage semble suffisante.
– Un fabricant de cigarettes souhaitant lancer une nouvelle marque pense que le chiffre
d’affaires prévu sur la cible « Homme, Urbain, Cadre supérieur » doit s’estimer à
± 3 millions près.
– Un restaurateur veut savoir si sa cuisine est perçue comme de « bonne qualité », ce
qui correspondrait à une note moyenne de 7 sur 10. La précision nécessaire pour cette
étude d’image est, en apparence, faible : on peut admettre une marge de fluctuation de
± 1 point autour de ce pivot.

La fiche technique 8.3. expose les principes des calculs.

Fiche technique 8.3. Calcul de la taille de l’échantillon pour estimer une


moyenne \/|
1 – La taille de l’échantillon dépend de la précision souhaitée pour la généralisation des résultats.
$|
2 – La précision, encore appelée « erreur d’échantillonnage », s’exprime en valeur absolue ou relative. Elle
représente tout simplement la « largeur » de l’intervalle calculé autour de la moyenne d’échantillon. On appelle e
4$

l’erreur d’échantillonnage. Elle représente la moitié de cette largeur :


By

Avec :
e = précision souhaitée
tα/2 ; n – 1 = valeur de la loi de Student au seuil α
n = taille de l’échantillon
α = seuil de confiance (souvent fixé à 0,05)
s = écart-type d’échantillon (estimateur de l’écart-type de population)
3 – Ceci nous permet d’exprimer la taille d’échantillon n comme égale à :

Autrement dit, la taille d’échantillon dépend du seuil de risque, d’un niveau fixé a priori d’erreur d’échantillonnage
et de l’écart-type d’échantillon s.
4 – Or s est inconnu au moment où l’on fait ce calcul. En l’absence d’informations sur la population étudiée, on doit
mener une étude pilote pour disposer d’une première approximation de cette valeur. Il faut en tenir compte dans
le budget de l’étude.
Exemple
1 • Problème posé. Un parc de loisirs souhaite estimer à 2 euros près le montant des
achats hors entrée (cartes postales, livres, souvenirs, etc.) effectués par chaque
visiteur. On vous demande de calculer la taille d’échantillon nécessaire, sachant que la
conclusion doit être formulée avec un seuil de confiance de 95 %.
2 • Contexte. Une étude pilote menée sur 50 visiteurs choisis au hasard dans le fichier
clients du parc a montré que ces achats annexes variaient de 0 à 100 euros et suivaient
une distribution normale.
3 • Loi de distribution à appliquer au problème. On cherche une estimation de la
moyenne μ des achats dans la population des clients du parc, sachant que :

Puisque la précision souhaitée est de 2 euros, nous cherchons n tel que :

\/|
4 – Réflexions à envisager. L’inconnue est n et il reste deux paramètres à identifier,
$|
tα/2 ; n – 1 et s. Pour le premier nous allons faire l’hypothèse que la taille de
4$

l’échantillon sera très supérieure à 100. Dans ce cas, la loi de Student et la loi
normale se confondent. La valeur de la loi normale centrée-réduite pour un seuil de
By

risque α = 0,05 est z = 1,96. Nous retenons cette valeur pour tα/2 ; n – 1. Si la valeur de
n s’avère être très inférieure à 100, nous recommencerons le calcul. Pour s, on sait que
l’étendue d’une loi normale est d’environ six fois son écart-type. Si l’étendue de la
variable est de 100 euros, alors son écart-type peut être estimé à 16,67 euros.
5 – Solution du problème. On calcule la taille de l’échantillon en posant :

La taille d’échantillon nécessaire est de 267 personnes, car on arrondit


systématiquement à l’entier supérieur pour respecter la contrainte de précision.

C. Taille d’échantillon pour estimer une proportion


Le problème n’est pas très différent lorsqu’il s’agit d’estimer une proportion, comme le montre la
fiche technique 8.4.
Fiche technique 8.4. Calcul de la taille de l’échantillon pour estimer une
proportion
1 – La taille de l’échantillon dépend également de la précision souhaitée pour la généralisation des résultats.
2 – La précision : elle se décrit exactement comme pour la moyenne.

Avec :
e = précision souhaitée
n = taille de l’échantillon
zα/2 = valeur de la loi normale centrée réduite au seuil α
α = seuil de confiance (souvent fixé à 0,05)
p = proportion (fréquence) observée dans l’échantillon
3 – En transformant cette expression, nous obtenons la taille souhaitée pour l’échantillon :

\/|
Exemple
$|
4$

1 • Problème posé. Supposons que, dans l’exemple du parc de loisirs, on ait voulu
estimer non pas le montant des achats, mais la proportion de clients procédant à des
By

achats annexes (en plus de l’entrée au parc).


2 • Contexte. Admettons que l’étude pilote ait estimé cette proportion à 65 %, et que
la précision souhaitée soit de cinq points de pourcentage. Le seuil de confiance reste à
95 %.
3 • Solution du problème.

La taille de l’échantillon nécessaire est donc ici de 350 personnes. On refait les
calculs une fois l’enquête menée, lorsque l’on connaît réellement la valeur de p.

Conclusion
Ce chapitre, assez technique dans sa troisième partie, nous aura permis de dresser un panorama des
premières préoccupations méthodologiques du chargé d’études : comment sélectionner les
« objets » pour recueillir l’information requise par les objectifs de l’étude ?
Nous avons tout d’abord rappelé qu’il s’agissait de définir très clairement la population de
référence concernée par l’étude. Cette population est composée d’éléments qui constituent,
individuellement ou non, des unités d’échantillonnage. Pour compléter la définition de la
population, on utilise également un critère de localisation ainsi qu’un critère temporel. La
détermination de la base de sondage est plus concrète, puisqu’elle consiste à se procurer ou
construire une liste à partir de laquelle les unités d’échantillonnage vont être recrutées.
Dès lors que l’on dispose de la base de sondage, il s’agit de choisir la méthode de sélection de ces
unités. Deux familles de méthodes sont à disposition : celles qui font appel au hasard, appelées
probabilistes, et celles qui reposent sur un choix plus ou moins structuré, appelées non
probabilistes ou empiriques.
Les premières nécessitent l’existence, ou la construction, d’une liste nominative et exhaustive de la
population concernée. Le recours au hasard implique que chaque élément de la liste ait la même
probabilité, connue à l’avance, d’appartenir à l’échantillon. Ceci permet une généralisation valide
des résultats par des méthodes dites d’inférence statistique. Il faut avoir à l’esprit que de telles
listes, notamment pour les études en grande consommation, sont rarement disponibles.
Les secondes n’ont pas besoin d’une liste de la population et opèrent un choix plus orienté et
pragmatique des éléments composant l’échantillon. En contrepartie, la validité des calculs de
généralisation n’est plus garantie. Malgré tout, la méthode des quotas est probablement celle qui
préserve au mieux la représentativité de l’échantillon.
La troisième partie de ce chapitre a été consacrée à la détermination de la taille de l’échantillon.
Nous sommes partis d’un postulat de base : celui du recours à une sélection aléatoire des individus.
\/|
Les propriétés statistiques de l’estimation par intervalle de confiance permettent d’évaluer la taille
$|
d’échantillon nécessaire en fonction de la précision souhaitée.
4$

Nous savons, à l’issue de ce chapitre, choisir de manière raisonnée un échantillon et calculer sa


taille. Il nous faut maintenant construire le questionnaire nécessaire au recueil de ces informations.
By

C’est l’objet du chapitre suivant.


Test de connaissance
(Cochez une seule réponse par question.)
Q1. La population, au sens statistique, est :
(1) toutes les personnes habitant un pays donné
(2) l’ensemble des objets possédant l’information désirée
(3) tous les individus ayant répondu au questionnaire
Q2. La base de sondage est :
(1) la liste à partir de laquelle on va sélectionner l’échantillon
(2) l’urne dans laquelle on effectue le tirage
(3) l’ensemble des individus qui vont figurer dans l’échantillon
Q3. L’échantillonnage aléatoire stratifié consiste à :
(1) tirer au hasard des groupes d’individus, puis faire un recensement
de chacun des groupes \/|
(2) découper la population en groupes homogènes, puis faire un tirage
$|
au hasard dans chacun des groupes
4$

(3) découper la population en groupes hétérogènes, puis tirer au sort quelques groupes
Q4. L’intervalle de confiance est :
By

(1) la probabilité pour que la conclusion formulée soit bonne


(2) l’écart entre le paramètre estimé et la statistique calculée
(3) l’intervalle dans lequel on situe l’estimation du paramètre étudié
Q5. La précision d’une estimation augmente :
(1) avec la taille de la population
(2) quand le seuil de confiance est augmenté
(3) avec la taille de l’échantillon
Réponses : voir annexes téléchargeables sur www.vuibert.fr

Bibliographie
CHURCHILL G. A. Jr. et IACOBUCCI D., Marketing research. Methodological foundations, 10e éd.,
South Western, Mason : OH, 2010.
DEROO M. et DUSSAIX A.-M., Pratique et analyse des enquêtes par sondage, PUF, Paris, 1980.
ÉVRARD Y., PRAS B. et ROUX E., Market : études et recherche en marketing, 4e éd., Paris, Dunod,
2009.
HAIR J. F. Jr et al., Multivariate Data Analysis, 7e éd., Pearson Education, 2013.
JOLIBERT A. et JOURDAN P., Marketing Research. Méthodes de recherche et d’études en marketing,
2e éd., Paris, Dunod, 2011.
LAPIN L. L., Statistics for Modern Business Decisions, 6e éd., The Dryden Press, New York, 1993,
chap. 5 à 8.
MALHOTRA N. K., Marketing Research. An Applied Orientation, 6e éd., Pearson Education, 2009.
WONNACOTT T. H. et WONNACOTT R. J., Statistique, 4e éd., Economica, Paris, 1991.

\/|
$|
4$
By
Chapitre 9

Construction du questionnaire
Celui qui bâtit un questionnaire hâtivement pour « se faire une idée » [...]
celui-là part à la pêche sans beaucoup de chances de succès.
R. MUCHIELLI

La préparation de la collecte des informations constitue l’étape clé du terrain de l’étude. Cette
phase dépend très étroitement de la définition des objectifs de l’étude et, en conséquence, de ce que
l’on cherche exactement à connaître et/ou à mesurer. Elle conditionne, à son tour, la nature et la
validité des traitements que l’on effectue sur les données recueillies, avec, en fin de compte, la
possibilité, ou non, de répondre aux questions posées. \/|
Dans une étude quantitative, un questionnaire est une liste structurée de questions, construite dans le
$|
but de récolter l’information nécessaire à l’accomplissement des objectifs d’une étude.
4$

La structuration évoquée entraîne la standardisation de l’information collectée dans une enquête. Si


la démarche a été correctement menée, chaque répondant verra et/ou entendra les mêmes questions,
By

dans le même ordre. Leurs réponses seront donc systématiquement comparables.


Malheureusement, la construction d’un questionnaire n’est pas, et ne sera jamais, une science
exacte. Il s’agit plutôt d’un art, établi sur quelques règles empiriques liées à l’expérience acquise
dans les recherches en sciences sociales. Nous scinderons ces règles selon qu’elles sont relatives
au contenu du questionnaire, ou à sa forme (voir figure 9.1.). Notons qu’un questionnaire, dans son
contenu comme dans sa forme, doit inciter le répondant à coopérer, à se sentir impliqué et à donner
des réponses complètes et exactes aux questions qui lui sont posées.
Figure 9.1. Plan du chapitre

\/|
$|

I. Règles liées au fond du questionnaire


4$

« Que vais-je écrire dans le questionnaire ? » est en général la première réflexion qui vient à
By

l’esprit. Cette interrogation sur le contenu des questions sera abordée dans un premier paragraphe.
La manière de poser les questions est également source d’interrogation : doit-on par exemple
donner des choix de réponses ou laisser le répondant totalement libre de sa réponse ? Nous
répondrons à ces problèmes en présentant les différents types de questions dans une seconde partie.
Enfin, nous verrons en dernier lieu que la qualité d’un questionnaire découle de la nature des
mesures, celle-ci conditionnant les possibilités de traitement statistique des données.

A. Contenu des questions


1. Préalable : liste des informations à rechercher
La pire erreur que l’on puisse commettre en matière de rédaction de questionnaire est de rédiger les
questions au petit bonheur la chance, sans réel plan structurant leur contenu et leur progressivité. La
conséquence est un questionnaire long et peu cohérent, qui lassera très vite les répondants. La
qualité de l’information recueillie sera alors douteuse. La solution consiste à lister précisément
l’information recherchée.
Oublier de bâtir cette liste reviendrait à commettre la même erreur qu’un architecte démarrant la
construction d’un immeuble avant d’en avoir dessiné le plan. Les informations à recueillir
dépendent directement des objectifs de l’étude et des hypothèses de travail que l’on aura formulées.
L’exemple suivant illustre cette recommandation :

Mise en pratique : l’exemple d’une étude de notoriété


1 – Objectifs. La direction marketing d’une entreprise fixe deux objectifs à une
société d’études :
– évaluer la notoriété de l’une de ses marques auprès de ses cibles. Cœur de cible :
hommes 25-35 ans. Cibles secondaires : hommes 18-25 ans et 35-45 ans ;
– segmenter la cible selon le taux de notoriété, afin d’orienter l’action marketing vers
les groupes à faible notoriété.
2 – Hypothèses. L’expérience du chargé d’études dans la catégorie de produit lui
suggère deux hypothèses :
– la notoriété de la marque sera liée à l’expertise des individus dans la catégorie de
produit ;
– les indicateurs sociodémographiques classiques suffiront à segmenter la cible sur le
taux de notoriété. \/|
3 – Liste des informations. Elle découle directement de ces préalables :
$|
– Notoriété de la marque, évaluée classiquement : « top of mind », spontanée, assistée.
4$

– Évaluation de l’expertise de l’individu dans la catégorie de produit (par exemple) :


fréquence d’achat, comportement de recherche d’information hors situation d’achat,
By

connaissance générale du produit et des marques, auto-évaluation du degré de


connaissance.
– Indicateurs sociodémographiques classiques : âge, PCS, revenu, situation familiale,
taille du foyer, type d’habitat.

Le questionnaire sera construit à partir de la liste des informations. Cette démarche permet de
n’oublier aucune information importante tout en évitant les questions inutiles, en prétextant : « on ne
sait jamais, ça peut toujours être intéressant ». On évite ainsi des questionnaires « fourre-tout »,
sans réelle logique et, surtout, trop longs et fastidieux à remplir. La figure 9.2. récapitule ces
différents principes de recueil de l’information.
Figure 9.2. Processus de définition de l’information recherchée

\/|
$|
4$
By

Source : d’après MALHOTRA N. K., Marketing Research. An Applied Orientation,


Prentice-Hall International, Londres, 1993, p. 254.

2. Nature des informations à rechercher


Suivant le type d’étude, la nature de l’information recherchée varie. En effet, on ne recueille pas les
mêmes données selon que l’on s’intéresse à une population d’individus, d’entreprises, ou de
marques.
Lorsqu’il s’agit d’individus, l’information peut être classée en trois catégories : les comportements
(ce que les gens font), les états mentaux (ce que les gens pensent et/ou ressentent) et l’identification
(ce que les gens sont, ce qui dépasse la simple identification sociodémographique). La figure 9.3.
illustre et détaille ces catégories(281).
Suivant les objectifs d’étude, on privilégiera la recherche de tel ou tel type d’information. Deux
exemples pour illustrer ce point :

Exemples
Étude d’image d’une marque
L’information recherchée tournera essentiellement autour de la notoriété (i.e.
connaissance) de la marque dans la population cible, des attitudes des individus à son
égard et de l’identification de ces derniers.
En matière de notoriété, on pourra, par exemple, évaluer les trois composantes
classiques (« top of mind », spontanée, assistée) vis-à-vis de la marque, ainsi que le
degré d’expertise des individus interrogés dans la catégorie de produit concernée.
La notion d’image est séduisante, mais peu concrète. On l’approche le plus souvent
par le concept d’attitude, abondamment utilisé en comportement du consommateur. Il
\/|
s’agira de recueillir : les croyances, l’évaluation de ces croyances, l’évaluation
$|
générale de la marque (plutôt sur un plan affectif), l’intention de comportement et le
4$

comportement (déclaré et si possible réel) à son égard.


L’identification sociodémographique des individus permet de classer ces derniers en
By

groupes dont les attitudes et/ou comportements sont comparables. Par exemple, on
pourra mettre en avant que « la marque X est vieillotte » est une affirmation en grande
partie issue des 25-35 ans masculins, urbains, bien éduqués, cadres ou professions
libérales. Cette information permet donc une action marketing : transformation des
attributs de la marque (forme, couleur...), modification de la communication...
Étude de fréquentation d’un magasin
Ici, l’information nécessaire concernera les comportements et l’identification des
clients actuels d’un magasin. Pour les comportements, on se posera les questions
évoquées dans la figure 9.3. (page suivante) : d’où viennent les clients ? Quand
viennent-ils ? Qu’achètent-ils ? Combien de fois viennent/achètent-ils ? Et surtout :
Qui sont-ils ? Ceci nous ramène automatiquement à l’identification par les
descripteurs sociodémographiques.

Naturellement, tous les types d’informations listés dans ces exemples ne sont pas automatiquement
nécessaires. Tout dépend, comme l’indique la figure 9.2., des objectifs de l’étude, des théories et
modèles sous-jacents (donc des connaissances préalables, même partielles, que l’on a du sujet
étudié), ainsi que de l’information secondaire que l’on a pu collecter.

3. Check-list du rédacteur
Avant de formuler une question, le rédacteur doit la soumettre à quatre interrogations.
a. Cette question est-elle strictement nécessaire ?
Autrement dit, « ai-je besoin de l’information pour atteindre mes objectifs ? » On peut également
aborder le problème par une mise en cause : « si j’enlève cette question, puis-je encore atteindre
mes objectifs ? ». Si la réponse est « oui », parce que l’information est obtenue ailleurs dans le
questionnaire, la question peut être éliminée.
Figure 9.3. Nature de l’information à collecter auprès d’individus

\/|
$|
4$
By

b. Pour l’information recherchée, une seule question suffira-t-elle ?


Il existe souvent des situations où plusieurs questions sont nécessaires du fait de la complexité de
l’information recherchée, comme dans le cas d’une question « pourquoi ? ».
Exemple
Un chargé d’études veut savoir pourquoi les répondants utilisent une marque de
shampooing donnée. À la question : « Pourquoi utilisez-vous le shampooing X ? », il
pourra se voir répondre : « Parce qu’il rend mes cheveux souples » ou « parce que
mon coiffeur me l’a recommandé ».
La compréhension du but de la question est manifestement différente pour les deux
individus. Le premier évalue la performance de la marque par rapport à ses attentes :
il donne une des raisons pour lesquelles il utilise actuellement la marque. Le second
indique ce qui l’a amené à utiliser la marque.
On suggère ici de formuler deux questions, par exemple : « Quelle est la principale
raison pour laquelle vous utilisez la marque X ? » et « Qu’est-ce qui vous a amené à
l’utiliser pour la première fois ? »

De même, certaines questions sont doubles et doivent alors être décomposées en deux questions
simples.

\/|
Exemple
$|
« Pensez-vous que les entreprises de distribution se préoccupent aujourd’hui de leurs
4$

clients et de leurs employés ? »


By

La réponse, surtout si elle est négative, est ambiguë. En effet, on ne peut distinguer,
dans un « non », si le répondant considère plutôt les clients, les employés ou les deux.
Même un « oui » poserait problème : le répondant envisage-t-il clients et employés sur
le même plan, ou privilégie-t-il l’un ou l’autre dans sa réponse ? Pour lever
l’ambiguïté, on pourrait scinder la question en deux :
Q1 – « Pensez-vous que les entreprises de distribution se préoccupent aujourd’hui de
leurs clients ? »
Q2 – « Pensez-vous que les entreprises de distribution se préoccupent aujourd’hui de
leurs employés ? »

c. La personne interrogée pourra-t-elle fournir l’information ?


Dans certains cas, les répondants ne peuvent pas répondre à la question qui leur est posée. On peut
identifier trois raisons principales à cette situation : le répondant ne comprend pas, il ne sait pas ou
il ne se souvient pas.
– Incompréhension. Elle peut être due au vocabulaire utilisé – trop technique ou qui ne tient pas
compte des particularismes régionaux – ou à une abstraction trop importante de la question.
Exemples
« Êtes-vous sujet au coryza ? » (rhume des foins)
« L’accomplissement de soi est-il un but dans votre vie ? »

– Ignorance. Il s’agit d’une situation où le répondant se voit imposer une problématique à laquelle
il n’avait jamais réfléchi ou une obligation de savoir(282). Pour ne pas perdre la face, le répondant
va donner une réponse, dont la fiabilité sera par conséquent douteuse. Cette situation traduit une
mauvaise adaptation du questionnaire aux personnes interrogées, ou, plus grave, une erreur dans le
choix de la population de référence par rapport à l’information recherchée.

Exemple
Demander à un répondant d’évaluer une marque sur des attributs (prix, solidité,
confort...), alors qu’il ne l’a jamais consommée, voire ne la connaît pas du tout.
Il s’agit ici d’une erreur de sélection dans la population de référence.
\/|
– Oubli. Le répondant possède ou a possédé l’information demandée, mais est incapable de s’en
$|
souvenir. La capacité à se remémorer les événements passés dépend du temps écoulé, de
4$

l’importance de l’événement et, éventuellement, de la fréquence de l’événement.


By

Exemple
« Combien de yaourts avez-vous consommé au cours des six derniers mois ? » En
l’occurrence, la consommation de yaourts n’est pas un événement clé dans notre vie.
Pour certains, la réponse sera facile : ceux qui n’en consomment jamais, ou très
régulièrement, un par jour par exemple. Pour la majorité des répondants, l’effort de
mémoire sera au-delà de leurs capacités.

d. La personne interrogée voudra-t-elle fournir l’information exacte ?


Nous nous référons ici aux informations à caractère sensible, que les personnes « maquillent » ou
souhaitent cacher. Ce comportement « déviant » de la part de l’enquêté peut survenir pour trois
types d’interrogations :
– sujets socialement sensibles pour lesquels certains comportements sont enjolivés (e.g. achat de
produits bio ou du commerce équitable), ou au contraire niés (e.g. consommation d’alcool) ;
– sujets touchant de trop près à la vie privée, par exemple le revenu ;
– sujets demandant un gros effort de recherche, comme retrouver l’historique des ventes à l’export
pour les cinq années précédentes.
Dans les trois cas, des « astuces » permettent d’obtenir l’information. Elles sont souvent liées à la
manière dont la question est posée et/ou à la structure du questionnaire. Nous verrons cela dans le
paragraphe II.
Une fois le contenu des questions identifié, l’étape suivante consiste à déterminer le type de
question adapté à chaque élément d’information recherché.

B. Types de questions
Nous distinguerons ici les questions ouvertes, les questions fermées et les questions posées sous
forme d’échelles à catégories spécifiques.

1. Questions ouvertes
Une question ouverte laisse l’individu interrogé totalement libre du choix de sa réponse, dans sa
forme et dans sa longueur. Ce type de question est à manier avec précaution dans les enquêtes
quantitatives, où l’on tente de standardiser les questionnaires autant que possible.
Une question ouverte amène une réponse sous forme de chiffre ou sous forme de discours :
– la première est, par nature, quantitative et ne pose pas d’autre problème au répondant que la
possibilité et la volonté de répondre ; \/|
– la seconde doit se limiter à une information qui peut être donnée par un mot ou une expression très
$|
brève. On cherche un fait, un état de la personne, ou un élément de connaissance, à un instant donné.
4$

La figure 9.4. offre quelques exemples pour chacun de ces cas.


Si la question implique une réponse plus développée, on peut faire figurer sur le questionnaire une
By

liste de réponses, que l’enquêteur n’aura plus qu’à cocher au fur et à mesure de leur éventuelle
citation par le répondant. On parle alors de « question ouverte pré-codée » ou « semi-ouverte ».
Mais si la réponse prend la forme d’un discours organisé, la mise en forme de l’information en vue
d’un traitement statistique devient extrêmement délicate. Il est alors préférable d’opter pour une
méthode qualitative.
Le piège à éviter est de rédiger quelque chose à mi-chemin entre un questionnaire et un guide
d’entretien. Le traitement statistique et l’analyse des informations seront alors difficiles à gérer. En
règle générale, dans le cadre d’une étude quantitative, les questions fermées et les questions
ouvertes numériques sont préférables aux questions ouvertes débouchant sur du texte non codifiable
a priori.

2. Questions fermées
Les questions fermées sont des questions pour lesquelles on impose au répondant une forme précise
de réponse et un nombre limité de choix de réponses.
Figure 9.4. Types de questions ouvertes

Deux types de questions fermées sont possibles selon le nombre de réponses souhaité (figure 9.5.)
Figure 9.5. Questions à choix multiples

\/|
$|

1 – Questions à choix multiples et réponse unique


4$

Le répondant doit choisir une réponse parmi plusieurs proposées. Il est impératif que les modalités
By

proposées soient exhaustives et mutuellement exclusives.


– Exhaustives signifie que ces modalités doivent couvrir tout le « domaine » concerné par
l’enquête. Ce domaine a deux dimensions : la population à laquelle on s’intéresse et l’univers que
l’on étudie.

Exemple
Supposons une étude sur l’image des marques de parfums, portant sur la population
des femmes de 18 à 35 ans. Si l’une des questions est relative à l’âge des répondantes,
et que l’on décide de la présenter sous forme de classes, les modalités, pour être
exhaustives, n’auront besoin de couvrir que des tranches de 18 à 35 ans. Une question
portant sur les raisons du choix d’un parfum devra présenter une liste couvrant
l’univers des motivations et freins à l’achat de ce produit. Une telle liste ne peut
résulter que d’une étude exploratoire qualitative préalable.

– Mutuellement exclusives signifie que le choix de l’une des modalités exclut toutes les autres. Une
répondante âgée de 19 ans figurera dans la tranche de 19 à 24 ans, et dans aucune autre. Si plusieurs
modalités de réponses sont envisageables il faut préciser qu’une seule réponse est possible. Ceci
est frustrant et doit être évité.

2 – Questions à choix et réponses multiples


Le répondant peut sélectionner plusieurs des possibilités proposées. Ce type de question est à
manier prudemment, car l’interprétation des traitements statistiques est délicate. Les fréquences,
notamment, doivent être calculées par rapport au nombre de réponses, et non par rapport au nombre
de répondants. Il est préférable d’envisager chaque modalité de réponse comme une question à deux
modalités avec réponse oui/non.
Étudier la notoriété (e.g. d’une marque) conduit à des formulations de ce type (figure 9.6.,
question 1). Chaque marque est alors considérée comme une variable. La question sous-jacente est :
« Connaissez-vous la marque X ? » La réponse implicite est donc oui, ou non. Dans la base de
données, on peut ensuite affecter 1 à la réponse « oui », et 0 à la réponse « non ». On peut
également demander au répondant un classement de préférence, ou d’importance, pour les choix
qu’il effectue (figure 9.6., question 2 ; listes non limitatives dans les deux cas).

3. Échelles à catégories spécifiques


Il s’agit d’une forme particulière de question fermée, principalement utilisée pour mesurer des
\/|
variables psychologiques (croyances, évaluations, sentiments...). Les plus couramment employées
sont celles qui suivent.
$|
4$

Figure 9.6. Questions à choix et réponses multiples


By

a. Échelle de Likert
Baptisée du nom de son concepteur, cette échelle avait pour but, à l’origine, de mesurer l’attitude
d’un individu en sommant les « notes » que celui-ci attribuait à une liste de propositions relatives à
l’objet évalué (i.e. produit, marque, entreprise, comportement...). La « note » correspond à un degré
d’accord, ou de désaccord, avec chacune des propositions énoncées.
Typiquement, l’échelle de Likert correspond à la figure 9.7. Le répondant entoure le chiffre qui
approche au mieux son degré d’accord avec chaque proposition. L’échelle de 1 à 5 est le plus
souvent utilisée mais les scores pourraient également s’étager de – 2 à + 2. Dans ce cas, il faut
pouvoir supposer que le 0 a un sens précis.
Figure 9.7. Échelle de Likert

« Pour que je
Ni en
me sente chez Pas du Plutôt Tout à
accord, Plutôt
moi quelque tout pas fait
ni en d’accord
part, ce doit d’accord d’accord d’accord
désaccord
être un lieu... »
à mon goût 1 2 3 4 5
à mon image 1 2 3 4 5
où je n’ai pas de
1 2 3 4 5
soucis
dont j’ai conçu
1 2 3 4 5
l’aménagement

En matière d’échelles, trois décisions doivent être prises :


– le nombre d’échelons. Un nombre trop restreint frustre les répondants et pose des problèmes de
traitement statistique. Un nombre trop élevé perd les répondants. Historiquement de cinq, ce
\/|
nombre varie en pratique de quatre à sept dans la plupart des études. Plus les répondants sont jugés
$|
aptes à évaluer finement leur position à l’égard du stimulus, plus le nombre de points peut être
4$

élevé ;
– la parité du nombre d’échelons. Un nombre impair autorise un point neutre. Parfois ce point est
By

utilisé comme refuge par des répondants qui ne veulent ou ne peuvent prendre position. La
distribution des résultats est alors faussée. Si ce point neutre se justifie au plan théorique, alors un
nombre impair convient. Si l’on souhaite forcer les répondants à prendre position, alors il faut
opter pour un nombre pair ;
– le sens de la rédaction des propositions. Pour éviter que les individus ne répondent de manière
automatique et souvent positive (biais d’acquiescement), on a longtemps recommandé une rédaction
alternée des propositions. Certaines sont positives à l’égard de l’objet, les autres sont négatives. Le
répondant est alors obligé de lire en détail chaque proposition pour bien se situer sur l’échelle.
Cette stratégie est de plus en plus critiquée pour ses conséquences en matière de traitement
statistique. Si des analyses factorielles sont envisagées, ce qui est très souvent le cas avec ces
« batteries » de propositions, nous recommandons une rédaction univoque des propositions. Ce
problème est abordé de nouveau au chapitre 14.
Exemple
Dans une mesure de la tendance générale à la recherche de sensations et de
stimulation, bâtie autour de sept propositions, on trouve les deux suivantes :
« J’aime faire toujours les mêmes choses, plutôt que d’essayer des choses nouvelles et
différentes. »
« Je suis sans cesse à la recherche d’idées et d’expériences nouvelles. »
La seconde évalue bien cette tendance, alors que la première évalue l’inverse.
Utiliser cette stratégie implique d’inverser les scores des propositions rédigées dans
le sens inverse de ce qui est mesuré. Si l’échelle est en cinq points, 1 devient 5, 2
devient 4, 3 reste 3, 4 devient 2 et 5 devient 1.

L’échelle de Likert est dite « unipolaire ». Le jugement de valeur est fait par le rédacteur
(« J’aime », « Je suis sans cesse à... »). Le répondant se contente de se positionner par rapport à ce
jugement. D’autres échelles sont « bipolaires », comme le différentiel sémantique.

b. Différentiel sémantique \/|


On demande au répondant de se positionner entre deux adjectifs de sens parfaitement opposé. Le
$|
jugement de valeur est donc fait par ce dernier. Par extension, on utilise parfois des expressions ou
des phrases complètes à la place des adjectifs. C’est très difficile à rédiger, notamment en
4$

français(283). Une bonne solution consiste à réaliser un pré-test – une réunion de groupe, par exemple
– au terme duquel on sélectionne les contraires le plus souvent cités, pour chaque phrase ou
By

adjectif.
Figure 9.8.Différentiel sémantique

Les remarques sur la parité et le nombre d’échelons s’appliquent également. Historiquement, le


nombre d’échelons était de sept. Les couples d’adjectifs peuvent être présentés dans un ordre
alternativement négatif-positif ou positif-négatif pour éviter tout biais d’acquiescement. Attention,
dans ce cas, à l’inversion du codage.
Le différentiel sémantique est très utilisé en marketing, en particulier pour l’évaluation d’une image
(de marque, de produit ou d’entreprise). Il permet, avec des traitements statistiques simples, de
comparer les profils de plusieurs objets (e.g. marques).
On peut ainsi mettre en évidence facilement les différences d’évaluation des marques selon divers
segments de clientèle (on peut imaginer ici qu’il s’agit de classes d’âge).
Les échelles de Likert et le différentiel sémantique sont des mesures intrinsèquement ordinales,
donc pauvres (voir C. Niveaux de mesure ci-après). On s’est donc efforcé de bâtir des échelles aux
propriétés plus riches. C’est le cas des échelles à supports sémantiques.
Figure 9.9. Exemples de profils sémantiques comparés

c. Échelle à supports sémantiques


C’est une échelle possédant des propriétés d’intervalle par construction(284). Le principe de base est
de bâtir, pour une population donnée, une échelle dont les ancrages verbaux (i.e. sémantiques) sont
à des distances psychologiquement égales l’un de l’autre. Les exemples de la figure 9.10. illustrent
ce propos. \/|
Les ancrages verbaux ne sont valides que pour une population donnée. Par exemple des cadres pour
$|
les questions 1 et 2. L’échelle de la question 2 a également été validée pour une population de
4$

femmes au foyer et d’étudiants. Les échelons numériques sont là pour conforter l’impression
d’égalité des intervalles.
By

La procédure de développement de ces échelles peut être adaptée à des situations très variées. Les
exemples présentés ci-dessus portent sur des adjectifs liés à la notion de « bon/mauvais ». On
pourrait également développer des échelles d’intervalle établies sur des jugements d’accord,
d’importance ou de satisfaction, par exemple.
Lorsque l’on rentre dans le domaine du comportement, on souhaite souvent mesurer les intentions.
Figure 9.10. Échelle à supports sémantiques

d. Échelles d’intention \/|


La forme « classique » de ce type d’échelle est donnée par la question no 1 de la figure 9.11. : elle
$|
s’apparente à une variante du différentiel sémantique.
4$

L’utilisation de probabilités subjectives est possible. On mesure alors le pourcentage de chances


que le répondant s’accorde d’adopter un comportement donné (question no 2). L’avantage de cette
By

mesure réside dans sa propriété de ratio (voir point C ci-après). En revanche, à moins d’avoir une
intention très marquée, l’estimation de ce type de probabilité est délicate Il faut donc l’utiliser avec
prudence.
Figure 9.11. Échelles d’intention

e. Autres types d’échelles


Les échelles à icônes rencontrent un succès grandissant, notamment pour mesurer des émotions. On
les rencontre également dans des études portant sur des enfants(285), ou dans des études à caractère
international(286).
La figure 9.12. donne un exemple d’échelle à icônes développée dans une étude de marketing
international auprès d’étudiants allemands, espagnols et français. Les cinq visages sélectionnés sont
situés à des distances psychologiques approximativement égales pour ces trois populations. Dans sa
version standard, l’échelle ne comporte que ces seuls cinq visages, les nombres indiqués ne servant
que de repères pour les traitements statistiques.
Figure 9.12. Échelle à icônes

Source : VERNETTE É., « Les qualités de l’échelle de mesure à icônes pour une étude marketing internationale »,
Actes du 20e séminaire international de recherche en marketing, IAE d’Aix-en-Provence, 1er-4 juin 1993, pp. 445-468.

4. Quelle échelle retenir ?


En général, les novices préfèrent les questions fermées à choix multiples. Les praticiens
\/|
expérimentés utilisent plus volontiers les échelles. Que conseiller ? L’efficacité des échelles de
$|
mesure a été comparée sous plusieurs angles(287). La figure 9.13. propose une synthèse rapide des
résultats obtenus.
4$

Figure 9.13. Choix d’une échelle de mesure


By

Échelles Fiabilité Validité Rapidité Simplicité


Dichotomique Très bonne Faible Excellente Excellente
Rangs Moyenne Moyenne Bonne à moyenne Bonne à moyenne
Différentiel sémantique Très bonne Bonne Bonne Moyenne à faible
Icônes Bonne Bonne Bonne Bonne
Likert Bonne Bonne Assez bonne Assez bonne
Supports sémantiques Très bonne Très bonne Bonne Bonne

a. Méthodologique : fiabilité et validité


L’échelle à supports sémantiques, et dans une moindre mesure le différentiel sémantique et l’échelle
de Likert, sont les mesures les plus performantes.

b. Pratique : simplicité et rapidité


L’échelle dichotomique et le classement par rangs sont les mesures les plus simples, rapides et bien
acceptées par les répondants. Viennent ensuite l’échelle à supports sémantiques, les icônes et
l’échelle de Likert. On notera que, de manière générale, les répondants éprouvent moins de
problèmes à compléter une échelle de Likert qu’un différentiel sémantique ; en revanche, ce dernier
facilite la communication des résultats, grâce aux possibilités d’illustrations graphiques.
En résumé, il n’y a pas de miracle : les formes les plus pratiques et les plus simples sont les plus
pauvres sur le plan théorique, et vice versa. Notre recommandation sera la suivante :
– privilégier les questions à choix multiples pour toutes les études visant à enregistrer des
comportements : volume et habitude de consommation, activités, etc. ;
– préférer l’échelle à supports sémantiques pour les études portant sur les attitudes des
consommateurs : image, satisfaction, critères de choix d’un produit, intention d’achat. En outre,
l’échelle à icônes offre un compromis intéressant grâce à son caractère pratique et à ses
performances théoriques honorables.

C. Niveaux de mesure
On distingue trois niveaux, selon les propriétés mathématiques des chiffres symbolisant
l’information recueillie. Les mesures nominales, également appelées catégorielles, sont les plus
pauvres. Les mesures ordinales permettent des analyses plus intéressantes, mais complexes. Les
mesures de niveau métrique, enfin, sont les plus riches, les plus connues et les plus intuitives même
\/|
si, malheureusement, on les rencontre moins souvent en marketing.
$|
1. Échelles nominales (ou catégorielles)
4$

Quand une mesure est de nature nominale, « les nombres jouent uniquement le rôle d’étiquettes
permettant d’identifier des objets, des propriétés ou des événements »(288). On se borne alors à
By

affecter des objets (individus) à différentes classes.


Prenons le cas du sexe (figure 9.5. p. 303). La population de référence est découpée en deux
classes : les individus de sexe masculin et les individus de sexe féminin. La « classe » des
individus de sexe masculin est représentée ici, de manière arbitraire, par le chiffre 1. D’une
manière toute aussi arbitraire, le chiffre 2 est affecté aux individus de sexe féminin.
Quand les propriétés étudiées sont de cette nature, les chiffres utilisés n’ont aucune relation entre
eux : ni ordre, ni distance, ni origine. Additionner (soustraire), ou multiplier (diviser) les chiffres 1
et 2 n’aurait aucun sens. La qualité femme d’un être humain n’est ni « plus », ni « moins » quelque
chose que la qualité homme, et inversement. La notion de distance n’aurait pas plus d’intérêt. De
fait, on aurait pu utiliser 23 pour les hommes et 4,8 pour les femmes. Il s’agit d’une pure
convention. Dans ce cas, on utilise les chiffres les plus simples, c’est-à-dire les k premiers entiers
naturels, si k est le nombre de modalités de la variable.

2. Échelles ordinales
Le niveau de mesure ordinal identifie une relation d’ordre entre les propriétés des objets étudiés. Si
l’on demande à un individu de classer des marques par ordre de préférence sur un attribut, la
position de la marque X dans la liste proposée aura une signification précise.
Considérons l’exemple de la figure 9.14. Sur la caractéristique « facilité de digestion », le beurre
est classé premier, l’huile d’olive seconde, la margarine troisième et l’huile de tournesol
quatrième. Le code 1 affecté au beurre n’est donc plus neutre et signifie que le répondant perçoit
cette matière grasse comme possédant une plus grande « quantité » de la propriété (i.e. attribut)
facilité de digestion. Il existe donc bien une relation d’ordre sur cet attribut, qui permet de
différencier les objets comparés. Cette relation se retrouve dans les codes numériques utilisés : 1
est avant 2, lui-même avant 3 et 4.
Figure 9.14. Échelle ordinale
« Classer les 4 types de produits suivants sur chaque caractéristique. Indiquez votre classement dans le tableau ci-dessous, en
donnant 1 au produit que vous jugez le meilleur sur la caractéristique, puis 2 au suivant, puis 3, et 4, enfin, au produit que vous jugez le
moins bon. »

Huile Huile de
Caractéristiques Beurre Margarine
d’olive tournesol
Facilité de digestion 2 1 4 3
Goût 1 2 4 3
Facilité d’utilisation 3 4 1 2
Qualités nutritionnelles 1 \/|3 2 4
$|
Mais on ne peut toujours pas identifier de propriétés de distance. On peut dire, au vu des chiffres
4$

ci-dessus, que le beurre est perçu comme étant plus digeste que l’huile d’olive, elle-même plus
digeste que la margarine. On ne sait rien sur les différences de « facilité de digestion » perçues
By

entre les produits pris deux à deux. Le beurre et l’huile d’olive sont peut-être considérés comme
assez proches, même si le premier est classé devant, et nettement plus digestes que la margarine.
L’échelle utilisée ci-dessus ne nous permet pas d’évaluer les « quantités de différence » entre les
objets, telles que les individus les perçoivent.

3. Échelles métriques (d’intervalle et de ratio)


Le niveau de mesure métrique est le plus complet : en plus des relations d’appartenance et d’ordre,
il conserve les distances et possède une origine (un zéro). La plupart des mesures, au sens classique
du terme, sont de niveau métrique : temps, prix, revenu, distance...
Considérons une liste d’objets, par exemple des modèles de skis, dont nous étudions la variable
« prix ». Prenons un modèle donné, dont le prix est de 250 euros. Cet objet appartient à la classe
des modèles possédant la propriété « coûte 250 euros » (appartenance à une classe). Il coûte plus
cher qu’un modèle à 200 euros, et moins cher qu’un modèle à 270 euros (relation d’ordre). La
différence de prix avec un modèle à 200 euros est de 50 euros, la même, par exemple, qu’avec un
modèle à 300 euros (conservation des distances) : ces 50 euros représentent, dans un cas comme
dans l’autre, la même quantité de l’unité de mesure (i.e. le même pouvoir d’achat). Dire qu’un
modèle coûte 0 euro a peu de sens, mais le zéro sert de base à tous les calculs de différence de prix
(existence d’une origine).
Les théoriciens de la mesure distinguent toutefois deux niveaux de mesure métrique : la mesure dite
d’intervalle (métrique « faible ») et la mesure de ratio, ou de rapport (métrique « forte »). Ces deux
niveaux de mesure se différencient par la nature de leur origine. Dans le second cas, le zéro a une
existence naturelle, qui correspond généralement à l’absence du phénomène étudié, alors que, dans
le premier cas, on le fixe arbitrairement.
a. Mesure d’intervalle
L’échelle de température est un bon exemple d’échelle d’intervalle.

Exemple
Une société de logements collectifs souhaite connaître le comportement des locataires
en matière de chauffage. Parmi les informations à recueillir figure la température de la
pièce d’habitation principale du logement.
Prenons un ménage fictif : l’enquêteur mesure une température réelle de 19,6 oC. Ce
ménage possède donc la propriété « se chauffe entre 19 et 20o ». La température
relevée est supérieure à celle d’un appartement où l’on aurait mesuré 18o et inférieure
à celle d’un autre où l’on aurait mesuré 20,5o (relation d’ordre). De même, une
\/|
différence de 1o avec un autre appartement a une signification : elle indique une
$|
quantité de température. En revanche, ce type de mesure n’autorise pas à conclure que
4$

« 40o est deux fois plus chaud que 20o ». On dit qu’une échelle d’intervalle ne
conserve pas les rapports.
By

En effet, si l’on change d’échelle, et que l’on convertit nos deux températures en
degrés Fahrenheit, ce rapport de 2 disparaît. Le passage de l’échelle des degrés
Celsius à l’échelle de Fahrenheit se fait au moyen de la transformation suivante :

On obtient, au moyen de ces expressions, 40 oC = 104 oF et 20 oC = 68 oF. 104 n’est


pas le double de 68.

Tout provient du fait que l’origine de l’échelle est arbitraire. Le 0 oC et le 0 oF correspondent à des
états de la nature très différents l’un de l’autre. Il n’y a pas, en matière de température, de 0 naturel,
indiscutable ; il est toujours défini par rapport à une référence extérieure(289).
L’échelle d’intervalle à supports sémantiques et l’échelle à icônes, présentées plus haut dans ce
chapitre, possèdent par construction des propriétés d’intervalle. Sous certaines conditions, les
échelles de Likert et le différentiel sémantique peuvent posséder ces propriétés : il suffit
d’appliquer la procédure de calibrage, utilisée par les échelles à supports sémantiques, aux termes
mesurant le degré d’accord(290).
b. Mesure de ratio
L’échelle de prix présentée en premier lieu est une mesure de ratio. Ce niveau de mesure est le plus
sophistiqué, car il conserve les rapports : une paire de skis à 300 euros est bien deux fois plus
chère qu’un modèle à 150 euros. Passons en effet à une autre échelle de prix, par exemple en
convertissant les euros en dollars : 231 USD est toujours le double de 115,5 USD (en prenant un
dollar à 0,77 euro).
Cette propriété de conservation des rapports autorise tous les calculs statistiques. En construisant le
questionnaire, il est donc préférable d’utiliser des variables de niveau de mesure d’intervalle au
moins. Toutefois, certaines variables importantes en marketing sont, intrinsèquement, nominales
(e.g. PCS) ou ordinales (e.g. classement de préférence).
Figure 9.15. Question de forme catégorielle et de niveau de mesure métrique

\/|
$|
La présentation de la question joue sur le niveau de mesure de l’information recueillie. L’âge, par
4$

exemple, est une variable métrique (de ratio) par nature. Si on présente aux répondants des classes
d’âge, le niveau de mesure de l’information devient ordinal, au mieux. Les qualités initiales se
By

perdent puisque l’on ne connaît pas l’âge exact de chaque individu.

4. Synthèse
La figure 9.16. récapitule les trois niveaux de mesure présentés précédemment et donne, pour
chaque niveau, des exemples de variables et de calculs statistiques autorisés. Ces derniers seront
présentés dans les chapitres indiqués.
Nous venons d’étudier les impératifs liés au fond du questionnaire sous l’angle triple du contenu, du
type et de la nature de la mesure de chaque question. Les règles de forme à respecter dans la
construction d’un questionnaire sont tout aussi importantes.

II. Impératifs de forme


En pratique, le fond et la forme d’un questionnaire ne sont pas réellement dissociables. Cela étant,
cette distinction est une simplification commode. Elle va nous permettre d’aborder successivement
les contraintes liées à la rédaction d’un questionnaire, celles relatives à sa structure, à sa
présentation et, enfin, celles touchant à sa codification.
Figure 9.16. Niveaux de mesure et propriétés

* Voir chapitre 11 et guide statistique en ligne. ** Voir chapitres 12 et 13.


\/|
Source : adapté de MALHOTRA N. K., Marketing Research. An Applied Orientation, Prentice-Hall International, Londres, 1993,
$|
p. 278.
4$

A. Rédaction du questionnaire
By

Elle est guidée par de simples remarques de bon sens, malheureusement trop souvent oubliées. En
résumé : le vocabulaire et le style utilisés pour la rédaction d’un questionnaire doivent être ceux
employés par les répondants et non ceux du rédacteur.

1. Vocabulaire utilisé
Les entretiens de groupe sont un outil pertinent d’identification du vocabulaire et des tournures de
phrases propres à la population étudiée. Quelques remarques peuvent néanmoins être formulées.

a. Proscrire le vocabulaire technique


« Technique » est à prendre au sens large. Il peut s’agir d’expressions purement techniques, telles
que : « Comment évaluez-vous les performances d’un moteur à double arbre à came en tête ? »
À moins de s’adresser à des experts de l’automobile, professionnels ou amateurs éclairés, une telle
question pose problème. Il faut éviter ce vocabulaire, sauf si l’étude est menée auprès de
spécialistes, dont on est sûr qu’ils maîtrisent un langage spécifique.
D’une manière plus générale, le jargon du marketing ou du management est également à proscrire.
Exemple
« Pensez-vous que la distribution des produits d’agriculture biologique soit
suffisante ? »
– Le terme distribution a un sens précis en marketing. Le dictionnaire nous donne une
définition différente : c’est l’« acte de répartition à des personnes », dans le sens de
distribution des prix, des rôles, de l’aide alimentaire... Pour le grand public, le mot
distribution implique donc que l’on reçoive quelque chose.
– Les produits d’agriculture biologique (PAB) désignent l’ensemble de la production
alimentaire obtenue selon un cahier des charges excluant notamment l’utilisation de
tout produit issu d’une quelconque synthèse chimique. Ce sont des produits encore
relativement mal connus en France et souvent confondus avec les produits diététiques
ou du commerce équitable. L’utilisation de cette expression est donc source d’erreur.

b. Bannir le vocabulaire ambigu


Nous appellerons ici ambigu tout mot ou expression dont la compréhension prête à confusion, soit
parce qu’il/elle possède intrinsèquement plusieurs sens, soit parce qu’il/elle est subjectif(ve).
\/|
$|

Exemple
4$

Revenons sur la distribution des produits d’agriculture biologique. La compréhension


By

de « suffisant » est subjective et liée aux attentes de chaque individu à l’égard de


l’objet de l’étude. Un répondant peu connaisseur et consommateur occasionnel se
contentera des gammes restreintes proposées en grande distribution et répondra
« oui ». Un consommateur averti sera également positif, car il connaît les magasins où
l’on distribue ces produits et, comme il est motivé, ne tient pas compte de l’effort
nécessaire pour se les procurer. Le chargé d’études se retrouve avec deux réponses
« oui » et n’a pas de renseignement véritable sur la pertinence du réseau de
distribution des PAB.

La perception du temps est également subjective. Il s’agit donc d’éviter les adverbes tels que
« souvent », « rarement » ou autres « de temps en temps » et « occasionnellement ».
Exemple
Soit la question suivante :
« Au cours d’un mois normal, vous venez faire vos courses dans cet hypermarché : »
Très rarement 1
Occasionnellement 2
Régulièrement 3
Souvent 4
Ne sait pas 9
Problème à résoudre :
On constate que deux univers se chevauchent : celui de la « quantité » des visites et
celui de la « régularité » des visites. Les modalités de réponses ne sont pas
cohérentes : « Très rarement » et « Occasionnellement » sont perçues comme proches
l’une de l’autre. Il y a donc fort à craindre que pour une même « quantité » objective
de visites, certains répondants choisissent « Très rarement » et d’autres
« Occasionnellement ». \/|
Solution :
$|
Pour éviter cela, l’utilisation d’ancrages temporels objectifs est préférable. Par
4$

exemple, si l’on s’intéresse au nombre de visites mensuelles :


« Combien de fois par mois venez-vous faire vos courses dans cet hypermarché ?
By

(Considérez un mois sans événement exceptionnel, qui vous amènerait à venir plus ou
moins que d’habitude.) »
Moins d’une fois 1
1 à 2 fois 2
3 à 4 fois 3
Plus de 4 fois 4
Ne sait pas 9

L’ambiguïté peut également provenir de particularismes linguistiques, c’est-à-dire d’utilisations


différentes d’un même mot selon la région, la classe sociale, ou tout simplement la classe d’âge.
Exemple
« Que mangez-vous, généralement, au dîner ? »
Supposons que cette question soit posée dans le cadre d’une étude sur les habitudes
alimentaires des personnes âgées. Les réponses recueillies dans le nord de la France
seront biaisées parce que le « dîner », pour des individus âgés ou de niveau
d’éducation peu élevé, correspond au déjeuner.

En résumé, le vocabulaire employé doit être le plus simple, le moins ambigu possible et adapté à la
population concernée par l’étude.

2. Style de rédaction
Le style de rédaction est également important, car il est fréquemment source de biais, soit dans la
compréhension des questions, soit directement dans les réponses.

a. Style et compréhension des questions


– Style direct
Il faut éviter les questions contenant une négation et s’interdire absolument d’employer des doubles
\/|
négations. La « manipulation » intellectuelle de telles questions est souvent une tâche au-dessus des
$|
moyens du répondant.
4$
By

Exemple
« Ne pensez-vous pas que les hypermarchés ne donnent pas assez de conseils à leurs
clients ? »
Un esprit « normal », dans le contexte d’une étude, c’est-à-dire sans attention ni
concentration particulières, devra s’y reprendre à plusieurs fois avant de saisir le sens
exact de la question. Vous-même, combien de fois avez-vous dû la lire ?

En plus de la complexité, l’interro-négation a le désavantage majeur d’orienter la réponse dans un


sens particulier.

Exemple
« N’est-il pas vrai, selon vous, que le pain est de moins bonne qualité qu’autrefois ? »
Indépendamment de l’opinion réelle du répondant, qui peut être nuancée, la réponse
induite est manifestement positive. Il faut, évidemment, éviter à tout prix de formuler
des questions telles que le répondant se sente obligé de répondre d’une certaine
manière. Que vaut l’information obtenue dans ce cas ?
De la même manière, une question se focalisant sur une seule dimension de l’information
recherchée provoque une réponse biaisée. Elle encourage ce que l’on appelle un biais
d’acquiescement. C’est une tendance naturelle à dire « oui », quand l’issue en jeu n’est pas
fondamentale, ou que l’opinion n’est pas très marquée.

Exemple
« Pensez-vous que la guerre des prix dans la fourniture d’accès à Internet soit une
bonne chose pour le consommateur ? »
Problème :
Les modalités de réponse implicites sont ici « oui », « non » ou « sans opinion ». Le
défaut de cette question est de présenter un point de vue qui n’est pas forcément celui
de tout le monde, et interdit toute nuance dans la réponse.
Solution proposée :
On pourrait reformuler la question de la manière suivante :
« Selon vous, la guerre des prix dans la fourniture d’accès à Internet est, pour le
consommateur : (bénéfique, sans effet, négative, sans opinion) ? »
\/|
Cette fois, la question est neutre, et on offre quatre modalités de réponses à l’individu,
$|
qui couvrent l’ensemble des opinions possibles. Sans être idéale, cette reformulation
permet d’obtenir une question qui n’oriente pas la réponse.
4$
By

– Style bref
Une question devrait rarement dépasser une ligne à une ligne et demie. Que penser de ce qui suit ?

Étude de cas
Une étude est menée dans le cadre d’un cours d’études de marché. Celle-ci porte sur le
comportement alimentaire des étudiants. Une des questions était ainsi rédigée (avec
une réponse recueillie sur une échelle de Likert à cinq postes) :
« Si, selon vous, les étudiants mangent mal en général, pensez-vous que des actions
telles que des ‘‘semaines du goût au RU’’, des séances d’information sur la nutrition ou
des réductions dans les magasins d’alimentation (sur les produits frais par exemple)
pourraient être utiles ? »
Problèmes identifiés :
Cette question est trop longue et rédigée de telle sorte que l’on ne sait pas exactement
sur quoi porte le degré d’accord demandé au répondant. Celui-ci peut juger très
différemment l’utilité, au regard de son propre comportement, d’une semaine du goût
au restaurant universitaire ou de prix abordables sur des produits frais.
Solution proposée :
Il serait préférable d’évaluer l’utilité perçue de chacune des actions en posant ainsi la
question :
« Partons maintenant du principe que les étudiants, de manière générale, mangent de
manière peu équilibrée et irrégulière.
Que pensez-vous de l’utilité des trois actions suivantes, dont le but serait d’améliorer
cette situation ? »

\/|
$|
4$

La première phrase introduit un scénario, à caractère projectif, dont l’intérêt est


double : il désimplique le répondant, surtout si celui-ci se sent coupable de manger
By

« mal », et peut servir de plate-forme à d’autres questions orientées sur le même


thème. La question en elle-même est donc réduite à un peu plus d’une ligne (parce que
nous avons précisé, dans le même temps, le terme « mal »). De plus, chaque action est
évaluée et l’on pourra comparer ensuite l’intérêt relatif de chacune d’entre elles aux
yeux des répondants. Notons que la liste de ces actions pourrait être allongée sans
peine, par exemple au moyen de réunions de groupes.

b. Style et pertinence des réponses


Le style peut directement influer sur la validité des réponses, selon le caractère direct ou non des
questions. Par exemple, si l’on souhaite connaître l’intérêt pour un journal, doit-on demander « Ce
journal vous intéresse-t-il ? », ou faut-il procéder par des voies plus détournées ?
Lorsque l’individu attribue de l’importance au sujet sur lequel il est interrogé, ses mécanismes
psychologiques de défense interviennent si l’on utilise une approche directe. Comme l’écrit
Muchielli : « Les questions directes sur des problèmes importants pour l’individu sont vouées à ne
percevoir que des masques(291). » Le masque est celui d’un répondant logique, cohérent, rationnel et
conforme aux normes sociales. Ce comportement est souvent involontaire : ceux qui mentent ou
trichent de manière réfléchie sont peu nombreux. La figure 9.17. illustre quelques situations
courantes de défense face à des questions « dérangeantes » et les solutions utilisables.
Figure 9.17. Mécanismes de défense psychologique et solutions possibles

Réaction de prestige
Raisons Solutions
Peur de se faire mal juger. Échelles spéciales(292)
Manifestations Recoupements entre questions.
Minimisation des opinions. Plusieurs questions neutres qui, ensemble,
Réponses sous forme de clichés, ce qui est donneront la réponse.
socialement désirable. Enquêteur « neutre ».
Fuite défensive
Raisons
Solutions
Crainte de voir la réponse utilisée contre soi.
Ne pas démarrer par ces questions.
Manifestations
Dépersonnaliser les questions.
« je ne sais pas » ou non-réponse à des
Noyer la question parmi d’autres, plus neutres.
questions personnelles.
Réponse positive
Solutions
Raisons
Inversion des formulations (e.g. dans les
Sensibilité à la suggestion.
échelles).
Manifestations
\/|
Éviter les OUI / NON (ou VRAI / FAUX) pour
$|
Tendance aux « oui » systématiques.
des opinions personnelles.
4$

Références à des personnalités


Raisons
By

Tendance à : soumission, identification.


Manifestations Solutions
L’attitude pour la personnalité évoquée Éviter les références directes.
influence la réponse, si absence d’opinion
précise.
Peur de certains mots
Raisons
Réaction à des mots chargés affectivement, ou Solutions
socialement non désirables. Les remplacer par des équivalents plus neutres
Manifestations (e.g. « guerre » par « conflit »).
Tendance du répondant à radicaliser sa position.
Source : d’après MUCHIELLI R., Le questionnaire dans l’enquête psycho-sociale. Connaissance du problème,
9e éd., ESF éditeur-Entreprise Moderne d’Édition, Paris, 1989, pp. 36-44.

Pour des questions personnellement importantes, l’approche indirecte est donc souvent préférable.
L’utilisation de termes neutres, ou de plusieurs questions indirectes, dont on déduit l’information
recherchée, est un moyen de procéder.
Exemple
Les valeurs de santé, de forme physique, d’apparence du corps... ont beaucoup
d’importance. Pour y parvenir, l’alimentation joue bien entendu un grand rôle, et les
médias spécialisés rivalisent de conseils diététiques.
Problème posé :
Une étude sur les comportements alimentaires au petit-déjeuner, notamment des jeunes,
susciterait probablement beaucoup de réponses de façade. Le petit-déjeuner est
généralement négligé en France. L’approche directe consisterait à demander par
exemple :
« Prenez-vous habituellement un petit-déjeuner ? » (Oui/Non)
« Si oui, dans la liste ci-dessous que prenez-vous en général ? »
Il est probable que la proportion de « Oui » sera importante et que le petit-déjeuner
« type » sera composé d’un jus de fruit, de céréales et de pain, accompagnés de café,
thé ou chocolat : l’image parfaite véhiculée dans les médias ou par les médecins. Or
on sait pertinemment qu’il n’en est rien.
Solution envisageable : \/|
L’approche indirecte donnerait certainement de meilleurs résultats :
$|
« Racontez-moi votre début de matinée habituel, dès votre réveil. »
4$

Bien qu’elle soit ouverte, cette question peut être précodée, ce qui facilite les
traitements statistiques. Et elle permettrait d’avoir une idée certainement plus précise
By

de la proportion d’individus prenant un vrai petit-déjeuner. Cela dit, elle reste un pis-
aller, car les questions ouvertes sont problématiques dans de tels questionnaires. Une
approche entièrement qualitative pourrait être une alternative pertinente.

Le flash-étude 9.1. complète ce tour d’horizon concernant les réponses de façade et les risques de
recueil d’informations invalides qui en découlent.

Flash-Étude 9.1.
Réponses de façade et comportements écologiques
Contexte
Voici deux enquêtes, menées sur les comportements et opinions en matière de protection de
l’environnement. Il en ressort très clairement que des questions directes sur ce sujet conduisent à
des résultats plus que douteux. La raison majeure en est probablement que la protection de
l’environnement est, depuis quelques années, un sujet à « visibilité » sociale très forte et qu’il
est de bon ton d’adopter un discours teinté de vert.
Approche directe
Une première étude a été menée dans les années 1990 auprès d’un échantillon par quotas de
391 personnes, représentatives (sexe et âge) de la population de Chambéry.
On a demandé aux répondants d’exprimer, au moyen d’un différentiel sémantique à cinq postes,
leur sentiment général à l’égard de la protection de l’environnement : 97,4 % la considèrent
plutôt ou vraiment importante et 96,4 % plutôt ou vraiment utile. Dans la même étude, on
s’intéressait également aux intentions d’adopter divers comportements, dans le but de protéger
l’environnement. Entre autres, une question portait sur l’achat de lessives sans phosphates. Les
réponses, recueillies sur une échelle de Likert à six postes – pas d’échelon neutre – furent les
suivantes : « Plutôt d’accord » : 25,1 % ; « D’accord » : 25,6 % ; « Tout à fait d’accord » :
41,4 %. Au total, donc, 92,1 % de réponses favorables à l’utilisation de lessives sans
phosphates.
Ces chiffres inciteraient à l’optimisme si la réalité n’était tout autre. Par exemple, on estimait la
part de marché des lessives sans phosphates à 25 % au début des années 1990(293). Nous passons
donc de 92,1 % « prêts » à utiliser une telle lessive à 25 % qui l’utilisent réellement. Les limites
de l’approche directe sont clairement soulignées !

Approche indirecte \/|


Une deuxième enquête fut mise en place deux ans plus tard. Son objectif, purement pédagogique
$|
et exploratoire, était de décrire le comportement réel, en matière d’achat et d’utilisation de
4$

lessives. La particularité de l’étude est qu’il n’a été, à aucun moment, fait référence à
l’environnement : elle était simplement présentée sous le label « Habitudes d’achat et
By

d’utilisation de la lessive ».
Deux exemples de questions permettent d’illustrer la démarche. Au lieu de demander aux
individus s’ils achetaient ou utilisaient des lessives sans phosphates, on leur a demandé quelle
marque (ou quel modèle exact) ils achètent habituellement. De même, au lieu de leur demander
s’ils jugeaient le critère « respectueux de l’environnement » important dans leur choix, on leur a
demandé de citer spontanément, par ordre d’importance décroissante, les critères ou
caractéristiques des produits conditionnant leur achat.
Les résultats sont révélateurs : la marque de lessive achetée habituellement peut, dans 5 % des
cas seulement, être considérée comme « écologique » ; 62 % des produits achetés sont « pseudo-
écologiques » (i.e. contiennent des détergents ou additifs toxiques) et 29 % sont des lessives
classiques, les plus polluantes ; le critère « écologie » n’est cité que neuf fois, dont deux
seulement en première position, très loin derrière l’efficacité, le prix et l’odeur (respectivement
64, 54 et 28 citations au total).

Conclusion
La fibre écologique du Chambérien, à l’époque, restait verbale. Seule l’approche indirecte
pouvait mettre ce résultat en évidence.
B. Structure du questionnaire
La structure du questionnaire tient à l’ordre d’apparition de ses différents éléments. Des aspects
secondaires tels que longueur et présence de questions « spéciales » sont également à mentionner.

1. Ordre d’apparition des différents éléments du questionnaire


Il se structure autour de sept points qui rythment son déroulement.
La figure 9.18. expose une manière de procéder, du général au précis et du simple au compliqué,
appelée technique de l’entonnoir.
Cette méthode est courante, mais elle n’exclut ni adaptation aux circonstances de l’étude, ni
originalité.
Les recommandations formulées dans le schéma ne doivent pas être considérées comme une règle
absolue, spécialement dans le type de questions à utiliser (ouvertes, fermées, échelles), car nous
avons vu que le choix est guidé en priorité par la nature de l’information à rechercher.

\/|
$|
4$
By
Figure 9.18. Structure d’un questionnaire

\/|
$|
4$
By

a. Phase 1 : présentation de l’enquêteur et de l’enquête


La première chose à dire est bien sûr : « Bonjour Madame (Monsieur) », y compris dans un
questionnaire auto-administré sur Internet. Ceci est malheureusement trop souvent oublié par les
enquêteurs peu expérimentés. La présentation se fait ensuite en quelques phrases.
Exemple
Contexte : L’étude porte sur la notoriété, l’image et la fréquentation des « hard-
discounteurs ».
« Bonjour Madame,
Je m’appelle XYZ et je réalise, pour l’institut ABC, une étude dont le but est de mieux
connaître les relations des consommateurs avec leurs commerçants.
Nous accordons une importance toute particulière à votre opinion, et nous aimerions
vous poser quelques questions à ce sujet. Cela ne prendra que quelques minutes. »
Commentaires : Comme on peut le constater, le sujet exact de l’étude n’est pas
évoqué. De manière générale, il faut s’efforcer de présenter un thème simple, attractif,
proche de la vie quotidienne, qui donne donc envie aux gens interrogés de répondre. Si
l’on avait utilisé d’emblée le terme « hard-discount(ers) », il est probable que
l’expression même aurait été un facteur de blocage. Ne serait-ce que parce que tous
les clients de Lidl ne savent pas forcément qu’ils fréquentent un hard-discount (voir
remarque précédente sur le jargon du marketing).
\/|
En principe, il est souhaitable de cacher le thème exact de l’étude, dès lors que l’annonce de celui-
ci risque de provoquer un biais, soit de réponses de façade, soit de dissimulation ou de refus de
$|
réponse pur et simple.
4$

b. Phase 2 : questions d’introduction


By

Elles sont très générales et formulées de manière à ce que la personne puisse répondre et/ou que sa
réponse soit positive. L’information fournie peut, et c’est le seul endroit « autorisé » dans le
questionnaire, ne pas être utile. Le but de cette (ces) question(s) est de s’attirer la sympathie du
répondant et de l’intéresser au questionnaire qui va suivre.

Exemple
« Quelles sont vos couleurs préférées ? »
La question ci-dessus a servi à introduire un questionnaire visant à tester l’idée d’un
parapluie dont la toile serait interchangeable, autour d’une armature commune. Les
questions se recentraient ensuite vers les couleurs préférées pour l’habillement, le
degré d’attention au mariage des couleurs habillement-accessoires (sac, montre,
parapluie...), la possession d’un parapluie, etc.

c. Phase 3 : questions qualifiantes


Appelées également questions filtres, elles visent à savoir si le répondant possède l’information
recherchée. Selon les cas, on l’aiguille vers telle ou telle partie du questionnaire, ou l’on met fin à
l’interrogation. Leur forme est plutôt dichotomique.

Exemple
« Avez-vous un compte bancaire personnel ? »
Dans une étude descriptive du comportement et de l’attitude des étudiants à l’égard de
leur banque, cette question visait à séparer les répondants en deux groupes. Les « oui »
poursuivaient le questionnaire ; les « non » étaient orientés sur une partie spéciale où
l’on tentait de mettre au jour les raisons pour lesquelles ils n’avaient pas de compte,
puis sur les questions d’identification.

d. Phase 4 : questions de mise en route


Elles servent à centrer progressivement le thème de l’étude, en commençant par des questions
simples, de comportement par exemple, qui ne demandent pas, ou peu, d’effort de réflexion ou de
mémoire de la part du répondant. Petit à petit, les questions deviennent plus complexes et/ou
personnelles.
\/|
Exemple
$|
4$

L’étude vise à décrire les consommateurs de produits biologiques et à identifier les


raisons pour lesquelles ils consomment ce type de produits. Le questionnaire est conçu
By

pour être administré dans des magasins spécialisés.


– Première question assez générale
« Tous les combien venez-vous faire vos courses dans ce magasin ? »
La forme est à choix multiple et réponse unique, sous forme de fréquence d’achat.
– Quatre questions de comportement, assez générales, mais portant sur les produits
biologiques, suivent. Leur complexité augmente progressivement jusqu’à la quatrième,
où l’on demande un effort de mémoire important :
« Quel événement précis vous a poussé à acheter des PAB pour la première fois ? »
(une seule réponse)

e. Phase 5 : questions spécifiques


C’est le cœur du questionnaire : les questions doivent amener les informations les plus importantes
pour l’étude. À ce stade, le répondant s’est imprégné de l’esprit de l’étude et a noué une relation de
sympathie avec l’enquêteur. On peut donc lui demander des efforts de réflexion et/ou des
informations personnelles. La garantie de réussite n’est certes pas totale, mais de toute façon
meilleure que si l’on avait posé ces questions dès le début. De manière générale, par exemple, tout
ce qui a trait aux motivations, aux opinions, aux jugements personnels... doit être inclus à cet
endroit.

Exemple (suite)
La partie du questionnaire portant sur les motivations et freins à l’achat des produits
biologiques démarre à ce moment. Elle prend la forme d’une série d’échelles de
Likert, dont les éléments ont été identifiés par des sessions de groupes nominaux. En
voici un extrait :

Pas du Plutôt Tout


Ni en accord, Plutôt
tout pas à fait
ni en désaccord d’accord
d’accord d’accord d’accord
Ces
produits
ont
1 2 3 4 5
meilleur \/|
goût que
les autres
$|

J’ai des
4$

doutes sur
la
By

1 2 3 4 5
provenance
réelle des
PAB

f. Phase 6 : questions d’identification (fiche signalétique)


Elles décrivent les répondants. On peut utiliser deux types de critères d’identification : les
variables sociodémographiques classiques (sexe, âge, profession...) et des éléments plus
psychologiques (tels que les valeurs personnelles, l’implication pour la catégorie de produit, les
traits de personnalité...). Cette partie fournit les informations qui serviront à classer les répondants
en groupes distincts. Autrement dit, il s’agit de variables de segmentation.
Exemple (fin)
La dernière partie du questionnaire identifie les répondants sur deux variables
psychologiques (implication pour les produits biologiques et valeurs personnelles),
une échelle d’auto-évaluation des connaissances dans la catégorie de produit, et sept
variables sociodémographiques.

2. Présence de questions « spéciales »


Ces questions sont de deux types : les questions qualifiantes, présentées ci-dessus, que l’on appelle
également questions « filtres » (branching questions, en anglais), et les questions « pièges ».
a. Questions filtres
Dès lors que l’on a besoin de distinguer les répondants sur des comportements, des connaissances
ou des caractéristiques particuliers, afin de les orienter sur des parties différentes du questionnaire,
ces questions doivent être utilisées. Il n’est pas obligatoire de les cantonner au début du
questionnaire.
b. Questions pièges \/|
Lorsqu’on a un doute a priori sur la validité ou la cohérence des réponses qui vont être fournies,
$|
souvent parce que le sujet de l’étude est « sensible », on peut inclure des questions dont le seul but
4$

est de fournir un indice sur l’« honnêteté » avec laquelle l’individu remplit son questionnaire.
By
Exemple
L’utilisation de pièges est assez fréquente dans les questions de notoriété, surtout
quand il est valorisant de montrer une bonne connaissance du domaine sur lequel on
est interrogé.
Problème posé :
On sait, par exemple, que les Français, de manière générale, lisent peu. Dans une étude
sur les comportements de lecture, les répondants auront tendance à surestimer leur
consommation.
Solutions possibles :
– On peut insérer une question du type :
« Parmi les titres suivants, lesquels connaissez-vous ? »
Suit une liste de titres d’ouvrages, dont certains sont purement imaginaires. Les
répondants cochant un ou plusieurs de ces titres sont manifestement coupables d’une
« réaction de prestige ». L’ensemble de leurs réponses est alors à remettre en cause.
– On peut aussi insérer deux questions à deux endroits différents, assez espacés, du
questionnaire. Là encore, une incohérence flagrante dans les réponses est significative
\/|
d’un répondant peu scrupuleux, ou tout simplement peu intéressé par l’étude. Dans les
$|
deux cas, il vaut mieux ne pas tenir compte de ses réponses.
4$

« Combien de livres neufs achetez-vous par an, en moyenne, en librairie et/ou sur
Internet ? »
By

« Combien, en moyenne, dépensez-vous par an pour vos achats de livres ? »

C. Mise en page du questionnaire


La présentation du questionnaire ne pose pas de difficultés majeures. Elle relève de la technique de
mise en page d’un document, voire de la compétence d’un artiste graphiste. Dans un grand nombre
de cas, l’utilisation d’un logiciel de traitement de texte suffit. Cinq principes élémentaires peuvent
être rappelés :
– aérer les questions ;
– utiliser de temps à autre des symboles. Ils permettent d’attirer l’attention sur un passage difficile
ou une source d’oubli. Les ressources d’Internet sont aujourd’hui presque illimitées en la matière
(lettrines, WordArt, smileys, etc.) ;
– soigner la typographie du texte : l’alternance des polices est possible, mais ne doit pas être
multipliée à l’excès (deux suffisent largement) ;
– imprimer sur du papier de qualité, avec en-tête de la société ou de l’institut responsable du
questionnaire ;
– utiliser, le cas échéant, de la couleur : la quadrichromie valorise considérablement l’émetteur du
questionnaire, mais conduit à une augmentation sensible des coûts de reprographie. L’impression
bicolore est une solution intermédiaire souvent satisfaisante.
De plus en plus d’outils informatiques, payants ou disponibles gratuitement sur Internet, permettent
une mise en page automatique du questionnaire. La figure 9.19. montre un exemple de questionnaire
rédigé sur Google Drive(294). Il existe d’autres outils de ce type (e.g. http://fr.surveymonkey.com/).
Nous reviendrons plus en détail sur la mise en ligne de questionnaires dans le chapitre 10.
Figure 9.19. Exemple de questionnaire rédigé avec Google Drive (295)

\/|
$|
4$
By

D. Codage du questionnaire
Les logiciels de construction automatique de questionnaire rendent cette phase transparente à
l’utilisateur. En revanche, la construction d’un questionnaire papier destiné à être administré en
face-à-face implique d’y avoir réfléchi.
Le codage d’un questionnaire a pour objectif de faciliter la transformation des informations d’un
état brut (telles qu’elles ont été fournies par les répondants) à un état qui permette leur traitement
statistique.
Inclure le codage dès la rédaction du questionnaire est une tâche délicate pour les débutants. La
première difficulté vient de la distinction à opérer entre une question et une variable.

Exemple
Problème à résoudre :
Le directeur marketing de la société Atomic vous demande d’évaluer la notoriété et
l’image de sa marque sur le marché français. Après avoir bien réfléchi, vous
débuteriez probablement le questionnaire par :
« Veuillez me citer les marques de skis alpins que vous connaissez. »
Ce n’est pas faux, ni inutile, mais incomplet : que faire de l’information recueillie,
c’est-à-dire des 3, 4 ou 5 (ou plus) marques de skis qui vont être citées ?
Solution envisageable :
La simple question ci-dessus peut être à l’origine d’au moins trois variables. En
d’autres termes, on peut en retirer trois informations différentes, utiles pour l’étude.
Une fois précodée, elle pourrait prendre la forme suivante :
\/|
« Veuillez citer les marques de skis alpins que vous connaissez. »
$|
4$
By

Commentaires :
Bien sûr, comme il s’agit d’une question de notoriété spontanée, la liste de marques
n’est pas proposée au répondant. On s’intéresse d’abord à la notoriété spontanée
simple d’Atomic. En d’autres termes, la marque est-elle citée ?
On peut, pour chaque individu, utiliser un simple code « oui = 1 » vs. « non = 0 », que
l’on reporte dans la case « NSATOM ». Ensuite, pour les cas où la réponse ci-dessus
est « oui », l’enquêteur précise le rang auquel Atomic est citée (RGATOM). Le
pourcentage de « 1 » donnera ce que l’on appelle la notoriété « top of mind ».
On pourra également s’intéresser au rang médian de citation, pour voir si la marque est
présente à l’esprit de manière centrale, ou au contraire plutôt secondaire. Enfin, on
note le nombre total de marques citées (NBMCIT), pour évaluer la connaissance
générale de la catégorie de produit par les répondants.

En définitive, le codage se fait en trois étapes :


– Identification de la, ou des, variable(s) relative(s) à chaque question
Normalement, ce doit être fait dès la rédaction des questions, voire dès la définition de
l’information à recueillir.

Cas simple :

Exemple
« Quel âge avez-vous ? » _______________________ ÂGE
_______________________

Cas plus complexe :


Chaque item, c’est-à-dire chaque proposition, est une variable. Les classements de préférence sont
encore plus difficiles à traiter (revoir plus haut l’exemple des types d’huiles de table). Les noms,
ou codes, affectés aux variables sont purement arbitraires. Ils sont choisis en fonction des goûts du
chargé d’études, de leurs qualités mnémoniques ou des impératifs liés au logiciel de traitement
\/|
statistique utilisé (e.g. contraintes sur le nombre de caractères).
$|
4$
By
Exemple

Ni en
Pas du Plutôt Tout à
accord, ni Plutôt
tout pas fait
en d’accord
d’accord d’accord d’accord
désaccord
Ces
produits
ont
1 2 3 4 5
meilleur
goût que
les autres
J’ai des
doutes sur
la
1 2 3 4 5
provenance \/|
réelle des
$|
PAB
4$
By

– Identifier et coder les modalités de réponse aux questions


L’identification des modalités se fait au moment de la rédaction des questions. Elle dépend
beaucoup de l’expérience du chargé d’études dans le domaine étudié.
La préexistence d’une étude documentaire ou d’une étude qualitative est alors d’un grand secours
pour réaliser le codage.
Exemple
« Quelle est votre situation familiale ? »

La solution la plus simple est ici d’utiliser les premiers entiers dans un ordre
croissant. Le code 9 sert ici de « poubelle », pour classer les situations marginales
dont on pourra, éventuellement, ne pas tenir compte dans les traitements.

– Prévoir l’identification individuelle du questionnaire, de l’enquêteur et de la personne


interrogée
\/|
L’identification du questionnaire se fait en principe automatiquement par les logiciels statistiques.
Cela étant, il peut être utile, par sécurité, d’identifier chaque questionnaire par un numéro d’ordre.
$|
Cette identification peut être couplée à celle de l’enquêteur, et permet de contrôler a posteriori la
4$

qualité du travail effectué.


By

Exemple
Lors de l’enquête sur la protection de l’environnement, l’identification du
questionnaire et de l’enquêteur se faisait par un code à quatre chiffres. Les deux
premiers chiffres indiquaient qui était l’enquêteur (en réalité ils travaillaient par
équipes de deux) et les deux suivants indiquaient le numéro de questionnaire pour
l’équipe. Ce code donnait naissance à une variable « NUMQUES », intégrée aux
données de l’enquête.

On note également la date et le lieu exact où fut administré le questionnaire. L’information sert aussi
au contrôle du travail des enquêteurs, mais peut être utile si l’on pense, par exemple, que certaines
réponses varient d’un quartier à l’autre.
L’identification précise de la personne interrogée n’est pas systématique mais peut également se
justifier. Il faut le faire avec précautions, car on déroge alors au principe d’anonymat qui est la
règle en matière d’étude. Cela étant, la motivation est double : à nouveau le contrôle des enquêteurs
– si on dispose d’un nom et d’un numéro de téléphone, on peut vérifier que le questionnaire a bien
été administré le jour dit et à la personne indiquée, et comment il a été administré – et la nécessité
éventuelle de devoir administrer aux mêmes individus plusieurs questionnaires – identiques ou
différents –, à des intervalles de temps espacés. On peut ajouter la nécessité de retrouver la
personne pour le cas où une récompense est attribuée à certains répondants (par une tombola par
exemple).

E. Prolongements
Lors de la discussion sur les questions ouvertes, il a été dit qu’il fallait éviter de mélanger dans un
même questionnaire des questions fermées et des questions ouvertes appelant des réponses
discursives non codifiables a priori. Cette pratique a néanmoins ses défenseurs et se développe.
Nous ferons un point rapide sur le sujet. Puis nous terminerons ce chapitre par une synthèse sur les
éléments qui permettent d’aboutir à un questionnaire « idéal ».

1. Enquêtes mixtes : une pratique qui se développe


Les méthodes mixtes de recherche se définissent comme « l’ensemble des procédures de collecte et
d’analyse de données quantitatives et qualitatives menées dans le cadre d’une même étude ». Leur
usage se développe dans la pratique des études, en dépit de la traditionnelle opposition entre les
deux approches. Nous allons successivement présenter une discussion générale sur l’intérêt d’une
telle approche puis un exemple d’application, fondé sur l’utilisation d’un « mur d’images ».
a. Intérêt d’une approche mixte
\/|
$|
Le flash-étude 9.2. présente les principaux arguments de Daniel Bô, fondateur de Quali-quanti,
4$

société spécialisée dans les approches mixtes(296).


By

Flash-Étude 9.2.
« Vers des études quanti plus quali »
Comprendre est devenu aussi primordial que mesurer dans les études quantitatives. L’approche
qualitative s’applique à la fois au recueil des données à travers des questionnaires suffisamment
ouverts et à leur traitement grâce à l’analyse de contenu approfondie des questions ouvertes.
Les études quantitatives lourdes (panels consommateurs, études de marché...), dont l’objectif
prioritaire est la précision de la mesure, sont inadaptées à une approche qualitative. En
revanche, la dimension qualitative est devenue une composante essentielle des études
quantitatives « légères » établies sur des petits échantillons (pré-tests ou post-tests de
perception).

Un format d’interview plus ouvert


L’ouverture des questions présente des avantages sur le plan du contenu de l’interrogation et sur
le plan ergonomique. Lors de la phase terrain, les questionnaires trop mécaniques incitent les
interviewés à répondre de façon machinale et superficielle. Pour bien fonctionner, le
questionnaire doit au contraire donner envie au répondant de s’impliquer dans ses réponses.
L’alternance questions ouvertes/questions fermées donne un espace de liberté suffisant pour qu’il
s’exprime avec un minimum d’encadrement. Cette approche semi-ouverte est pertinente quel que
soit le mode d’administration.

L’éclairage du quanti par le quali


Dans les enquêtes quantitatives, la subjectivité intervient à trois niveaux : lorsque la question est
énoncée par l’interviewer, lorsqu’elle est décodée par le répondant puis lorsque le résultat
chiffré est interprété. Ajouter des questions ouvertes peut éclairer le résultat. Ainsi, pour
analyser une mesure d’intention d’achat, le recours à une double question ouverte sur « ce qui
incite/n’incite pas à acheter » est très utile. Une campagne de publicité peut plaire à travers une
question fermée très positive mais pour des mauvaises raisons, incompatibles avec la stratégie
de la marque.

L’analyse lexicale et l’analyse de contenu


Lorsqu’un interviewé qualifie un packaging de « vieillot » ou de « ringard » il exprime à travers
le choix de ce mot bien plus qu’une mesure d’appréciation. Ce choix est fondé socialement et
culturellement. L’utilisation de questions ouvertes en quantitatif pose ainsi la question du mode
de traitement des données textuelles. L’analyse lexicale permet d’étudier le langage
(l’énonciation), la codification permet d’analyser le contenu des réponses (l’énoncé). L’analyse
\/|
lexicale est efficace si la question est structurée (e.g. citer trois adjectifs ou trois noms de
$|
marques). En revanche, lorsque les réponses sont exprimées sous forme de phrases, la
4$

codification (qui peut être assistée par ordinateur) et l’analyse de contenu s’imposent.
By

La découverte progressive et le bilan d’expériences


On a constaté que la plupart des formats d’interviews sur des échantillons de moins de 300
personnes pouvaient être traités de façon qualitative. Dans le pré-test d’un produit, ou d’une
publicité, avec un questionnaire incluant une quinzaine de questions ouvertes, on recueille
d’abord les premières impressions spontanées après exposition rapide. Puis l’interviewé est
invité à se familiariser avec l’objet testé et est interrogé sur les différentes dimensions du
produit. En fin de questionnaire, il peut faire un bilan sur ses motivations et freins à travers des
questions ouvertes et fermées.
Dans cette structure d’interview, le questionnaire suit un rythme naturel et fluide. Mis face à une
série de stimuli, le répondant est en permanence dans le ressenti et vit le questionnaire. Les
questions utilisées à chaque étape de la découverte sont neutres et focalisent progressivement
l’attention de l’interviewé sur tel ou tel aspect du support testé. C’est seulement dans la dernière
partie du questionnaire qu’il réagit à des remarques, hypothèses ou items proposés de l’extérieur.
Les questions ouvertes sont également très opérantes sur :
– les premières impressions face à un support ;
– les évocations, valeurs et idées associées à un univers de référence ;
– la mémorisation, révélatrice de la façon dont un objet a été compris et appréhendé ;
– l’usage d’un produit ou d’un service, en collectant la richesse d’expériences accumulées par
une multitude d’utilisateurs ;
– les motifs d’appréciation/de non-appréciation et plus généralement tout ce qui concerne
l’explicitation de questions fermées, afin de savoir ce à quoi les interviewés pensent lorsqu’ils
se situent sur une échelle.

Les arguments présentés dans le flash-étude 9.2. sont évidemment recevables. Deux limites de ce
« savant mélange » doivent cependant être gardées en tête :
– à question comparable, la richesse du verbatim recueilli pour une question ouverte dans une étude
quantitative est sans commune mesure avec le discours produit lors d’un entretien semi-directif. Les
capacités de rédaction de la plupart des répondants sont limitées et le mode écrit est peu propice à
l’élaboration de raisonnements enchaînés. L’information recueillie est donc plus riche que dans une
étude purement quantitative mais bien plus pauvre que dans une « vraie » étude qualitative ;
– les méthodes de traitement des questions ouvertes (analyse lexicale, analyse de contenu), comme
les méthodes de traitement statistique, sont sophistiquées et demandent une réelle maîtrise. Peu de
chargés d’études possèdent au même niveau ces deux types de compétences, malheureusement peu
complémentaires.
Illustrons maintenant un exemple d’application d’étude mixte.
\/|
b. Un exemple d’application : le mur d’images(297)
$|
4$

Les méthodes mixtes se distinguent par une mise en œuvre séquentielle ou simultanée, la priorité
donnée au quantitatif ou au qualitatif, et une focalisation sur la collecte ou l’interprétation des
By

résultats. Le mur d’images mobilise simultanément des mesures visuelles, verbales et numériques.
Il s’agit en effet d’enregistrer les réactions des consommateurs face à des images, et de leur
demander de se positionner sur des échelles d’attitude et sur des questions fermées.
Le protocole du « mur d’images » consiste à demander au répondant de sélectionner plusieurs
images parmi un large choix de photographies en guise de réponse à une question.
Exemple
Étude sur les comportements liés à la boisson
Le mur d’images est proposé au tout début de l’enquête. Le répondant doit choisir trois
photographies parmi trente-six en réponse à la question :
« Que signifie ‘‘boire’’ pour vous ? Veuillez choisir trois images dans le mur ci-
dessous, qui représentent ce que ‘‘boire’’ signifie pour vous. »
Dans l’écran suivant, les trois images choisies sont présentées à nouveau et le
répondant est amené à justifier son choix, avec ce texte : « Vous avez choisi les images
suivantes pour représenter ce que “boire” signifie pour vous. Pouvez-vous nous dire
en quelques phrases ce que vous aviez à l’esprit quand vous avez choisi ces images et
pourquoi vous les avez sélectionnées ? » D’autres questions plus classiques
s’ensuivent, mesurant comportements, attitudes et autres motivations.
La recherche des images s’est faite sur Internet, par des mots-clés liés au sujet de
l’étude. Utiliser Google est une option efficiente car elle capte – par nature – les
représentations parmi les plus populaires de la rubrique concernée(298). Les images
doivent couvrir toutes les dimensions théoriques et pratiques du sujet.
Dans l’étude, les images suivantes ont été utilisées :
\/|
$|
4$
By

La mise en correspondance du choix des images et des réponses aux questions qui
suivent permet différents types d’analyses. L’analyse des correspondances
(chapitre 14) est un moyen pratique pour cela. Par exemple, les images liées à l’eau
sont associées à des dimensions de santé, d’étanchement de la soif et de praticité. À
l’opposé, l’alcool est plutôt lié à la socialisation et à l’amusement.

Au-delà de cet exemple particulier, l’utilisation d’images comme modalités de réponse est un
moyen de rendre un questionnaire attractif et interactif et, ainsi, de le rendre plus efficace. Mais
qu’est-ce qu’un questionnaire idéal ?

2. Synthèse : comment construire le questionnaire « idéal » ?


Il y aurait beaucoup à dire pour caractériser cette notion de questionnaire « idéal ». En pratique, il
s’agit d’un questionnaire qui optimise la quantité et la qualité de l’information recueillie. Deux
indicateurs quantitatifs courants sont le taux de réponse et le taux de remplissage. On peut leur
ajouter le taux d’abandon. Le taux de réponse est le nombre de questionnaires remplis sur le
nombre de répondants sollicités. Le taux de remplissage est le nombre de questions renseignées sur
le nombre total de questions. Le taux d’abandon est le nombre de répondants quittant le processus
avant la fin du questionnaire. Le plus courant est de le rapporter au nombre de personnes ayant
commencé à remplir ce questionnaire. Parmi les indicateurs qualitatifs, une variante du taux de
remplissage s’intéresse au type de questions non ou mal remplies (échelles, questions ouvertes ?).
De même, le style de réponse aux échelles est un signal de motivation du répondant. Celle-ci est
faible lorsque certains individus se concentrent sur quelques points de l’échelle, montrant ainsi un
schéma de réponse quasi automatique.
Au-delà des recommandations générales sur le fond et la forme du questionnaire, beaucoup de
travaux ont tenté d’identifier les caractéristiques susceptibles d’optimiser la performance d’un
questionnaire sur ces critères. Ces travaux reposent sur des approches expérimentales et des bases
d’observations composées de plusieurs centaines d’enquêtes réelles.
La figure 9.20. synthétise les résultats obtenus par ces études, en partant d’une base de
questionnaire « type ». Le flash-étude 9.3. aborde la question d’une manière plus empirique mais
pose le problème du décalage entre la rationalité demandée au répondant pour remplir un
questionnaire et la réalité de ses décisions de consommation, largement fondées sur ses émotions.
Figure 9.20. Structure « type » d’un questionnaire (299)

Valeur
Thème Sujet Indicateur \/| Commentaire
« idéale »
$|
Un questionnaire
Longueur du
4$

Nombre de questions 30 court minimise le


questionnaire
taux d’abandon
By

Questions plus
longues acceptables
Longueur des pour des répondants
Nombre de mots 8
questions « compétents » (e.g.
collaborateurs,
Volume experts)
Nombre de
Nombre de modalités
modalités de 4-5
par question fermée
réponses
Nombre moyen de
Précision des répondants par
30 minimum
questions fermées modalité de question
fermée
Un style direct
Nombre de verbes par
1 minimise le taux
question
d’abandon
Nombre de
Complexité de la conjonctions de
formulation 0
coordination par Observé en
question moyenne : 0,1
Syntaxe

Nombre de négations Observé en


0
par question moyenne : 0,03
Rapport questions
ouvertes texte / 0,2
Répartition des questions fermées
différents types de
questions Rapport questions
échelles / nombre total 0,27
de questions
Poids maximum du
comportement en
Poids des quatre
partie 1, Opinions
Structure thématique thèmes sur les quatre
Structure en partie 2,
du questionnaire parties du
Besoins en
questionnaire
partie 3, Identité
en partie 4
\/|
$|
L’attractivité et l’interactivité d’un questionnaire sont essentielles :
4$

– L’attractivité. Elle est liée aux critères énoncés ci-dessus. On peut y ajouter la présence d’images
pour les questionnaires auto-administrés. Elles peuvent être utilisées comme simple élément
By

d’illustration. Dans ce cas, leur effet positif n’est pas prouvé, car elles ont tendance à allonger le
temps d’affichage à l’écran des pages des questionnaires en ligne. Elles peuvent également être
intégrées comme modalités de réponse. Dans ce cas, il semble qu’elles améliorent le taux de
réponse(300).
– L’interactivité. Elle est relative à la possibilité de donner un retour d’information au répondant en
temps réel. Elle est reconnue comme un facteur important de motivation. Son effet est surtout
sensible sur la richesse des réponses aux questions ouvertes dans les enquêtes quantitatives. Pour
les enquêtes purement quantitatives, son intérêt semble être de « faire oublier le temps » au
répondant en l’amusant, ce qui peut diminuer le taux d’abandon.
Flash-étude 9.3.
Le questionnaire comme expérience culturelle enrichissante
Extrait d’une interview de Daniel Bô par François Laurent, co-président de l’Adetem(301)
François Laurent : Tu considères qu’un questionnaire doit être une « expérience culturelle
enrichissante ». N’est-ce pas exagéré ?
Daniel Bô : Je ne dis pas que c’est toujours possible, mais cela doit être un objectif. Lorsqu’on
regarde le paysage des questionnaires proposés sur Internet, je constate qu’ils sont de plus en
plus soignés sur le plan du design, mais souvent fastidieux et décevants. [...] Pour le secteur des
études, la bonne volonté des interviewés est une matière première quasi gratuite, il faut la
préserver. L’individu prend le contrôle, et le sait : on le voit dans tous les domaines du marché.
Il n’y a pas de raison que les études échappent à cette tendance.
FL : Comment peut-on concrètement construire ces expériences enrichissantes ?
DB : Les instituts d’études doivent passer d’études mécaniques à des études émotionnelles. Ils
doivent chercher à susciter l’enthousiasme des interviewés. La première chose est de se mettre à
la place de l’interviewé et de trouver des manières de stimuler l’activité cérébrale. [...] Voici
quelques règles de base pour construire un questionnaire motivant débouchant sur une expérience
impliquante :
\/|
$|
– un sujet intéressant et attractif : le sujet doit être intéressant et s’il ne l’est pas a priori, il faut
le rendre intéressant ;
4$

– se sentir guidé dans le déroulement de l’enquête ;


By

– des questions précises et immédiatement compréhensibles ;


– le sentiment de pouvoir s’exprimer et d’être utile ;
– une enquête qui fait le tour du sujet ;
– une enquête ludique et animée ;
– une durée d’interrogation en adéquation avec le niveau d’implication ;
– un format de questionnaire qui favorise une réponse réfléchie.
[Le questionnaire doit] susciter des réactions, mobiliser les émotions, les souvenirs, le ressenti,
l’imagination. Les interviewés doivent recevoir dans la mesure du possible des feedbacks en
cours ou en fin de questionnaire.
FL : As-tu des exemples de questionnaires stimulants ?
DB : En éditorialisant certains questionnaires, on peut doubler le taux de retour alors qu’au final
les mêmes questions auront été posées. Le configurateur proposé par Harris Interactive, où
l’interviewé construit son offre idéale à l’aide d’un logiciel, montre qu’une interrogation peut se
faire sous forme de jeu. [...] Un moyen à la portée de tous pour dynamiser un questionnaire
consiste simplement à mettre des supports tout au long du parcours (images, vidéos, liens vers un
site web...). Cela permet à la fois d’introduire des stimuli émotionnels et de gratifier
l’interviewé en lui apportant de l’information ou du plaisir.
Conclusion
Nous avons, dans ce chapitre, passé en revue les règles de fond et de forme à prendre en compte
dans la rédaction d’un questionnaire. Les premières se réfèrent en premier lieu au contenu des
questions, c’est-à-dire à l’information que l’on cherche à obtenir. Le type (ou la forme) de la
question correspondante est un second critère de fond, lié plus ou moins étroitement à la nature de
la mesure sous-jacente, qui en constitue le troisième. Une réflexion trop superficielle sur ces deux
derniers critères peut, au bout du compte, limiter considérablement l’étendue des traitements
statistiques applicables aux données et, par conséquent, restreindre la portée des analyses que l’on
mènera sur le problème traité.
Les règles de forme ont trait, pour une part, à la rédaction proprement dite du questionnaire. Les
choix du vocabulaire et du style de rédaction sont typiques de cette problématique. Par ailleurs, on
doit réfléchir à la structure du questionnaire, c’est-à-dire à l’ordre dans lequel vont apparaître les
différentes questions. Enfin, un questionnaire ne saurait être achevé avant que l’on y ait inclus un
codage qui permettra à l’information recueillie d’être beaucoup plus rapidement exploitée, dans
l’hypothèse, systématique aujourd’hui, d’un traitement informatisé des données.
La multiplication des enquêtes a eu, ces dernières années, un effet plutôt négatif sur le taux de
réponse et la qualité des informations recueillies. La conception du questionnaire est une étape clé
de plus en plus stratégique pour optimiser le « rapport qualité-prix » de l’enquête. Un questionnaire
\/|
attractif et interactif, intégrant notamment des images, est mieux perçu qu’un formulaire classique.
La massification de l’usage d’Internet et le développement d’outils informatiques de plus en plus
$|
puissants et conviviaux ont permis d’intégrer cette préoccupation dans un cadre de réflexion visant
4$

à intégrer de la collecte et du traitement qualitatif dans des études quantitatives.


Ce chapitre avait pour objectif de permettre d’éviter les erreurs les plus grossières. Cela étant,
By

personne, même l’enquêteur le plus chevronné disposant des outils informatiques les plus
sophistiqués, n’est à l’abri d’une erreur grossière dans son questionnaire. L’expérience, seule,
permet de minimiser l’imperfection.
L’administration du questionnaire est un autre facteur de réussite, ou d’échec, de l’étude. Ce point
fait l’objet du chapitre suivant.
Test de connaissance
(Cochez une seule réponse par question.)
Q1. Une question dichotomique appelle une réponse :
(1) double, après choix parmi plusieurs modalités
(2) unique, après choix entre deux modalités
(3) basée sur celle donnée à une question précédente
Q2. Qu’est-ce qu’une échelle d’intervalle à supports sémantiques ?
(1) une échelle sans codes numériques
(2) une échelle où l’on demande un degré d’accord ou de désaccord
(3) une échelle où les ancrages verbaux sont à des distances psychologiquement égales
pour le répondant
Q3. Dans une mesure de ratio :
(1) le zéro est naturel \/|
(2) le zéro est toujours au milieu
$|
(3) le zéro est fixé arbitrairement
4$

Q4. Une question ne devrait pas dépasser :


By

(1) une dizaine de mots


(2) deux lignes
(3) une demi-page
Réponses : voir annexes téléchargeables sur www.vuibert.fr

Bibliographie
FENNETEAU H., Enquête : entretien et questionnaire, coll. « Les Topos », Dunod, 2002.
GIDEON L. (coord.), The Handbook of Survey Methodology in Social Sciences, New York,
Springer-Verlag, 2012.
GREEN P. E., TULL D. S. et ALBAUM G., Research for Marketing Decisions, 5e éd., Prentice-Hall
International, 1988, chap. 5 et 8.
LUCK D. J. et RUBIN R. S., Marketing Research, 7e éd., Prentice-Hall International, 1987, chap. 9.
MALHOTRA N. K., Marketing Research. An Applied Orientation, Prentice-Hall International, 1993,
ch. 9 à 12, 15.
MUCHIELLI R., Le questionnaire dans l’enquête psycho-sociale, 9e éd., ESF Éditeur-Entreprise
moderne d’édition, 1989.
TASHAKKORI A. et TEDDLIE C., Handbook of Mixed Methods in Social and Behavioral Research,
Sage, 2003.

Webographie
http://www.websm.org/
http://www.qualiquanti.com/
http://testconso.typepad.com/marketingetudes/
http://cmoresearch.com/

\/|
$|
4$
By
Chapitre 10

Administration du questionnaire
L’abondance est le fruit d’une bonne administration.
J. JAURÈS

La construction d’un questionnaire est une étape longue, difficile et ingrate, car son efficacité n’est
jamais garantie. Une fois la rédaction achevée, on soumet le questionnaire à l’échantillon retenu :
c’est l’administration du terrain, dernière phase du processus de collecte des données.
Cette phase se décline en trois étapes, décrites dans la figure 10.1. Elles serviront d’ossature à ce
chapitre. Le pré-test du questionnaire sert à repérer ses principales imperfections. Il sera abordé
dans un premier temps.
\/|
$|
Le mode d’administration retenu, entre face-à-face, téléphone et Internet influence grandement la
qualité des résultats obtenus. Les différentes manières d’administrer le questionnaire feront l’objet
4$

d’une deuxième partie.


By

Enfin, la qualité de la collecte doit être soumise à des contrôles : leur présentation clôturera ce
chapitre.
Figure 10.1. Plan du chapitre

\/|
$|
4$

I. Pré-test
By

Le pré-test d’un questionnaire consiste à administrer celui-ci à un petit nombre d’individus


appartenant à la population de référence de l’étude, dans le but de repérer les erreurs commises.
Nous allons successivement reprendre les principaux éléments de cette définition.

A. Modalités de mise en œuvre


1. Administration
Elle est réalisée dans les conditions réelles de l’étude, au moyen de la méthode retenue. Cela étant,
certains auteurs recommandent, quelle que soit la méthode finale d’administration choisie, de
procéder à un premier pré-test en face-à-face, c’est-à-dire au moyen d’enquêteurs, si possible
chevronnés.
Une bonne solution est d’inclure le concepteur du questionnaire parmi ces enquêteurs. Celui-ci, en
effet, repère assez bien les dysfonctionnements de son travail, dus à des mauvais choix de
vocabulaire, de modalités de réponses, d’enchaînements de questions, etc. Éventuellement, cette
première opération peut associer d’autres chargés d’études : leur objectivité est utile pour
l’évaluation des documents. Les discussions engagées obligent en outre le concepteur à justifier la
présence de chaque question par rapport aux objectifs de l’investigation.
Un second pré-test intervient ensuite dans les conditions réelles de l’étude. Son but est de déceler
les problèmes spécifiques à la méthode choisie. Mais la lourdeur de cette solution, excellente en
théorie, la rend peu applicable dans la pratique commerciale.

2. Effectifs à interroger
Il n’existe pas de règle absolue. Si la population est très petite, par exemple les entreprises
parrainant le cyclisme professionnel, il faudra se limiter à un ou deux questionnaires. Pour une
enquête grand public, la taille recommandée va de 15 à 30 personnes.

3. Échantillonnage
Il est essentiel que les individus interrogés pour le pré-test soient issus de la même population que
ceux de l’échantillon définitif. Il ne s’agit pas d’interroger les mêmes personnes deux fois, mais de
retenir des individus semblables, en fonction des critères de définition de la population.

Exemple
Une étude a pour objet d’identifier les motivations et freins à l’achat d’une marque de
cosmétiques dont la cible est constituée de femmes actives âgées de 25 à 40 ans. Il est
peu utile de réaliser un pré-test sur un échantillon d’étudiantes. Leurs motivations et
\/|
comportements en matière de cosmétiques sont différents de ceux de femmes plus
$|
âgées et argentées. Leurs réactions à l’égard du questionnaire risquent donc d’être
4$

également différentes.
By

Sauf circonstances particulières, l’échantillon de pré-test et l’échantillon final doivent être


sélectionnés par la même méthode.

B. Détection des erreurs


1. Nature des erreurs
a. Mauvais choix de vocabulaire ou de style
Les répondants ne comprennent pas ce que l’on attend d’eux et demandent fréquemment des
explications à l’enquêteur. Le danger est alors double. D’un enquêteur à l’autre, les explications
peuvent varier, ce qui revient à poser des questions différentes. Les réponses sont alors
difficilement comparables. Le second danger est celui d’une lassitude rapide : la personne ne
demande plus d’éclaircissements et répond au hasard ou met fin à l’entretien. Pour les
questionnaires auto-administrés cette erreur débouche sur un fort taux d’abandon.

b. Mauvais choix de modalités de réponses


On est dans cette situation lorsque, pour une variable donnée, 80 % des réponses se concentrent sur
une seule modalité, ou sur une modalité « autre », « ne sait pas » ou « refuse de répondre ».
L’univers des réponses possibles a été mal apprécié, il faut réinterpréter les résultats de la phase
exploratoire, ou songer à en faire une si cette étape a été éludée.

c. Erreurs dans la conception et la localisation des questions filtres


Certains renvois peuvent être inexistants ou erronés après une modification du questionnaire. En
outre, les « aiguillages » peuvent ne pas tenir compte de toutes les situations.

Exemple
Une étude portait sur les relations des étudiants avec leur banque. L’une des questions
figurait ainsi :
Q8 – « Avez-vous un ou plusieurs comptes épargne ? »
Oui 1 Non 2 (Aller question 12)
Pour ceux ayant répondu « non », la question 12 était :
Q12 – « Avez-vous fait signer une procuration ? »
À cette question, les non-possesseurs de compte épargne ont logiquement répondu non.
Ce qui a diminué artificiellement la proportion d’étudiants ayant signé une procuration
\/|
pour leur compte. En réalité, l’examen du questionnaire a montré que le renvoi aurait
$|
dû être fait à la question 13.
4$

d. Manque de clarté des instructions d’emploi


By

Ce point concerne surtout les questionnaires auto-administrés. Si les instructions d’emploi ne sont
pas claires ou pas complètes, le taux de réponse va être dégradé.
Le pré-test avec enquêteurs est le seul moyen de repérer ce type d’erreur.

2. Mode de détection des erreurs


Deux techniques voisines peuvent être utilisées.
a. Méthode des protocoles verbaux
Cette technique, présentée dans le chapitre 4, demande au répondant de formuler à voix haute ses
réactions et remarques à l’encontre du questionnaire tout en le remplissant. Lorsque c’est possible,
on enregistre ces réactions pour mieux les analyser ensuite.
b. Technique du debriefing
Le répondant remplit normalement le questionnaire, dans les conditions finales prévues de
l’enquête. Puis on explique qu’il s’agit d’un pré-test et on indique les objectifs de ce dernier. Le
répondant précise alors la signification de chaque question, explique ses réponses et expose tous
les problèmes qu’il a pu rencontrer en cours de route.
Lorsque les moyens alloués à l’étude sont limités, on se contente de demander à l’enquêteur de
noter sur le questionnaire l’essentiel des remarques formulées par le répondant.
En résumé, le pré-test est une opération majeure de contrôle préventif de la qualité d’une étude. Un
pré-test complet comporte trois étapes : test auprès d’experts, test en face-à-face avec un
échantillon de répondants appartenant à la cible de l’étude, test similaire, mais avec la méthode
d’administration sélectionnée pour l’étude réelle. À chaque étape, les erreurs sont progressivement
éliminées. Dans la pratique commerciale, on doit adapter ces recommandations aux contraintes sur
les délais et sur le budget.

II. Méthodes d’administration


Faut-il d’abord choisir la méthode, et rédiger ensuite le questionnaire, ou l’inverse ? Les réponses
théoriques et celles effectivement pratiquées diffèrent. Examinons les arguments en balance, avant
de présenter les différents modes de recueil de l’information.
En théorie, le choix de la méthode d’administration dépend du questionnaire, qui découle lui-même
de l’information à rechercher, c’est-à-dire des objectifs de l’étude.
La nature de l’information recherchée (comportement, opinion...) détermine le type de question à
poser (ouverte, fermée, échelle...) qui, à son tour, détermine le mode de recueil. Si l’on cherche à
recueillir une attitude, le type de question le plus approprié est l’échelle. Il s’agit d’un type de
\/|
question complexe, pour lequel l’élément visuel est important. Le mode de recueil recommandé,
$|
dans ce cas, est donc l’auto-administration « assistée » quelle qu’en soit la forme (face-à-face,
4$

CAPI ou CAWI avec assistance de type « FAQ », sous forme de texte ou d’avatar).
En pratique, le budget alloué à l’enquête conditionne souvent le choix du mode de collecte, ainsi
By

que la taille de l’échantillon, comme l’illustre la figure 10.2 ci-après.


Les méthodes d’administration des enquêtes peuvent être classées en trois catégories (figure 10.3.).
La figure 10.4. donne la part des différents modes d’administration dans le marché global des
études. On assiste depuis quelques années à une très forte progression des enquêtes en ligne, au
détriment des autres modes d’administration.
Les enquêtes en face-à-face, par téléphone, par voie postale, par téléphone et en ligne seront
successivement présentées. Un cinquième point propose une comparaison de leurs mérites et limites
respectifs.
Figure 10.2. Moment du choix de la méthode d’administration

Figure 10.3. Panorama des méthodes d’administration des questionnaires

\/|
$|
4$
By

Figure 10.4. Part des modes d’administration dans le marché des études en France (302)

Mode de recueil
2007 2008 2009 2010
quantitatif
Face-à-face 37 % 31 % 33 % 28 %
Internet 21 % 25 % 31 % 41 %
Téléphone 30 % 33 % 27 % 25 %
Voie postale 5% 5% 5% 3%
Tests en salle 7% 6% 4% 3%
Mode de recueil
2007 2008 2009 2010
qualitatif
Réunions de groupes 60 % 56 % 48 % 48 %
Entretiens individuels 23 % 25 % 25 % 24 %
Internet 6% 5% 10 % 12 %
Autres 11 % 15 % 17 % 16 %

A. Face-à-face
Les enquêtes en face-à-face mettent en présence un enquêteur et le répondant. Comme l’indique la
figure 10.3, on peut distinguer trois manières de procéder : les interviews à domicile, les
interviews dans la rue ou en sortie de caisse et les interviews menées directement au moyen d’un
ordinateur.

1. Enquête à domicile
Les individus composant l’échantillon sont interrogés à leur domicile. Le travail de l’enquêteur
consiste alors à contacter les répondants, à fixer un rendez-vous et à administrer le questionnaire.
\/|
$|
Les enquêtes à domicile sont la méthode la plus coûteuse, essentiellement à cause du coût des
enquêteurs (rémunération, formation, temps de déplacement, recherche des interviewés). Le temps
4$

nécessaire à l’administration est également long. Pour cela, elles sont surtout utilisées dans les cas
suivants :
By

– étude complexe : l’enquêteur est là pour aider le répondant à remplir, pour lire les questions,
donner des précisions, éviter des oublis ;
– questionnaire long : la présence de l’interviewer limite les oublis, abandons en cours de route, ou
questionnaires bâclés ;
– présentation de produits, emballages, publicités : l’enquêteur gère l’ordre d’apparition, donne les
informations sur les tâches à accomplir, enregistre les réponses.
En dépit de son coût et de sa lenteur, cette technique permet un excellent contrôle sur l’échantillon,
ce qu’Internet n’autorise pas totalement.

2. Enquête en « sortie de caisse »


On classera dans cette série les enquêtes pour lesquelles l’enquêteur « intercepte » les répondants
lorsqu’ils passent à sa proximité. L’expression anglaise est d’ailleurs beaucoup plus imagée,
puisqu’il s’agit de mall intercept interview. Les endroits les plus usuels sont les sorties de caisse
au sens propre, dans les hypermarchés et grandes surfaces en général, mais également les galeries
marchandes des centres commerciaux et, tout simplement, la rue et/ou les bâtiments publics.
Ce mode d’enquête convient assez bien aux tests nécessitant de montrer un produit (prototype ou
photographies) ou de le faire essayer. Mais les conditions n’étant guère confortables pour le
répondant, il est indispensable que le questionnaire soit bref : 8 à 10 minutes au maximum.
Le test en salle (hall test) est une version perfectionnée du mall intercept. Elle allie les avantages
de l’enquête en sortie de caisse et du CAPI. Les tests en salle sont notamment incontournables en
recherche sensorielle, lorsqu’il s’agit de faire déguster des produits. Le protocole est lourd à mettre
en œuvre et interdit, en pratique, le domicile des répondants(303).

3. Enquêtes assistées par ordinateur


Dénommée CAPI (Computer Assisted Personal Interviewing), elle consiste à faire asseoir le
répondant devant un ordinateur et à lui demander de répondre aux questions posées à l’écran,
directement au moyen du clavier ou de la souris. Les « bornes » électroniques disposées sur les
stands lors de salons ou de foires sont des variantes de cette technique. Mais la plupart du temps,
l’enquêteur reste physiquement présent : il saisit directement les réponses sur le terminal, d’où une
plus grande efficacité, tout en conservant un caractère humain à l’interview.
Les logiciels fonctionnent de manière interactive et fournissent une assistance au répondant. Cette
technique permet de nombreuses questions filtres pour sélectionner les répondants « éligibles » (i.e.
appartenant à la base de sondage) ou autorise des questions à renvois multiples.
Tous les grands acteurs du marché des études ont investi dans des parcs CAPI. Ceux-ci comptent
jusqu’à plusieurs centaines de machines. Taylor Nelson Sofres a, par exemple, équipé tous ses
enquêteurs à domicile d’un système CAPI multimédia. Cela leur permet de combiner les avantages
de la gestion d’interview par ordinateur (fiabilité, rapidité, fluidité) à la possibilité de faire réagir
\/|
les interviewés à des images, des sons ou des films.
$|
4$

B. Voie postale
By

Le questionnaire est adressé par voie postale à un échantillon présélectionné de répondants


potentiels. L’envoi type comprend en général une lettre de présentation, le questionnaire, une
enveloppe affranchie pour la réponse et, si possible, un « stimulant » (promesse de bon d’achat,
loterie...) destiné à inciter le réceptionnaire de l’envoi à retourner le questionnaire dûment
complété. Un exemple de lettre d’accompagnement est donné ci-après.
Exemple : lettre d’accompagnement d’un questionnaire
postal envoyé par l’ADEME
Madame, Monsieur,
Dans un contexte où les éleveurs cherchent à diminuer de façon significative leurs
coûts de production et où le prix de l’énergie devrait augmenter, il est primordial de
faire le point sur les consommations énergétiques dans les élevages.
À la demande de l’ADEME, les instituts techniques et les chambres d’agriculture
de Bretagne et des Pays de la Loire ont lancé un travail commun sur le sujet en
concertation avec les organisations économiques. L’objectif de l’étude est d’identifier
les marges de progrès existantes et de proposer des voies d’amélioration de
l’efficacité énergétique.
À ce titre, votre situation et votre avis nous intéressent.
Le questionnaire qui vous est proposé ci-joint constitue la première étape de cette
étude. Les réponses que vous allez nous apporter nous permettront de faire le point sur
vos pratiques et de dégager de grandes tendances. Parmi les questions qui se posent :
quelles sont les sources d’énergie présentes sur votre élevage ? Les contrats de
\/|
fourniture sont-ils adaptés ? Quels appareils de chauffage utilisez-vous ? Quelles sont
les caractéristiques principales de vos bâtiments ?
$|
4$

Nous comptons donc vivement sur votre participation, car, plus le nombre de réponses
sera important, plus il sera aisé de montrer les différences de pratiques et de vous
proposer des solutions adaptées.
By

Nous vous demandons donc de bien vouloir nous renvoyer ce questionnaire par fax,
par mail ou par courrier aux coordonnées suivantes avant le 28 avril (les réponses qui
arriveront après cette date ne pourront être prises en compte).
Nom de l’interlocuteur : xx
Adresse : xx
Fax : xx
Mail : xx
Les questionnaires seront analysés sous le respect de l’anonymat. Vous recevrez à
l’issue de ce travail une synthèse des résultats. Afin que vous puissiez vous situer
par rapport à l’ensemble des éleveurs enquêtés, un numéro de questionnaire vous sera
attribué.
En vous remerciant par avance pour votre participation, nous vous prions d’agréer,
Madame, Monsieur, l’expression de nos salutations distinguées.

Ce courrier est destiné aux professionnels de la filière d’élevage porcine des régions Bretagne et
Pays de Loire. À ce titre il est probablement préférable d’utiliser le courrier postal car le taux de
connexion à Internet n’est peut-être pas très élevé dans cette population.
Ce courrier doit contenir quelques rubriques clés :
– Qui envoie le questionnaire
• Préciser les personnes et/ou organismes à l’origine de la recherche ainsi que ses sponsors ou
simples soutiens. Le prestige et l’image associés à une institution de soutien importante pour les
répondants peuvent jouer un rôle clé dans le taux de réponse.
• Développer et traduire les sigles des organismes (i.e. ne pas utiliser les acronymes). À ce titre,
l’utilisation de ADEME au lieu de « Agence De l’Environnement et de la Maîtrise de l’Énergie »
est une erreur dans le courrier précédent.
– Pourquoi réaliser une telle étude
• Mettre l’accent sur les objectifs et les thèmes abordés dans le questionnaire.
– Pourquoi prendre la peine de répondre au questionnaire
• La contribution de l’étude à la progression de la connaissance doit être clairement présentée.
• Il faut également valoriser le répondant au travers de sa participation à l’enquête.
• On peut également promettre d’envoyer un résumé des résultats de la recherche.
• Enfin, on doit préciser, sans tricher, le temps nécessaire pour répondre au questionnaire.
\/|
– Garantir l’anonymat
$|
• Sauf si l’attribution d’une éventuelle récompense implique de connaître les coordonnées des
4$

répondants. Si tel est le cas, il faut préciser explicitement pourquoi on demande ces coordonnées.
– Dater et signer
By

• L’auteur du questionnaire doit signer le document de sa main afin de le personnaliser.


• Le recours à une date butoir accroît la remontée d’un questionnaire auto-administré. Elle peut
néanmoins disqualifier la possibilité d’une relance et décourager certains sujets de retourner le
questionnaire lorsqu’ils ont dépassé la date.
Lorsque l’on envisage une enquête postale, il faut redoubler d’efforts et d’attention dans la mise au
point du questionnaire. En effet, le répondant n’a aucune assistance et, si les questions lui paraissent
difficiles ou ambiguës, le risque est grand de le voir abandonner en cours de route. Pour cette
raison, le questionnaire peut être long, mais il faut veiller à ce que les questions posées soient
simples, et que sa présentation soit attractive.
L’enquête postale implique la possession d’une liste d’adresses susceptibles d’appartenir à la base
de sondage recherchée. Trois solutions sont possibles :
– liste de clients de l’entreprise : enquêtes de satisfaction, d’image ou de comportement ;
– liste de noms louée auprès de sociétés spécialisées. Celles-ci sont nombreuses et identifiables
facilement sur Internet ;
– liste que l’on dresse soi-même, par exemple en sélectionnant aléatoirement les individus dans un
annuaire téléphonique ou professionnel. Ce dernier cas pose le problème de la propriété des
adresses utilisées : normalement elles appartiennent à l’éditeur de l’annuaire et ne doivent pas être
utilisées sans son accord.

C. Téléphone
1. Enquêtes téléphoniques classiques
Elles consistent à contacter téléphoniquement l’échantillon sélectionné et à lui administrer un
questionnaire de manière classique (réponses notées au crayon sur un exemplaire papier du
questionnaire).
L’évaluation comparative proposée plus loin montrera que l’enquête téléphonique est une méthode
permettant d’obtenir rapidement l’information souhaitée. Toutefois, ce jugement doit être nuancé par
la difficulté croissante d’obtenir des contacts utiles, c’est-à-dire des individus qui appartiennent à
la base de sondage et acceptent de répondre (voir figure 10.5).
Ce taux de réponse est mesuré par(304) :
Figure 10.5. Appel téléphonique et questionnaire rempli

\/|
$|
4$
By

Source : WISEMAN F. et MCDONALD P., op. cit., 1980.

TR = Taux de réponse,
nr = Nombre de questionnaires remplis par les foyers répondants,
ne = Nombre de foyers répondants éligibles dans l’échantillon.
En effet, le contact téléphonique réussi ne garantit pas que le questionnaire soit rempli. Le
correspondant doit accepter de répondre et ne pas être rejeté par l’enquêteur (ligne mauvaise,
problème de langage...). S’il coopère, il doit être éligible pour l’enquête, c’est-à-dire posséder les
caractéristiques (sexe, âge, PCS...) qui font de lui un membre de la population étudiée. Enfin, il ne
doit pas interrompre le questionnaire en raccrochant en cours de route. Ces éléments font que la
durée usuelle d’un entretien téléphonique doit être proche de dix minutes et en tout cas inférieure à
quinze. Sur certaines populations en milieu industriel (cadres, médecins, PDG...) et à condition de
fixer préalablement un rendez-vous, on peut aller jusqu’à 30 minutes mais le taux d’abandon
s’élève sensiblement.
Le développement de la technologie Internet a permis la généralisation du couplage informatique /
téléphone en diminuant les coûts par rapport aux enquêtes téléphoniques simples. Cette forme
d’enquête disparaît donc progressivement au profit du CATI.

2. Enquêtes téléphoniques assistées par ordinateur


Également appelées CATI (Computer Assisted Telephone Interviewing), par référence au CAPI,
elles utilisent un questionnaire informatisé administré par téléphone. En d’autres termes,
l’enquêteur administre oralement, par téléphone (en réalité, pour plus de commodité, il s’agit d’un
casque équipé d’un micro), le questionnaire, mais enregistre les réponses directement sur un
\/|
ordinateur.
$|
La technologie a beaucoup évolué depuis que les premiers systèmes CATI sont entrés en service.
4$

Les automates d’appel se sont généralisés, et l’intégration du son (qui permet par exemple de faire
écouter des messages radio) se développe(305).
By

Le faible coût relatif des entretiens par téléphone permet d’interroger des échantillons importants.
Néanmoins, les évolutions récentes du paysage téléphonique en France introduisent de nouvelles
difficultés. La baisse du taux d’équipement en téléphone filaire, l’augmentation du nombre de foyers
équipés exclusivement de téléphones mobiles et le dégroupage, qui aboutit à la multiplication des
annuaires concurrents de celui d'Orange (ex-France Télécom), biaisent la représentativité des
échantillons téléphoniques issus des annuaires. Enfin, le développement du télémarketing
accompagne une baisse progressive mais marquée des taux de réponse aux enquêtes téléphoniques.

D. Enquêtes en ligne
Le taux de pénétration d’Internet(306) a permis le développement des études en ligne. Le terme
« enquête en ligne » regroupe un ensemble de pratiques assez hétérogènes. Pour la préparation et
l’administration du terrain, on va de l’envoi d’e-mails incluant le questionnaire au CAWI
(Computer Assisted Web Interviewing). Les logiciels de développement d’enquêtes en ligne ayant
beaucoup progressé, ce type d’enquête domine aujourd’hui. On parle plutôt de CASI dans ce cas. S
signifie Self puisque l’auto-administration du questionnaire sur Internet s’est généralisée.
Les particularités de l’enquête en ligne se trouvent essentiellement à trois niveaux : la préparation
du terrain, la conception du questionnaire et l’administration du terrain(307). Les points forts et les
points faibles de ce type d’enquête sont résumés dans la figure 10.6.
Figure 10.6. Points forts et points faibles des enquêtes en ligne

Points forts Points faibles


Gain de temps Représentativité des échantillons
Économie Craintes sur la fiabilité des résultats
Accessibilité, dispersion (géographique) des
Motivation de la réponse
échantillons
Difficulté de contrôle de ce qui est dit, de
Résultats plus transparents pour les clients
l’identité des répondants
Questionnaire « intelligent »
Ordre de ce qui est vu « Professionnalisation » et autorecrutement
Classements facilités (e.g. pour analyse spontané
conjointe)
Stimuli riches (texte, audio, vidéo)
Liens possibles avec autres bases de données
\/|
1. Préparation de la base de sondage et constitution de l’échantillon
$|
Cela reste l’une des faiblesses de ce type d’enquête. La population des internautes reste
4$

qualitativement différente de la population générale. Elle est plus jeune, plus masculine, plus
urbaine, mieux éduquée et plus à l’aise financièrement. Des sociétés de location d’adresses
By

électroniques existent (e.g. http://www.marketingconnect.fr/). Les forums, les communautés


virtuelles, les annuaires électroniques et, de plus en plus, les réseaux sociaux, restent le meilleur
moyen de construire sa base de sondage.
Cependant, la majorité des enquêtes en ligne se fait désormais sur des panels en accès libre (access
panel), décrits au chapitre 2.

2. Conception et mise au point du questionnaire


S’il doit être intégré dans un message électronique, le questionnaire doit rester très simple parce
que les fonctionnalités de mise en page des logiciels de messagerie sont très limitées. Il faut, par
exemple, éviter les échelles. La solution du document attaché résout en partie ce problème, mais
présente d’autres limites : risque d’être mis à la corbeille par inadvertance, problèmes de
traduction de format de fichier entre différentes versions des logiciels de messagerie, impossibilité
de « randomiser » les questions, obligation de ressaisir les informations avant le traitement...
Lorsque le message ne fait que prévenir de l’existence du questionnaire, en fournissant un lien vers
un serveur d’accès, la situation est différente. Les fonctionnalités des logiciels de création
d’enquêtes sont aujourd’hui très développées, ce qui a été évoqué à maintes reprises. Cette
approche est de loin la plus intéressante. Attention, le temps de prise en main d’un tel logiciel, si
l’on souhaite l’exploiter au maximum de ses capacités, est conséquent.
3. Administration du terrain
Outre les panels en accès libre, on peut utiliser les mêmes canaux que pour le recrutement des
répondants : e-mail ou forums de discussion pour l’essentiel. Pour faire connaître l’existence de
l’enquête, on peut également se faire référencer sur des moteurs de recherche, et/ou utiliser des
bannières publicitaires (payantes) sur les principaux portails ou réseaux sociaux.
La fiche technique 10.1. synthétise les différentes formes d’enquêtes possibles sur Internet. La
dernière modalité est aujourd’hui la plus utilisée.

\/|
$|
4$
By
Fiche technique 10.1. Types d’enquêtes sur Internet

Aptitude au contrôle
Type
du de l’identité Explications
d’enquête
questionnaire du répondant
Un fichier texte (ASCII)
que le répondant modifie
en mettant des croix à des
E-mail Faible Faible à moyen
endroits spécifiés ou en
répondant à des questions
ouvertes
Le répondant clique sur le
document attaché, et
E-mail avec pièce
Fort Faible à moyen remplit le questionnaire
jointe en HTML
HTML (ouvert sous
\/| navigateur Web)
En cliquant sur le fichier
$|
E-mail avec (.exe), le répondant ouvre
Fort Moyen à fort
fichier exécutable un programme qui le guide
4$

à travers un questionnaire
By

Questionnaire HTML logé


Enquête Web
Fort Faible à moyen sur un site comportant des
avec hyperliens
liens avec d’autres sites
Questionnaire HTML sans
liens avec d’autres sites.
Enquête Web
Fort Moyen à fort Seule l’adresse URL exacte
sans hyperliens
permet l’accès au
questionnaire

Source : FROST F., « Internet et les études de marché », Revue française du marketing,
nos 77/178, 2000, pp. 169-185.

E. Évaluation comparative des méthodes d’administration


Cette comparaison est proposée dans la figure 10.7 ci-après. Elle évalue le niveau de performance
(faible – moyen – élevé) de chaque méthode sur une liste de critères d’analyse relatifs aux
différents aspects de la collecte de données.
1. Nature du processus de collecte
a. Flexibilité de la collecte
Elle indique la capacité d’intervenir en temps réel sur la collecte de données.
– Les méthodes en face-à-face sont les plus flexibles. L’enquêteur compétent peut aider le
répondant et modifier l’ordre des questions si cela lui paraît nécessaire. Il peut éventuellement
suggérer des questions supplémentaires (ouvertes, par exemple) si le besoin s’en fait sentir.
– L’enquête postale et les enquêtes en ligne de type e-mail sont les moins flexibles, en raison de
l’auto-administration qui rend impossible, par nature, toute assistance ou modification en cours
d’administration.
– Le téléphone, CAPI et CASI sont au niveau intermédiaire. Pour les deux premiers, l’enquêteur
peut répondre aux demandes de précision, mais ne peut déceler, par exemple, les regards indiquant
un manque de compréhension. Pour le CASI, la richesse visuelle et l’individualisation possible du
questionnaire peuvent compenser partiellement l’absence humaine.

\/|
$|
4$
By
Figure 10.7. Comparaison des méthodes d’administration

\/|
$|
4$
By

La présence d’avatars humains va probablement se développer. Leur rôle sera d’enregistrer et


interpréter les réponses mais également d’analyser le non-verbal (expressions faciales, langage
corporel) au travers de webcams. Ils pourront ainsi, éventuellement, reformuler une question si le
temps de réponse a été plus long qu’un seuil prédéterminé.
b. Diversité des questions
C’est la possibilité pour le rédacteur du questionnaire d’utiliser tous les types de questions et
d’échelles de mesure.
– Les enquêtes téléphoniques sont handicapées sur cette dimension : les classements doivent être
limités à quatre ou cinq alternatives, les échelles d’attitude passent très mal... Ces dernières ne sont
pas exclues, mais elles sont très lourdes, car il faut décomposer chaque question en deux ou trois
étapes(308). Cela allonge notablement la durée de collecte.
– Les enquêtes postales sont sensibles, mais dans une moindre mesure, à ces problèmes : le
répondant peut ne pas comprendre leur « mode d’emploi » et oublier certains items en cours de
route par confusion visuelle.
Les enquêtes en face-à-face, le CAPI et, à un moindre degré, le CASI permettent la plus grande
diversité de questions.

c. Utilisation de stimuli physiques


Lors d’un test de produit ou de publicité, on a souvent recours à des échantillons, un prototype ou
des photographies. De même, dans les classements par ordre, l’« assistance visuelle » est souvent
appréciée des répondants : on utilise, par exemple, des logos de marques pour faciliter les choix.
– Les méthodes téléphoniques sont, évidemment, inadaptées.
– L’interview en sortie de caisse est pratique si le matériel utilisé est volumineux, mais à condition
de pouvoir disposer d’un emplacement relativement calme (test en salle).
– L’enquête à domicile et, à un moindre degré, le CAPI sont très bien adaptés à l’utilisation
\/|
d’échantillons de produits de faible poids et dimensions, mais posent un problème pour les objets
$|
encombrants et lourds.
4$

– Les méthodes postales ne permettent que des stimuli de type visuel (image, photographie).
– Le CASI offre la plus grande richesse : images, photographies, musique, vidéos.
By

d. Envergure géographique de la collecte


Elle indique la vitesse de collecte de données sur la zone géographique la plus large possible.
En théorie, toutes les méthodes permettent la dispersion géographique de la collecte.
En pratique :
– les méthodes en face-à-face sont moins adaptées, car la lourdeur de l’organisation nécessaire en
augmente le coût ;
– les méthodes téléphoniques sont adéquates, à un double inconvénient près. D’une part le coût des
appels augmente avec la distance et la durée, en particulier à l'international ; d’autre part, certaines
populations (cadres, enseignants...) sont des foyers difficilement joignables par téléphone (filtrage
des appels, absence ou abonnés liste rouge) ;
– l’enquête postale offre la possibilité d’un meilleur coût de dispersion géographique de
l’échantillon, mais reste très tributaire de la variabilité des taux de réponse (voir plus bas).
– Les méthodes en ligne sont celles qui permettent la meilleure dispersion géographique en termes
de rapidité, coût et champ de diffusion. L’inconvénient lié à la couverture est moins sensible qu’il y
a quelques années.
2. Contrôle du processus
a. Contrôle global de la collecte
Il est lié à la capacité qu’a l’enquêteur de maîtriser parfaitement la « production » du répondant :
– face-à-face, téléphone, CAPI et en ligne. Le répondant suit l’ordre des questions imposé et les
instructions données : la maîtrise du déroulement de l’enquête est aisée. Toutefois, les enquêtes par
e-mail simple souffrent des mêmes risques que la méthode postale ;
– méthode postale. Ce contrôle est inexistant, puisque c’est le répondant qui gère entièrement le
processus de remplissage du questionnaire.
b. Contrôle de l’échantillon
C’est la capacité à sélectionner, de manière efficace, les éléments constitutifs de l’échantillon :
– les enquêtes en face-à-face offrent le meilleur contrôle. L’enquêteur peut interroger la ou les
personne(s) la (les) plus concernée(s) par l’enquête dans le foyer (chef de famille, filles entre 12 et
16 ans...) et contrôler l’interaction entre les membres du foyer au moment de l’administration ;
– la représentativité des échantillons est encore une préoccupation pour les enquêtes en ligne. Le
taux de couverture s’est considérablement amélioré : la population utilisatrice de l’Internet est
quantitativement de plus en plus proche de la population générale. Mais le biais d’autosélection
\/|
reste élevé. L’inscription aux panels en accès libre est volontaire :
$|
– On a constaté que les individus concernés diffèrent de la population générale sur des variables
4$

sociodémographiques courantes (plus jeunes, urbains, éduqués, meilleurs revenus). Mais, surtout,
ils en diffèrent sur des variables attitudinales (plus grande confiance sociale, meilleur contrôle
By

perçu sur leur vie, plus actifs politiquement et socialement)(309).


– Il existe de plus en plus d’enquêtés « voyous » qui s’inscrivent à plusieurs panels pour répondre à
davantage d’enquêtes et bénéficier ainsi des récompenses distribuées. Aux États-Unis, 80 % des
réponses sont fournies par 10 % des répondants. Le repérage et l’élimination de ces répondants est
un problème(310).

c. Contrôle de l’environnement de la collecte


Il est lié à la possibilité d’intervenir sur l’environnement dans lequel les répondants sont interrogés.
Le bruit, les distractions, le manque de lumière... sont des facteurs pouvant limiter la qualité des
informations obtenues.
– Par voie postale et CASI, tout contrôle est impossible. C’est vrai à un moindre degré par
téléphone.
– Les enquêtes en face-à-face et CAPI donnent à l’enquêteur une possibilité réelle de régulation de
l’environnement de la collecte.

d. Contrôle du travail des enquêteurs


– Enquêtes postales et en ligne : problème non pertinent, du fait de l’absence d’enquêteurs.
– Enquêtes téléphoniques, CAPI ou en sortie de caisse : la collecte se faisant à un seul endroit, il
est assez facile de vérifier la qualité du travail effectué par les enquêteurs.
– Enquêtes à domicile : elles rendent difficile un contrôle en « temps réel », à cause de l’éclatement
géographique des enquêteurs et du fait de l’étalement dans le temps de la collecte.
e. Quantité d’information obtenue
– Enquêtes à domicile et, à un moindre degré, tests en salles : ils sont adaptés aux questionnaires
longs et complexes. Par conséquent, c’est par leur intermédiaire que l’on peut recueillir le plus
d’informations.
– Enquêtes postales et en ligne : les questionnaires peuvent être longs, mais doivent rester
relativement simples.
– Enquêtes téléphoniques et, surtout, enquêtes en sortie de caisse : elles fournissent une quantité
d’informations relativement restreinte.

f. Taux de réponse
D’une manière générale, le taux d’acceptation moyen d’un questionnaire tend à baisser ces
dernières années, quelle que soit la technique employée ; l’enquête en face-à-face est probablement
la plus touchée. Comme le montre la figure 10.8., les taux de réponse dépendent largement du mode
\/|
d’administration(311).
$|
4$
By
Figure 10.8 Comparaison de l’acceptation des modes d’administration

Caractéristiques Domicile Téléphone Postal En ligne


Taux de réponse ou panels : 15 à
50 % à 60 % 25 % à 30 % 5 % à 20 %
d’acceptation 65 %
Thème de
Habitat groupé ou
Liste rouge. l’étude.
dispersé.
Absence. Profil du
Urbain, rural.
Heures et jours répondant.
Protections
Facteurs d’influence d’appel limités Promesse de Idem postal.
électroniques des
par déontologie. cadeaux.
entrées
Abandons en Relance.
d’immeubles.
cours d’appel. Annonce de
Zones à risques.
l’envoi.
Échantillon :
Catégories de nombre de
population questionnaires
Taux Fort biais
injoignables. retournés et
Remarques d’acceptation en d’auto-sélection
Parc de correctement
baisse sensible. de l’échantillon.
\/|
répondeurs en remplis (donc
$|
hausse. différent du
nombre envoyé).
4$

Source : http://www.init-marketing.fr/mode-denquete/enquete-telephoniques/ ; http://www.qualiquanti.com/pdfs/faqdbo.pdf


By

Enquêtes en face-à-face
Elles génèrent aujourd’hui un taux moyen de réponse d’environ 50 à 60 %. La généralisation d’un
sentiment d’insécurité, notamment en région parisienne et dans les grandes villes, diminue
sensiblement le taux d’acceptation de ce mode d’enquête. Par ailleurs, de plus en plus souvent,
l’enquêteur ne peut pénétrer dans les immeubles, à cause des codes électroniques. Enfin, la
multiplication des ventes déguisées, annoncées comme des « sondages d’opinion », a accru la
méfiance des répondants éventuels.

Enquêtes téléphoniques
Le taux de réponse a très fortement chuté depuis quelques années. L’explication réside
probablement dans la multiplication des opérations de vente par téléphone qui saturent la
disponibilité des répondants. Il faut aussi garder à l’esprit que certaines professions (PDG, cadres
supérieurs, enseignants, professions libérales) s’inscrivent de plus en plus en « liste rouge »
(absence de mention dans l’annuaire) ou en liste « orange » (interdiction d’usage commercial), ce
qui conduit à de sévères biais d’échantillonnage.
Enquêtes postales
Sur fichier, le taux de retour est extrêmement variable : selon le thème de l’étude et selon la
population visée, on passe de 5-6 % à 40-50 %. Une fourchette plus restreinte donne un intervalle
fréquemment compris entre 10 et 20 %. La figure 10.9. évalue l’efficacité respective de différentes
solutions visant à accroître les taux de retour ; elle synthétise les principaux résultats de
nombreuses recherches (voir également le chapitre 9).
Figure 10.9. Variables susceptibles d’agir sur le taux de retour d’un questionnaire

Effet non significatif


Accroît le taux de Effet variable
(ou non établi
retour (accroît ou diminue)
clairement)
Enveloppe retour avec réponse
payée. Présentation attractive, format
Relances combinées (postale et du questionnaire.
Nature des thèmes abordés par
téléphonique). Signature de l’émetteur.
l’enquête.
Annonce préalable de l’envoi Longueur et nombre de
Caractéristiques et statut socio-
postal. questions.
\/|
économique de la cible.
Incitation financière. Personnalisation de la lettre de
$|
Promesse de cadeaux. couverture.
4$

Tirage au sort.
By

Deux inconvénients majeurs découlent de cette fluctuation. D’une part, le coût par questionnaire
utile varie dans le sens contraire du taux de retour : si celui-ci est faible, le coût est élevé. En tenant
compte des dépenses supplémentaires engagées pour améliorer le taux de retour (par exemple,
l’appel téléphonique préalable, l’enveloppe réponse, le cadeau « stimulant », l’appel de relance,
etc.), le coût total de l’enquête peut devenir très important. D’autre part, le biais induit par les non-
réponses est important : a-t-on le droit de considérer que les non-répondants sont strictement
comparables aux répondants ? Il y a, par exemple, de fortes chances pour que les répondants soient,
en moyenne, plus intéressés par le sujet de l’étude ou compétents dans le domaine que les autres.
Leurs réponses doivent donc être sujettes à caution.

Enquêtes en ligne
La nouveauté rend ce moyen efficace en termes de taux de retour. On peut aller jusqu’à 80 à 90 %
pour certaines enquêtes sur panels en accès libre. En moyenne, le taux se situe autour de 50 à 60 %.
Comme pour le téléphone, il y a un danger inhérent à la multiplication de ce type d’enquête. Cela
risque de saturer assez vite les répondants potentiels.

3. Existence de biais
a. Perception du caractère anonyme de l’enquête
Dans certains cas, le répondant maquille, volontairement ou non, ses réponses parce qu’il pense, à
tort ou à raison, que son anonymat risque de ne pas être complètement respecté. En l’absence
d’enquêteur, la perception de l’anonymat est forte, donc les enquêtes postales ou en ligne sont
intéressantes, par exemple pour des sujets « délicats » (consommation d’alcool...).
b. Biais de désirabilité sociale, obtention d’informations délicates
Ce risque est limité en l’absence d’enquêteur humain. Les enquêtes postales et, à un moindre degré,
le CAPI, sont à recommander si le sujet est à forte visibilité sociale.
c. Biais dû à l’enquêteur
L’apparence de l’enquêteur, ses manières, son empathie sont autant de facteurs intervenant dans la
qualité des réponses obtenues. Le risque est grand dans les méthodes en face-à-face (moindre pour
CAPI). Il est moyen dans les enquêtes téléphoniques : le timbre de voix, le ton, l’intonation peuvent
être des facteurs de blocage (le sourire « s’entend » au téléphone). Il est, évidemment, nul dans les
enquêtes postales et en ligne.

III. Contrôle de la validité du recueil \/|


Il est assez rare, sauf pour les recherches universitaires, que l’administration d’une enquête soit
$|
réalisée par son concepteur. Dans les instituts d’études, même importants, l’administration est
4$

souvent sous-traitée auprès de sociétés spécialisées dans le « terrain ». Le réalisateur du terrain est
responsable de la qualité de ce dernier : il la vérifie par des contrôles spécifiques. Pour garantir ce
By

sérieux, quatre points sont importants : la sélection, la formation, le contrôle sur le terrain et
l’évaluation a posteriori des enquêteurs.

A. Sélection des enquêteurs


La procédure de sélection consiste à :
– définir précisément la tâche que les enquêteurs auront à accomplir, en tenant compte du mode
d’administration ;
– définir les caractéristiques précises que devront posséder les enquêteurs (âge, sexe, éducation,
expérience...) ;
– recruter les personnes appropriées.
Dans les enquêtes en face-à-face, notamment à domicile, le rôle de l’enquêteur est crucial. Des
éléments aussi anodins que l’apparence physique peuvent, s’ils sont négligés, être la source de
défauts majeurs.
Étude de cas
Il y a quelques années, un groupe d’étudiants a mené une enquête dans le centre d’une
ville importante. Trois d’entre eux étaient néerlandais, deux garçons et une fille, âgés
d’environ 21 ans. Ils administraient les questionnaires par équipes de deux. Après
quelques jours, les deux étudiants néerlandais, pourtant aimables et d’excellent niveau,
sont venus consulter le responsable du terrain en lui rapportant qu’ils avaient
énormément de mal à obtenir la coopération de certaines catégories de personnes,
notamment les personnes relativement âgées et principalement les dames. Une rapide
évaluation de leur apparence physique donnait ceci : très grands, carrés, les cheveux
très courts, tenue vestimentaire négligée. De surcroît, ils parlaient français avec un très
fort accent. Rien d’étonnant, somme toute, à ce que les personnes âgées aient un
mouvement spontané de refus : elles avaient tout simplement peur !
L’une des leçons à retenir de cet exemple est que, dans la mesure du possible, les
enquêteurs doivent « ressembler » aux personnes qu’ils interrogent.

Voici quelques traits généraux que devraient posséder les enquêteurs :


– bonne santé physique et mentale. Le travail d’enquêteur est parfois stressant : refus répétés,
\/|
déplacements, enquêtes dans les zones « à risque », etc. Il importe d’être physiquement résistant et
$|
psychologiquement stable, de manière à adopter un comportement identique à l’égard de tous les
répondants ;
4$

– ouverture et capacité d’empathie. La capacité à nouer des contacts rapidement avec des personnes
By

inconnues et la capacité à attirer la sympathie sont deux qualités importantes ;


– capacité à communiquer. Un bon enquêteur s’exprime avec aisance et sait écouter ;
– apparence soignée et avenante. Les réactions étant variables, l’apparence des enquêteurs doit être
plutôt neutre, de manière à ne pas choquer. Une tenue vestimentaire congruente avec celle de la
cible visée est indiquée ;
– niveau d’éducation correct. Une bonne élocution pour la lecture des questions et une bonne
écriture des réponses, notamment aux questions ouvertes, sont des qualités souhaitables. Par
ailleurs, un bon niveau d’éducation permet de s’adapter plus vite à des répondants différents ;
– expérience. L’expérience, même si elle s’acquiert vite, joue un grand rôle, pour le respect des
instructions du questionnaire, l’identification rapide des individus éligibles, le contrôle des non-
réponses ou des « ne sait pas ».

B. Formation des enquêteurs


La formation se réalise sous forme d’exposés ou de cours, ou, en cas de dispersion géographique
des enquêteurs, par télé- ou visioconférence. Elle vise à garantir que tous les questionnaires seront
administrés de la même manière. La prise de contact initiale, la formulation des questions, les
relances éventuelles, l’enregistrement des réponses et la conclusion de l’entretien sont les points
clés de cette tâche.

1. Prise de contact initiale


Elle contient les éléments suivants :
– présentation de l’enquêteur ;
– présentation du thème de l’enquête, si celui-ci n’est pas potentiellement source de biais ;
– valorisation du répondant : préciser qu’il a été choisi spécialement « parce qu’il possède des
informations importantes pour l’étude », ou « parce que nous accordons beaucoup d’attention à ses
avis et opinions ».

Exemple
« Bonjour Madame,
Je m’appelle XYZ et je réalise, avec l’institut ABC, une étude dont le but est de mieux
connaître les relations des Toulousains avec leurs commerçants.
Nous accordons une importance toute particulière à votre opinion, et nous aimerions
\/|
vous poser quelques questions à ce sujet. Cela ne nous prendra que quelques
$|
minutes. »
4$

Notons que l’enquêteur ne demande pas explicitement l’accord de la personne. Le


refus serait alors plus facile. Si la personne répond que le moment n’est pas bien
By

choisi, l’enquêteur demande à quel moment il peut la recontacter.

2. Formulation des questions


Les enquêteurs posent les questions telles qu’elles sont rédigées. L’improvisation modifie assez
vite le sens de la question et, par conséquent, celui de la réponse donnée. Les enquêteurs
« apprennent » le questionnaire, lisent les questions lentement et les répètent (de la même manière)
si nécessaire. Les instructions liées au questionnaire (présentation de photographies, aiguillages
liés aux questions filtres...) sont respectées scrupuleusement.

3. Enregistrement des réponses


Pour un questionnaire structuré, il n’y a pas de problème majeur, dès lors que les enquêteurs en ont
une bonne connaissance. Quelques règles simples sont toutefois à respecter pour les éventuelles
questions ouvertes : noter les réponses pendant l’interview, utiliser les mots du répondant, ne pas
résumer sa réponse, noter toutes les relances et reformulations, relire la réponse une fois qu’elle est
écrite.

4. Conclusion de l’entretien
On note ostensiblement les commentaires et remarques du répondant, s’il en formule ; on le
remercie de sa participation en rappelant l’importance des informations obtenues, et on n’oublie
pas le « au revoir » ou « bonne (fin de) journée ».

C. Contrôle des enquêteurs


Il s’agit de vérifier, au fur et à mesure de la collecte, que les enquêteurs accomplissent correctement
le travail demandé. La qualité du contrôle tend à être meilleure si le responsable de l’étude a
administré quelques questionnaires dans les conditions réelles de la collecte. Le contrôle porte sur
trois aspects.

1. Qualité des questionnaires


Sont-ils correctement et entièrement remplis ? L’écriture est-elle lisible ? Quel est le pourcentage
de réponses absentes ou incomplètes ?

2. Qualité de l’échantillonnage
Les individus interrogés sont-ils ceux prévus à l’origine ? Assez souvent, les enquêteurs choisissent
la facilité : éviter certains quartiers, jouer avec les quotas (une personne de 58 ans sera reclassée
dans les 45-55) ; interroger celui qui est présent au foyer, plutôt que de rappeler plus tard ; etc.

3. Tricheries \/|
Des enquêteurs peu scrupuleux maquillent les réponses, complètent les questionnaires, par exemple
$|
en cas d’oubli de questions, voire remplissent eux-mêmes les questionnaires (on appelle cela le
4$

« bidonnage »). Quelques méthodes de contrôle (liste non exhaustive) sont présentées ci-après.

a. Rappel téléphonique
By

Un échantillon de personnes ayant rempli le questionnaire est tiré au sort. On affine le contrôle en
procédant à autant de tirages qu’il y a d’enquêteurs. Le prétexte du rappel peut être : « Madame,
vos réponses à l’étude XYZ ont retenu notre attention, nous aimerions juste revenir sur un point,
etc. »
b. Inspection visuelle
Là encore, on tire au sort quelques questionnaires pour chaque enquêteur. Le chargé d’études repère
assez vite les indices de bidonnage : profils de réponses cadencés (droite/gauche), croix en dehors
des cases prévues, oublis fréquents, etc.
c. Tests statistiques
On repère par tests statistiques, portant sur quelques questions, les enquêteurs qui ont interviewé un
trop grand nombre de répondants « déviants » par rapport à la moyenne des autres enquêteurs.
On admet qu’un bon contrôle représente jusqu’à 10 % du coût global du terrain. Ces contrôles ne
remplacent toutefois pas un bon réseau d’enquêteurs, correctement payés et formés.

D. Évaluation des enquêteurs


Elle se fait sur trois critères :

1. Coût total de chaque enquêteur


Si les enquêteurs sont rémunérés à l’heure, la tentation est grande de « faire durer » les interviews
et la collecte. Pour cela, il est préférable de rémunérer au questionnaire, en fixant un tarif réaliste.
En effet, dans le cas d’un prix trop bas, la tentation est, à l’inverse, d’accélérer les interviews pour
remplir le plus de questionnaires possible.

2. Taux de réponse obtenu


Un taux de refus élevé allonge le temps total de collecte des données et augmente le risque de
biais : événements impromptus qui modifieraient radicalement les comportements et opinions, etc.
Par ailleurs, il accroît le risque de différences entre les individus prévus et ceux réellement
interrogés. Un taux de refus supérieur à la moyenne des autres enquêteurs traduit généralement une
mauvaise prise de contact.

3. Qualité des données recueillies


Elle est liée au nombre de questions restées sans réponse, au pourcentage de « sans opinion », aux
erreurs dans la transcription des réponses...
\/|
Conclusion
$|

L’administration d’une enquête par questionnaire comporte trois étapes : le pré-test du


4$

questionnaire, l’administration proprement dite et le contrôle de la validité de cette dernière.


By

Le pré-test permet de lever les ambiguïtés du questionnaire, de manière à ce que celui-ci puisse
être administré exactement de la même façon à tous les individus de l’échantillon. Nous avons vu
qu’il pouvait se subdiviser lui-même en trois étapes : un premier test auprès d’experts, un second
auprès d’individus appartenant à la cible, réalisé en face-à-face par des enquêteurs, et un troisième
dans les conditions exactes de l’administration définitive.
Les méthodes en face-à-face impliquent la présence d’un enquêteur en face de l’interviewé, parfois
assisté par un ordinateur (système CAPI). Les méthodes téléphoniques ont également bénéficié de
cette assistance par ordinateur (système CATI). L’enquête par courrier représente la troisième
famille de méthodes. Les enquêtes en ligne se sont très fortement développées dans le courant des
années 2000. Elles sont les plus rapides et les moins chères à mener, en dépit d’un défaut persistant
de représentativité des échantillons.
Le contrôle du terrain évalue la qualité de l’information recueillie. Il intervient à plusieurs
niveaux : sélection des enquêteurs, formation, contrôle du travail réalisé et évaluation a posteriori
des performances de ce dernier.
Au terme de l’administration du terrain, le chargé d’études dispose d’un volume considérable
d’informations brutes. Les traitements et analyses ont pour objet d’extraire de cette masse les
données les plus significatives. Les méthodes statistiques nécessaires feront l’objet des prochains
chapitres.
Test de connaissance
(Cochez une seule réponse par question.)
Q1. Le pré-test intervient :
(1) pour préparer la rédaction du questionnaire
(2) pour vérifier que le questionnaire a bien été administré
(3) pour repérer les erreurs figurant dans le questionnaire
Q2. Les enquêtes CAPI sont :
(1) des enquêtes par courrier traitées par scanner
(2) l’administration de questionnaires directement par ordinateur
(3) des enquêtes téléphoniques menées par synthèse vocale
Q3. Qu’est-ce qui ne figure pas dans un envoi type d’enquête par courrier ?
(1) une lettre de présentation
(2) un « stimulant » pour encourager la personne à répondre
\/|
(3) une disquette sur laquelle figure le questionnaire
$|
4$

Q4. Dans quel type d’enquête la quantité d’information recueillie est-elle potentiellement la
plus importante ?
By

(1) face-à-face à domicile


(2) CATI
(3) par courrier
Q5. L’enquêteur doit s’interdire :
(1) de dire bonjour et se présenter au répondant
(2) d’interpréter le contenu des questions et d’en discuter avec le répondant
(3) de reformuler les réponses du répondant pour l’aider à poursuivre
Réponses : voir annexes téléchargeables sur www.vuibert.fr

Bibliographie
CHURCHILL G. A. Jr et IACOBUCCI D., Marketing Research. Methodological Foundations, 10e éd.,
South Western, Mason : OH, 2010.
EVRARD Y., PRAS B., ROUX E. et DESMET P., Market : études et recherche en marketing, 4e éd.,
Paris, Dunod, 2009.
FENNETEAU H., Enquête : entretien et questionnaire, coll. « Les Topos », Dunod, 2002.
GIDEON L. (coord.), The Handbook of Survey Methodology in Social Sciences, New York,
Springer-Verlag, 2012.
GREEN P. E., TULL D. S. et ALBAUM G., Research for Marketing Decisions, 5e éd., Prentice-Hall
International, 1988.
HAIR J. F. Jr et al., Multivariate Data Analysis, 7e éd., Pearson Education, 2008.
JOLIBERT A. et JOURDAN P., Marketing Research. Méthodes de recherche et d’études en marketing,
2e éd., Paris, Dunod, 2011.
MALHOTRA N. K., DÉCAUDIN J. M., BOUGUERRA A et BORIÈS D., Études marketing avec SPSS,
6e édition, Paris, Pearson Education France, 2014.
MUCHIELLI R., Le questionnaire dans l’enquête psycho-sociale, 9e éd., ESF Éditeur-Entreprise
moderne d’édition, 1989.
TASHAKKORI A. et TEDDLIE C., Handbook of Mixed Methods in Social and Behavioral Research,
Sage, 2003.

Webographie \/|
http://www.syntec-etudes.com/Default/5/219/551/Default.aspx?lid=5
$|
4$

http://www.websm.org/
http://cmoresearch.com/
By

http://www.marketing-etudes-guide.fr/wp-content/uploads/2012/contenu.pdf
http://www.e-marketing.fr/
http://www.eurofins.fr/marketing-research.aspx
http://www.marketresearchworld.net/index.php?option=com_content&task=view&id=2114
http://www.surveystore.info/surveymag_online.asp
Chapitre 11

Analyses de base
La raison consiste à analyser les choses et à les élaborer.
ÉPICTÈTE

Le terrain étant achevé, le chargé d’études se retrouve avec une masse d’information brute. Celle-ci
doit être traitée, de manière à pouvoir répondre clairement aux questions posées lors de la
définition des objectifs.
Les analyses prennent des formes plus ou moins complexes : seules les plus simples seront
présentées dans ce chapitre. \/|
Nous verrons, dans un premier temps, comment préparer l’information, de manière à faciliter son
$|
analyse.
4$

Puis nous montrerons, dans un second temps, comment construire des tableaux de distribution de
fréquences.
By

Nous terminerons en présentant les calculs statistiques élémentaires associés aux tableaux de
distribution de fréquences.
La figure 11.1. retrace ces différentes étapes.
Figure 11.1. Plan du chapitre

\/|
$|
4$
By

I. Dépouillement des questionnaires


Les enquêtes automatisées (CAPI, CATI et CAWI) s’étant très fortement développées ces dernières
années, la phase de dépouillement est de plus en plus souvent transparente pour le chargé d’études,
car intégrée dans le processus de collecte d’information. La saisie des informations au clavier,
qu’elle soit faite par un enquêteur (CATI) ou par le répondant lui-même (CAPI et, de plus en plus
souvent, CAWI), amène à une construction automatique de la base de données. Néanmoins, les
enquêtes en face-à-face à partir de questionnaires papier n’ont pas totalement disparu, aussi
pensons-nous utile de continuer à présenter les contraintes de dépouillement de manière détaillée.
Le dépouillement d’un questionnaire impose la construction d’un tableau dans lequel les individus
figurent en lignes, et les variables en colonnes. En d’autres termes, à l’intersection d’une ligne et
d’une colonne se trouve la réponse d’un individu à une question. La fiche technique 11.1. montre la
marche à suivre pour réaliser un tel tableau. Cette façon de présenter l’information se prête plus
facilement aux traitements statistiques.
Fiche technique 11.1. Du questionnaire au tableau de données
On reprend l’étude portant sur la protection de l’environnement.
1 – Extraits d’un questionnaire rempli par un interviewé

\/|
$|
4$
By

2 – Construction du tableau de données


C’est une matrice comportant, en colonnes, les différentes variables retenues dans l’étude, et, en lignes, les
individus ayant répondu à l’enquête. Les tableurs se présentent de la même manière et sont adaptés à cette
construction. Par ailleurs, ils permettent de réaliser de nombreux traitements statistiques simples. La plupart
des logiciels spécialisés dans le traitement statistique (SPSS, STATISTICA, SAS...) intègrent maintenant un
module de saisie de données. Il se présente généralement comme une feuille de calcul de tableur.
L’individu interrogé avait le numéro d’ordre 01.001. Ce code est arbitraire : ici, il désigne l’enquêteur (01) et le
rang du questionnaire pour celui-ci (001). À la première question correspond la variable I1, que l’on désignera par
le degré d’intention d’utilisation d’une lessive sans phosphates. Notre répondant est « tout à fait d’accord ». Ceci
correspond au code 5, qui devra être reporté à l’intersection de la ligne 01.001 et de la colonne I1 dans le
tableau de données. On procède de la même manière pour les autres variables : on mettra le code 3 dans la
colonne I5, le code 2 dans la colonne I16... Une fois la ligne remplie, on passe au questionnaire suivant, et ainsi de
suite. D’où le tableau suivant :
Une fois le dépouillement effectué, l’analyste a échangé sa pile de questionnaires contre un tableau
contenant autant de lignes que de répondants et autant de colonnes que de variables. Ce n’est pas
confortable pour autant ! La figure 11.2. donne un exemple de tableau pour un échantillon de vingt
individus et neuf variables. Même si l’on sait à quelles variables se rapportent les codes utilisés, il
n’est pas facile d’y déceler des informations utiles pour le marketing.
Que dire alors d’une enquête de 30 questions posées à 1 000 personnes ? On dispose d’un tableau
de 1 000 lignes sur 30 colonnes, inexploitable en pratique. Le chargé d’études doit donc pouvoir
réorganiser l’information avant d’entreprendre des analyses élaborées. Pour cela, la construction de
tableaux de synthèse partielle des données constitue un point de passage obligé dans le traitement
des informations.

II. Tableaux de fréquences


Le travail de regroupement et de synthèse des données est appelé tri ou tabulation. Selon que l’on
travaille sur une variable à la fois, ou deux et plus, ce tri est appelé à « tri à plat » ou « tri croisé ».
Nous allons présenter successivement ces deux types de traitement.

A. Tris à plat \/|


Cette opération, encore appelée tabulation simple, consiste à réorganiser l’ensemble des valeurs
$|
prises par une variable.
4$

D’un point de vue statistique, les variables peuvent être « qualitatives » ou « quantitatives » et,
pour ces dernières, discrètes ou continues.
By

(312)
Figure 11.2. Exemple de tableau de données brutes (312)

\/|
$|

1 – Variable qualitative : les différentes modalités représentent des « qualités » de l’objet étudié et
4$

s’expriment sous forme littéraire. Par exemple, la nationalité est une variable qualitative car
l’information recherchée est « française », « italienne », « européenne », ou autre. À ce niveau,
By

l’exprimer sous forme de chiffre serait une absurdité même si cette information peut être codée
ensuite pour faciliter les traitements. Des exemples seront présentés plus loin. Le niveau de mesure
des variables qualitatives est au mieux ordinal, par exemple une préférence, et la plupart du temps
nominal.
2 – Variable quantitative : les différentes modalités sont directement mesurables par un nombre ou
une unité physique, monétaire... Par exemple, la taille, le revenu, les quantités consommées. Le
niveau de mesure d’une variable quantitative est intrinsèquement métrique. Il faut toutefois prendre
garde à présenter l’information de manière à ce que cette propriété puisse être utilisée. Une
variable quantitative peut être discrète ou continue :
– Discrète (ou discontinue) : les seules valeurs possibles sont des valeurs entières. La mesure est
un chiffre rond, sans virgule : par exemple, le nombre d’enfants, le nombre de salariés. Attention, la
nature discrète de l’information s’apprécie au moment de la collecte comme une caractéristique
« naturelle » de l’individu étudié. Un couple ne peut avoir que 0, 1 ou 2 enfants (ou plus). Une
valeur décimale serait une absurdité. Il faut bien distinguer cet état des informations de synthèse
calculées ensuite à partir des informations disponibles pour l’ensemble des individus. Il n’est plus
absurde de dire que dans l’échantillon le nombre moyen d’enfants par foyer est de 1,83 (voir la
partie III de ce chapitre).
– Continue : les valeurs possibles sont infinies au sein d’un intervalle donné. Par exemple, la
vitesse d’une voiture, l’âge d’une personne... Évidemment, la notion d’infini est ici théorique.
L’unité de mesure utilisée limite en pratique le nombre de réponses possibles. Elles restent, quoi
qu’il en soit, potentiellement beaucoup plus nombreuses que pour les variables discrètes.

1. Variables qualitatives
Le cas le plus simple est celui d’une variable qualitative dichotomique. Une telle variable ne prend
que deux modalités, celles-ci marquant l’appartenance de l’objet étudié à une classe définie au
préalable. Reprenons la variable S1, tirée de la figure 11.2., qui a servi à classer les individus
interrogés selon leur sexe. Les deux modalités sont codifiées selon la norme de l’Insee : 1 pour les
hommes, 2 pour les femmes. On compte le nombre d’apparitions de chacune des deux modalités de
cette suite, puis on les regroupe dans un tableau de synthèse (voir la figure 11.3.).
Figure 11.3. Regroupement des observations par modalité de la variable

Variable : Sexe Modalité (xi) Effectif (ni)


Comptage
(S1)
Hommes 1 _____ ____ 9
Femmes 2 _____ _____ _
\/| 11
Total n = 20
$|
4$

Chaque « bâton » correspond à une occurrence de la modalité dans la colonne S1. Il suffit, une fois
l’opération achevée, de compter, pour chaque modalité, le nombre de bâtons. L’opération est bien
By

sûr fastidieuse si l’échantillon est de grande taille. Les logiciels spécialisés réalisent
automatiquement cette opération. La figure 11.3. montre que l’échantillon interrogé comprend
9 individus de sexe masculin et 11 de sexe féminin.
En l’état, ces chiffres n’ont pas grande signification. Pour les rendre plus parlants, on exprime, en
proportion ou en pourcentage, l’importance relative de chacune des modalités par rapport à la taille
de l’échantillon. Chaque modalité possède donc une fréquence relative d’apparition dans
l’échantillon. Nous présentons les détails de ce calcul dans la fiche technique 11.2. La figure 11.4.
présente les résultats obtenus. On a, par cette opération, construit ce que les statisticiens appellent
le tableau de distribution de fréquences(313).
Figure 11.4. Distribution des fréquences d’une variable qualitative dichotomique

Variable : Sexe Modalité (xi) Effectif (ni) Fréquence (fi)


Hommes 1 9 0,45
Femmes 2 11 0,55
Total n = 20 1
Cette manière de présenter les données permet de remarquer au premier coup d’œil la structure de
l’échantillon en termes de sexe, ce qui était difficile avec la figure 11.2. On peut ensuite vérifier,
par un test statistique (chapitre 12) si l’échantillon interrogé a une structure comparable à celle de
la population mère. Si ce n’est pas le cas, il faut alors analyser les résultats en tenant compte de la
composition particulière de l’échantillon.

Fiche technique 11.2. Calcul d’une fréquence relative d’une modalité


1 – Principes
Le calcul de fréquence est une simple proportion. Il s’agit de rendre l’effectif d’une modalité donnée proportionnel
à la taille de l’échantillon. Ceci s’obtient par une simple division. En utilisant les notations habituelles, on a :

Avec : fi = la fréquence d’apparition de la modalité i


ni = l’effectif associé à la modalité i
n = la taille de l’échantillon
En l’état cette grandeur s’exprime sous forme décimale et son signe est positif. L’effectif d’une modalité est en
effet toujours au moins égal à 0 et toujours plus petit que la taille d’échantillon. Le résultat du calcul est donc
toujours compris entre 0 et 1. Il suffit de multiplier fi par 100 pour l’exprimer en pourcentage.
\/|
La somme des fréquences associées à toutes les modalités de la variable est égale à 1 :
$|
4$

Avec : k = nombre de modalités de la variable.


By

2 – Exemple
En reprenant les chiffres de la figure 11.4, on obtient la fréquence :

Et

On vérifie que :

L’utilisation de la notion de fréquence relative libère de l’influence de la taille d’échantillon dans


l’interprétation des résultats et facilite la comparaison de ces derniers sur plusieurs échantillons.
Exemple
Imaginons que les 20 individus de la figure 11.4. aient été interrogés dans un
quartier A de la ville. Dans un autre quartier B, on a interrogé 50 personnes, d’où il
ressort que le nombre d’individus de sexe masculin est de 18. Doit-on en conclure
qu’il y a deux fois plus d’hommes dans B que dans A ? Non, bien évidemment, puisque
l’on n’a pas interrogé le même nombre de personnes. La fréquence associée à la
proportion d’hommes dans B, exprimée en pourcentage, est de 36 %. Elle montre que,
contrairement aux apparences, B est plus féminin que A.

Le tableau de distribution de fréquences possède une propriété intéressante : sa complexité ne


dépend pas de la taille de l’échantillon, mais du nombre de modalités de la variable étudiée.
Autrement dit, la figure 11.4. aura toujours le même nombre de lignes et de colonnes, quelle que
soit la taille de l’échantillon (20, 100, 1 500, 20 000 ou plus).

2. Variables quantitatives discrètes


La construction du tableau de distribution de fréquences d’une variable quantitative discrète suit le
même principe. La seule différence avec une variable qualitative réside dans la nature et la richesse
des statistiques que l’on pourra calculer à partir du tableau (paragraphe III).
\/|
$|
4$

Exemple
By

Soit la variable I1 sur l’extrait de questionnaire figurant dans la fiche technique 11.1. :
« Pour protéger l’environnement, je suis prêt à utiliser une lessive sans phosphates. »
Une échelle de Likert en cinq points enregistre le degré d’accord des répondants.
Bien que le degré d’accord soit un phénomène psychologique continu par nature, ce
type d’échelle prend une forme discrète. Les réponses possibles sont en nombre limité,
correspondant aux points d’ancrage indiqués sur l’échelle. Ces repères sont
assimilables aux modalités d’une variable qualitative. D’où le tableau de distribution
de fréquences (figure 11.5) bâti avec les données de la colonne I1 de la figure 11.2.
Figure 11.5. Tri à plat d’une variable quantitative discrète

Variable : utilisation Modalité Effectif Fréquence


d’une lessive sans xi ni fi
phosphates
Pas du tout d’accord 1 1 0,05
Plutôt pas d’accord 2 3 0,15
Sans opinion 3 3 0,15
Plutôt d’accord 4 5 0,25
Tout à fait d’accord 5 8 0,40
Total n = 20 1

3. Variables quantitatives continues


Contrairement aux précédentes, ces variables prennent généralement un nombre très important de
valeurs (modalités) différentes, parfois une modalité par observation. On résout ce problème en
créant des classes à l’intérieur desquelles les valeurs prises par la variable sont regroupées.
\/|
$|
Exemple
4$

Si l’on traite une série de chiffres d’affaires sur un échantillon de 200 entreprises, il
By

est possible d’avoir 200 réponses différentes. Nous obtiendrions donc un tableau de
distribution de fréquences de 200 lignes, avec un effectif de 1 correspondant à chacun
des chiffres d’affaires cités. On se rend compte immédiatement que l’effort
d’organisation et de synthèse est réduit à néant !

La difficulté est de créer des classes pertinentes. Il faut notamment prêter attention au nombre de
classes, à leur amplitude (i.e. la distance entre les limites de la classe) ainsi qu’au choix des limites
de ces classes(314). Le nombre de classes à retenir dépend essentiellement du nombre d’observations
et doit être un compromis entre trop et pas assez d’informations. En général, on retient entre 3 et
6 classes. Les amplitudes de classes sont choisies en fonction de l’étendue globale de la série
étudiée. Les limites de classes peuvent être fixées de manière à ce que le centre de classe, qui par
la suite représentera l’ensemble des observations de cette classe, soit un nombre entier(315). Ce n’est
pas obligatoire, mais cela facilite les calculs si on ne dispose pas d’outil performant. Il faut éviter
les classes à effectif nul et aboutir à un découpage qui reflète du mieux possible la réalité de la
répartition des observations « dans la nature ».
Exemple
La figure 11.6. présente les effectifs pour 2009 des vingt plus importantes entreprises
iséroises du secteur commerce-distribution. La différence entre les deux effectifs
extrêmes est de 4 658 personnes. Compte tenu de la petite taille de l’échantillon trois
classes suffisent. Compte tenu de la forte hétérogénéité des observations, il faut opter
pour des classes d’amplitude inégale. Nous aboutissons ainsi à la distribution de
fréquences de la deuxième partie de la figure 11.6.
Par convention, la limite inférieure d’une classe est fermée, tandis que sa limite
supérieure est ouverte. Par exemple, le premier intervalle de classe exclut la
valeur 500. Si une observation avait pris cette valeur exacte, elle aurait été classée
dans le second intervalle.

Le tri à plat est souvent la première opération à mener, sur chacune des variables, lorsque l’on
commence à analyser les résultats d’une enquête. Mais il ne permet pas d’analyser les relations
entre variables. Par exemple, on peut se demander si le rapport bénéfice net sur effectif varie avec
le secteur d’activité, ou si l’intention d’utiliser une lessive sans phosphates est plus marquée chez
les jeunes que chez les personnes âgées. Le tri croisé permet de répondre à ces questions.
\/|
Figure 11.6. Série brute de chiffres d’affaires et distribution de fréquences
$|
4$

Raison sociale Effectif Raison sociale Effectif


Groupe GO Sport 4 759 Gueydon 205
By

Groupe King Jouet 1 350 Maxi Zoo France 200


La boîte à outils 990 Impex Diffusion 189
Courir France 900 Durand Services 175
SETAI 786 Galtier Libération 145
KERIA 750 Pompes Grundfos Distribution 136
Messageries lyonnaises 417 Quincaillerie moderne 118
Bourgoin distribution 353 Auto Dauphiné 117
SOCARA 252 Discolombe 110
VIENNEDIS 220 Pistono Distribution 101
Limites des classes (Li) Effectifs (ni) Fréquence (fi)
[0 ; 500[ 14 0,7
[500 ; 1 000[ 4 0,2
[1 000 ; 5 000[ 2 0,1
Total 20 1
Source : http://lexpansion.lexpress.fr
B. Tris croisés
Un tri croisé permet d’analyser les relations entre deux variables. Lorsque le nombre de variables
est supérieur à deux, on parle de tri croisé multiple.

1. Construction
Croiser deux variables revient à construire un tableau à double entrée, que l’on nomme tableau de
distribution de fréquences croisées, ou tableau de contingence. L’expression courante est « faire un
tri croisé ».
Cette opération implique le comptage du nombre d’occurrences de tous les couples possibles de
modalités des deux variables concernées. Par exemple, croiser les variables âge (S2) et sexe (S1)
de la figure 11.2. donne dix couples de modalités possibles. Pour en avoir une vision synthétique,
on les dispose dans un tableau à double entrée, comme dans la figure 11.7.
Les étapes de construction d’un tableau de contingence sont les suivantes :
Figure 11.7. Construction d’un tableau de contingence

\/|
$|
4$
By

1. Comptage du nombre d’apparitions des couples de modalités


On commence par le couple (1 ;1) (hommes âgés de 18 à 24 ans) dans les deux colonnes S1 et S2
de la figure 11.2. Dans notre exemple il n’y en a pas, on reporte donc un zéro dans la case du
tableau à l’intersection de la ligne « hommes » et de la colonne « 18-24 ans ». Ensuite, nous avons
compté le nombre d’apparitions du couple de modalités (1 ;2), c’est-à-dire les hommes âgés de 25
à 34 ans. Il y en a trois, chiffre qui apparaît dans l’intersection correspondante. La procédure est la
même pour tous les autres couples de modalités possibles. Les cases correspondant aux
intersections sont appelées cellules du tableau. Attention, l’ordre a une signification : (1 ; 2) et
(2 ; 1) désignent des individus aux caractéristiques différentes. Il faut donc procéder
méthodiquement pour éviter toute confusion.

2. Vérification des totaux de lignes et de colonnes


Quand les divers comptages sont achevés, on vérifie que la colonne et la ligne « total » permettent,
en additionnant les différents chiffres, de retrouver la taille de l’échantillon.
Le tableau de contingence présente deux propriétés intéressantes :
• Les chiffres de la colonne « total » correspondent à la distribution de fréquences de la variable
« sexe ». De même, la ligne « total » de la figure 11.7. correspond à la distribution de fréquences de
la variable « âge ». C’est une propriété importante qui est à la base des techniques d’analyse
factorielle des correspondances (chapitre 14).
• Une seule ligne suffit pour retrouver tous les chiffres de la seconde. Par exemple, sachant qu’il y a
7 individus âgés de 25 à 34 ans au total, et que parmi ces sept, trois sont des hommes, par
soustraction on sait qu’il y a quatre femmes dans cette classe d’âge. De même, sachant qu’il y a
9 hommes, seuls les chiffres de 4 parmi les 5 classes d’âge sont nécessaires pour reconstituer la
totalité de la ligne. En d’autres termes, on dispose de toute l’information du tableau si l’on connaît,
par exemple, le contenu des 4 premières cellules de la première ligne. On remarque qu’il s’agit du
produit du nombre de lignes moins une, par le nombre de colonnes moins une. Ce nombre
correspond aux degrés de liberté du tableau. Cette notion de degré de liberté est cruciale pour la
théorie des tests statistiques (voir le guide statistique téléchargeable gratuitement sur Vuibert.fr).

2. Analyse d’un tableau de contingence


La compréhension de l’information contenue dans un tableau est grandement facilitée si l’on
transforme en valeur relative chaque cellule de ce dernier. La figure 11.8. présente les résultats de
cette transformation.
L’analyse marginale du tableau se fonde sur les tris à plat des deux variables. Ainsi, on note que
toutes classes d’âge confondues, 45 % de l’effectif est masculin, ce qui correspond à une légère
sous-représentation de cette catégorie par rapport à la population française (environ 48 %).
\/|
Ensuite, par rapport à la population française, la répartition entre les classes d’âge est très
$|
déséquilibrée. Elle est due en grande partie à la faible taille de l’échantillon.
4$

Figure 11.8. Analyse d’un tableau de contingence


By

a : Pourcentage par rapport au total de la ligne


b : Pourcentage par rapport au total de la colonne

Il est difficile de pousser plus loin l’analyse sur ces seules distributions marginales. On passe
ensuite à la lecture des pourcentages figurant dans les cellules du tableau. Cette lecture et
l’interprétation de ces pourcentages se font différemment selon que l’on se réfère aux totaux des
lignes ou des colonnes.
Exemple
Considérons la colonne no 3 de la figure 11.8. : elle correspond à la classe d’âge de
35 à 44 ans. Par rapport au total de ligne, on doit lire : « Sur les neuf personnes de
sexe masculin, une, soit 11 %, appartient à la classe d’âge 35 à 44 ans. » Par rapport
au total de colonne, on lit : « Sur les quatre personnes âgées de 35 à 44 ans, une, soit
25 %, est de sexe masculin. » Dans le premier cas, on s’aperçoit que la tranche d’âge
considérée est largement sous-représentée chez les hommes, alors que la tranche 45-
60 ans est, elle, très surreprésentée. Dans le second cas, on constate que les hommes
sont très sous-représentés dans la tranche d’âge 35 à 44 ans.
Imaginons que cette répartition soit celle de la population française. En termes
marketing, les implications sont différentes selon que l’on s’intéresse à l’une ou l’autre
des variables. Par exemple, si la cible privilégiée est masculine, on s’aperçoit qu’il
vaut mieux adapter son action à une clientèle relativement âgée. Si la cible privilégiée
est la tranche des 35 à 44 ans, il est préférable, dans ce cas, de « viser » plus finement
une clientèle féminine.

Nous avons jusqu’ici appris comment synthétiser de l’information brute, en la faisant passer du
\/|
questionnaire au tableau de dépouillement, puis au tableau de distribution de fréquences, simples ou
croisées. Nous allons maintenant franchir un pas supplémentaire en étudiant par quels moyens on
$|
peut réduire l’étude d’une série de nombres à deux ou trois indicateurs chiffrés au maximum.
4$
By

III. Calculs statistiques de base


Les valeurs prises par une variable pour l’ensemble des individus d’un échantillon forment une
série statistique. Ainsi, n’importe laquelle des colonnes de la figure 11.2. est une série statistique.
Trois éléments permettent d’évaluer la manière dont les données sont réparties dans l’espace et
(ou) dans le temps : la tendance centrale, souvent exprimée par le calcul d’une moyenne, la
dispersion, appréciée par la variance et l’écart-type, et la forme de la distribution, appréhendée
par des coefficients spécifiques. Nous ne présenterons dans ce paragraphe que les indices les plus
courants et les plus utiles pour le chargé d’études : moyenne, variance, écart-type et coefficient de
variation(316).

A. Moyenne
La moyenne est la mesure de tendance centrale la plus courante : elle indique, en un seul chiffre, le
point d’équilibre d’une série statistique. Son calcul diffère légèrement selon le mode de
présentation des données : nous distinguerons le cas où les informations se présentent sous forme de
série brute et le cas où elles sont réparties par modalité ou en classes.

1. Moyenne d’une série brute


a. Formule de calcul
La moyenne est une grandeur exprimée dans l’unité de mesure de la variable. Elle se définit comme
un point tel que la somme des distances entre ce point et chaque observation de la série est nulle. Si
la distance entre l’observation et ce point « moyenne » représente un poids, alors la moyenne est le
point qui équilibre les poids des observations dont les valeurs lui sont inférieures et les poids des
observations dont les valeurs lui sont supérieures. Autrement dit, il s’agit de l’équivalent du centre
de gravité en physique ou du barycentre en mathématiques.
Le calcul de la moyenne s’obtient par la formule suivante(317) :

Avec : X = moyenne de la série, xi = valeur de l’observation i, n = nombre d’observations de la


série (i.e. taille de l’échantillon).
Il s’agit de faire la somme de l’ensemble des valeurs observées, que l’on divise ensuite par le
nombre d’observations dans la série.

b. Exemple illustratif
Le Mémento du tourisme, édité par le ministère du Tourisme, donne le nombre de chambres d’hôtel
\/|
pour chaque région française. Nous avons extrait, de manière arbitraire, une série d’observations
$|
concernant six régions.
4$

Figure 11.9. Nombre de chambres d’hôtel de six régions françaises


By

Nord-
Champagne- Pas- Languedoc- Rhône-
Bretagne Aquitaine
Ardenne de- Roussillon Alpes
Calais
9 038 17 673 25 013 26 439 30 883 66 472
Source : Mémento du tourisme 2010, http://www.tourisme.gouv.fr/stat_etudes/memento/2010/memento2010-3-1b.pdf

Le nombre moyen de chambres d’hôtel offertes par ces six régions s’obtient de la manière
suivante :

Il y a, en moyenne, 29 253 chambres d’hôtel par région.


e. Prolongements statistiques
La fiche technique 11.3. permet au lecteur intéressé d’aller plus loin dans la compréhension de ce
paramètre.

Fiche technique 11.3. Compléments statistiques pour le calcul d’une moyenne


1 – Représentation géométrique
L’illustration graphique de la moyenne est simple. Reprenons la série des chambres d’hôtel de six régions
françaises, et reportons ces chiffres sur un axe.

2 – Moyenne et distance avec les observations


Dire que la moyenne est le centre de gravité d’un nuage de points revient à chercher un point dans ce nuage tel
que la somme de toutes les distances entre celui-ci et les autres points est nulle. Soit :

\/|
En utilisant les propriétés de commutativité et d’associativité de la somme (et de la soustraction), l’expression
ci-dessus devient :
$|
4$

Soit :
By

Et :

3 – Exemple
Appliquons cette procédure à nos observations. La moyenne est de 29 253. On a :
9 038 – 29 253 = – 20 215
17 673 – 29 253 = – 11 580
25 013 – 29 253 = – 4 240
26 439 – 29 253 = – 2 814
30 883 – 29 253 = + 1 630
66 472 – 29 253 = + 37 219
Cet exemple montre que la moyenne représente le milieu de la série exprimé en valeur cumulée des
observations, ce qui autorise un déséquilibre par rapport au nombre des observations qu’elle partage.

2. Moyenne d’une série transformée en classes


a. Formule de calcul
Si les données sont regroupées par modalité ou ventilées en classes dans un tableau de distribution
de fréquences, Il faut tenir compte du poids de l’effectif associé à chaque valeur xi ou à chaque
classe, selon les cas. Dans le cas d’une série aux valeurs discrètes, il n’y a pas de difficulté
particulière. Dans le cas d’une série continue transformée en classes, il faut tenir compte du fait que
l’on ne connaît plus dans le détail les valeurs xi de la variable. Il faut utiliser une approximation. En
général, on retient le centre de la classe, qui se calcule en additionnant les deux limites de classe et
en divisant le résultat par deux. La formule de calcul devient :

Avec : X = moyenne de la série


ci = valeur du centre de la classe i
k = nombre total de classes
ni = effectif de la classe i
n = taille de l’échantillon
\/|
b. Exemple illustratif
$|
Reprenons l’exemple des effectifs d’entreprises.
4$

Figure 11.10. Ventilation des entreprises selon l’effectif


By

Limites des classes Centre de classe


Effectifs (ni) Produit nici
(Li) (ci)
[0 ; 500[ 14 250 3 500
[500 ; 1 000[ 4 750 3 000
[1 000 ; 5 000[ 2 3 000 6 000
Total 20

Les entreprises de l’échantillon comptent donc en moyenne

collaborateurs. Il s’agit bien d’une approximation. Par exemple,


le total des effectifs pour les entreprises de la classe [1 000 ; 5 000[ est ici de 6 000 alors qu’il est
dans la réalité de 4 759 + 1 350 = 6 109. Il est préférable, lorsqu’on en a la possibilité, de calculer
la moyenne, et l’ensemble des paramètres statistiques, à partir des données brutes. La « vraie »
moyenne pour cette série est de 613,65 collaborateurs.
3. Contraintes et limites du calcul d’une moyenne
a. Échelle de mesure
Fondé sur la notion de distance, le calcul d'une moyenne exige que les variables soient mesurées
avec des échelles d’intervalle ou de ratio. Cette contrainte est importante : elle explique pourquoi
le chargé d’études doit avoir, lors de la rédaction du questionnaire, réfléchi aux traitements
envisagés pour les données. On appréciera ainsi d’avoir privilégié une échelle à supports
sémantiques ou une échelle de Likert : celles-ci sont, certes, plus lourdes à manier et à construire,
mais nettement plus parlantes, lors des analyses, qu’un classement ordinal rapide ou un simple
choix dichotomique.

b. Interprétation de la moyenne
Au-delà de la perte de précision liée à la transformation en classes, la moyenne souffre de deux
limites importantes. Elle est sensible aux observations extrêmes et elle ne tient pas compte de la
répartition des observations dans l’espace.

Sensibilité aux observations extrêmes


Il suffit d’une ou deux valeurs aberrantes pour faire varier sensiblement la moyenne, ce qui nuit à
\/|
son interprétation. En outre, cette influence des valeurs extrêmes sera d’autant plus forte que
$|
l’effectif de la série statistique dont on calcule la moyenne est faible.
4$

Exemple
By

La moyenne obtenue avec les chiffres de six régions était de 29 253 chambres (voir
figure 11.9.). Enlevons l’observation Rhône-Alpes, dont la valeur est très supérieure
aux autres. La moyenne devient :

Soit une baisse de 25,45 % de sa valeur alors que nous n’avons ôté que 16,7 % des
observations (1/6).

Répartition des observations


Deux séries de données peuvent avoir une même moyenne et, pourtant, présenter des configurations
totalement différentes. Par exemple, dans un cas, on peut avoir une série de valeurs très proches de
la moyenne, et dans l’autre une majorité de valeurs faibles compensées par une très forte
observation.
Ceci nous amène à conclure que la moyenne, indicateur de tendance centrale, est insuffisante pour
décrire une série statistique, puisqu’elle peut masquer des situations différentes et conduire à des
interprétations erronées. Il faut donc compléter cette information par l’observation et
l’interprétation de la répartition des observations autour de la moyenne. C’est la notion de
dispersion, que nous abordons maintenant.

B. Variance et écart-type
1. Variance
La variance donne une connaissance de la distance entre chaque point et la moyenne. On distingue
le cas des séries brutes et celui des séries transformées en classes.

a. 1er cas : séries brutes

Formule de calcul
La variance d’une population (σ2) est égale à :

\/|
Avec : xi = valeur de l’observation i
$|
N = nombre total d’individus dans la population
4$

μ = moyenne de la variable dans la population


By

Il est important de distinguer la variance de population de la variance d’échantillon, que l’on


utilisera plus tard comme estimateur de la variance de population. Des précisions sont données
dans le guide statistique en ligne et tout au long des chapitres suivants.
L’idée de dispersion est donnée par l’écart à la moyenne (xi – μ). Il représente la position de
chaque point par rapport à la moyenne. Résumer simplement la dispersion de la série consisterait à
faire la somme de ces écarts.
Mais la fiche technique 11.3. montre que la somme des écarts à la moyenne est nulle par définition.
On « triche » en élevant au carré chacune des différences, ce qui a pour effet d’éliminer tous les
signes négatifs et de produire une somme positive. Les carrés des écarts à la moyenne constituent
une nouvelle série statistique, dérivée de la première. Or la manière la plus simple de résumer une
série statistique est d’en calculer la moyenne. Cette nouvelle statistique, la moyenne des carrés des
écarts à la moyenne, également appelée écart quadratique moyen, s’appelle la variance.
On notera aussi qu’en développant la formule de calcul de la variance, on obtient une nouvelle
expression qui en facilite le calcul si l’on ne dispose que d’une calculette peu sophistiquée :
Exemple
On souhaite évaluer la variance de la série des capacités hôtelières des six régions
françaises précédemment évoquées. Pour des raisons de lisibilité, les chiffres sont
exprimés en milliers de chambres, ce qui revient à diviser les chiffres initiaux par
1 000. Ces six régions sont, dans cet exemple, artificiellement considérées comme la
population totale.
Calculons d’abord la différence entre chaque observation et la moyenne de la série :
les résultats sont donnés dans la 3e colonne de la figure 11.11. On vérifie bien que la
somme des écarts est égale à 0. Chaque écart est ensuite élevé au carré (4e colonne).
On obtient une somme totale des carrés des écarts égale à 1 956,5497. En divisant ce
chiffre par 6 (nombre de régions), on obtient la variance :

L’élévation au carré fait disparaitre l’unité de mesure d’origine et rend la variance


difficilement interprétable. Il s’agit surtout d’une étape intermédiaire vers un autre
paramètre, l’écart-type, présenté plus loin. \/|
$|
Figure 11.11. Calcul de la variance des capacités hôtelières de six régions
4$

Capacité hôtelière
By

(xi) Écarts au carré


Région Écart (xi – μ)
en milliers de (xi – μ)2
chambres
Champagne-Ardenne 9,038 – 20,215 408,6462
Nord-Pas-de-Calais 17,673 – 11,580 134,0964
Bretagne 25,013 – 4,240 17,9776
Languedoc-
26,439 – 2,814 7,9186
Roussillon
Aquitaine 30,883 + 1,630 2,6569
Rhône-Alpes 66,472 + 37,219 1 385,2540
Total μ = X = 29,253 0 1 956,5497

2e cas : séries transformées en classes

Formule de calcul
Si les données sont groupées dans un tableau de fréquences, les formules de calculs restent très
proches du cas précédent. Pour une série continue transformée en classes sur une population de
taille N :

Avec : ci = centre de la classe i


N = nombre total d’observations (taille de la population)
k = nombre de classes de la variable
ni = effectif de la classe i,
μ = moyenne des observations dans la population

Exemple
La figure 11.12. reprend les effectifs d’entreprises. Elle est complétée par une colonne
ni(ci – μ)2. On a pris μ = 625 en considérant que l’on n’avait que ces données à
disposition. La variance de la variable est donc égale à :
\/|
$|
4$
By

Figure 11.12. Variance des effectifs d’entreprises

Limites des classes Effectifs Centre de classe Produit ni (ci –


(Li) (ni) (ci) μ)2
[0 ; 500[ 14 250 1 968 750
[500 ; 1 000[ 4 750 62 500
[1 000 ; 5 000[ 2 3 000 11 281 250
Total 20 13 312 500

2. Écart-type
La variance a un inconvénient majeur : elle s’exprime dans une unité difficilement interprétable. En
effet, elle représente un nombre élevé au carré. Pour pallier cet inconvénient, et retrouver l’échelle
de départ, il faut « éliminer » l’effet du carré.
a. Formule de calcul
L’écart-type (σ) correspond simplement à la racine carrée de la variance.
– Cas d’une série simple

– Cas d’une série transformée en classes

Exemple
– L’écart-type de l’offre hôtelière des six régions françaises (figure 11.11.) est égal à :

Comme nous avons tout exprimé en milliers de chambres, l’écart-type est en réalité de
18 058 chambres. \/|
Interprétation : l’écart moyen observé entre les offres hôtelières des régions (en
$|
nombre de chambres) et l’offre hôtelière moyenne dans la série est de
4$

18 058 chambres.
– L’écart-type des effectifs des entreprises (figure 11.12.) est égal à :
By

Interprétation : l’écart moyen observé entre les effectifs des entreprises et l’effectif
moyen dans la série est de 815,8584 collaborateurs.

b. Interprétation
L’exemple montre que l’écart-type s’interprète comme la distance moyenne entre les observations
de la série et sa tendance centrale, exprimée par la moyenne. Pris isolément, il est malheureusement
peu parlant. Le coefficient de variation permet d’enrichir le contenu en information de l’écart-type.

C. Coefficient de variation
L’importance de la dispersion d’une série peut s’évaluer de manière relative en rapportant l’écart-
type à la valeur de la moyenne. Ceci élimine l’effet de l’unité de mesure et permet des
comparaisons entre variables sur une même population, ainsi qu’entre populations pour des
variables identiques. Ce paramètre est appelé « coefficient de variation ».
Le coefficient de variation (CV) se calcule de la manière suivante :
Pour l’exprimer en pourcentage, il suffit de multiplier le résultat par 100.

Exemple
Pour l’exemple des régions, le coefficient de variation des capacités hôtelières est
égal à :

Une série statistique est réputée dispersée si son CV dépasse 25 %. Il faut en conclure
ici que les six régions étudiées sont très différentes en termes d’offre hôtelière. Que ce
soit pour le tourisme ou les affaires c’est un indicateur important de développement
économique.
Pour l’exemple des entreprises, le coefficient de variation est égal à :
\/|
$|

On voit ici que l’impact de la première entreprise (Go Sport), dont l’effectif est très
4$

supérieur aux autres, a été important. La moyenne a été tirée vers le haut et bon nombre
d’entreprises à l’effectif relativement homogène autour de 150 personnes s’en sont
By

retrouvées très éloignées, ce qui a gonflé la dispersion. La série est également


extrêmement hétérogène.

Conclusion
Nous avons vu comment décrire et synthétiser une distribution statistique. Un préalable important
consiste à construire le tableau de dépouillement pour rassembler l’information éparse dans les
questionnaires. Le plus souvent, les individus forment les lignes de ce tableau, et les variables
représentent les colonnes.
L’élaboration du tableau de distribution de fréquences constitue un deuxième niveau de synthèse. Il
permet d’évaluer l’importance relative de chaque modalité dans l’ensemble des réponses. Le
tableau de contingence, troisième étape de l’analyse descriptive, met en évidence les éventuels
liens entre paires de variables.
Une dernière opération permet de résumer la distribution des différentes variables, selon le niveau
de mesure de cette dernière. Dans le cas d’une mesure de niveau métrique, on peut calculer deux
indices descriptifs simples : la moyenne, statistique de tendance centrale, et l’écart-type, statistique
de dispersion.
Test de connaissance
(Cochez une seule réponse par question.)
Q1. Le tableau de dépouillement est :
(1) la synthèse de l’information issue des questionnaires
(2) le plan de codage du questionnaire
(3) l’ensemble des statistiques calculées sur les données
Q2. La fréquence relative d’une modalité est :
(1) l’effectif associé à chaque modalité d’une question
(2) la proportion d’individus ayant choisi cette modalité
(3) l’effectif moyen pour toutes les modalités
Q3. Faire un tri croisé consiste à :
(1) compter le nombre d’apparitions de tous les couples de modalités de 2 variables
(2) calculer les fréquences relatives de 2 variables, puis les comparer
\/|
(3) trier les questionnaires selon certaines caractéristiques des individus
$|
4$

Q4. L’écart-type d’une distribution est :


(1) la différence entre les deux observations extrêmes
By

(2) l’écart moyen des observations à la moyenne


(3) le rapport de la moyenne à la plus grande observation
Q5. Un coefficient de variation est considéré comme l’indice d’une série dispersée s’il est
supérieur à :
(1) 5 %
(2) 10 %
(3) 25 %
Réponses : voir annexes téléchargeables sur www.vuibert.fr

Bibliographie
BERENSON M. L., LEVINE D. M., KREHBIEL T. C. et STEPHAN D. F., Basic Business Statistics,
12e éd., Paris, Pearson Global Edition, 2011.
BOURSIN J.-L. et DURU G., Statistique, 2e éd., Vuibert Gestion, 1995.
MALHOTRA N., DÉCAUDIN J. M., BOUGUERRA A et BORIÈS D., Études marketing avec SPSS, 6e éd.,
Paris, Pearson Education France, 2014.
PY B., La statistique sans formules mathématiques, 3e édition, Paris, Pearson Education, 2013.
TRIBOUT B., Statistique pour économistes et gestionnaires, 2e édition, Paris, Pearson Education
France, 2013.

\/|
$|
4$
By
Chapitre 12

Tests statistiques
Les faits sont têtus. Il est plus facile de s’arranger avec les statistiques.
M. TWAIN

À ce stade de l’étude, l’analyste se pose encore une multitude de questions. En particulier, il peut
souhaiter formuler une conclusion objective sur la valeur d’un résultat. Par exemple, d’après les
données du recensement, la répartition par sexe de la population des 20 à 74 ans dans un
département est de 49,78 % pour les hommes et de 50,22 % pour les femmes. Supposons que l’on
ait sélectionné un échantillon dans cette population et que la répartition observée soit
respectivement 48,36 % et 51,64 %. Que doit-on conclure : que l’échantillon n’est pas représentatif
\/|
de la population sur ce critère et que les femmes sont surreprésentées, ou que les différences
$|
observées peuvent être négligées ?
4$

Les tests statistiques permettent de répondre objectivement à ce type de question. S’il en existe une
grande quantité, leur procédure de mise en œuvre est identique(318). Nous les présenterons en
By

fonction du nombre de variables prises en compte. La première partie abordera les tests portant sur
une variable, tandis que la seconde sera consacrée aux tests comparant deux variables (voir
figure 12.1.).
Figure 12.1. Plan du chapitre

\/|
$|
4$
By

I. Tests sur une variable


Ce type de test, le plus simple, considère une seule variable et un seul échantillon. Il s’agit, pour la
majorité d’entre eux, de tests d’ajustement d’une valeur observée à une valeur attendue(319). D’autres
tests comparent, toujours sur une seule variable, les résultats obtenus sur deux échantillons ou deux
sous-groupes à l’intérieur du même échantillon (par exemple, hommes et femmes, hypermarchés et
supermarchés...).

A. Tests d’ajustement
Ces tests évaluent la différence entre une ou plusieurs valeur(s) observé(s) et une ou plusieurs
valeurs(s) « standard(s) » (également qualifiée(s) d’« attendue(s) » ou « théorique(s) ») pour le
phénomène étudié. Seule la nature des données détermine le choix du test. Nous présenterons ici,
respectivement, le test du chi-deux (χ2) d’ajustement à une distribution d’effectifs, le test en t
d’ajustement à une moyenne, le test binomial et le test unilatéral de Kolmogorov-Smirnov. Le test
en z d’ajustement à une proportion est présenté et illustré dans le guide statistique en ligne.

1. Test d’ajustement du chi-deux


Dans le cas général, ce test vérifie la conformité d’une distribution d’effectifs observés à une
distribution d’effectifs « théoriques » ou attendus. Il est particulièrement adapté aux données
nominales, mais peut également s’appliquer à des données ordinales ou métriques. Dans ce cas,
elles doivent être artificiellement rendues catégorielles (e.g. transformation en classes).
La fiche technique 12.1. détaille les principes de mise en œuvre du test et la formule de calcul.

Fiche technique 12.1. Test d’ajustement du chi-deux


1 – Objectifs et hypothèses
On compare une distribution observée à une distribution théorique.
L’hypothèse nulle du test postule que l’effectif observé pour chaque modalité de la variable est égal, dans la
population, à l’effectif attendu (« théorique ») pour cette modalité. L’alternative pose qu’il existe au moins une
modalité pour laquelle les deux effectifs seront différents. Soit :

avec : oi = effectif observé (échantillon) de la modalité i


ti = effectif attendu (population) de la modalité i.
2 – Formule de calcul
\/|
$|
avec : k = nombre de modalités de la variable
4$

On montre que si H0 est vraie, les valeurs prises par la grandeur ci-dessus suivent une loi statistique dite du χ 2
(se prononce « qui deux ») à k – 1 degrés de liberté.
By

3 – Règles de décision
Le test compare la valeur χ 2calculé à la valeur critique χ 2tabulé lue dans la table de la loi du χ 2, pour un seuil de
risque α et k – 1 degrés de liberté.
Si tcalculé > ttabulé : on rejette H0, avec un risque d’erreur α (donc on accepte H1).
Si tcalculé ≤ ttabulé : on ne peut pas rejeter H0.
Pour un risque α donné, χ 2tabulé est ainsi la valeur maximum tolérable si l’on suppose que H0 est vraie.
4 – Limites
Ce test est très dépendant de la taille d’échantillon. Si celle-ci est petite, les écarts observés seront faibles, et
H0 sera rarement rejetée. À l’inverse, un très gros échantillon conduira à un rejet systématique de H0. Par
ailleurs, les effectifs attendus doivent être au moins égaux à 1 pour chaque modalité, sinon la valeur de
\/|
χ 2calculé augmente artificiellement. La validité du test est également remise en cause si 20 % ou plus des
$|
effectifs attendus sont inférieurs à 5. Pour satisfaire cette condition, on ne doit pas hésiter à regrouper les
4$

modalités de la variable étudiée.


By
Exemple
On s’interroge sur la conformité d’un échantillon à la population nationale âgée de
plus de 15 ans pour la variable professions et catégories socioprofessionnelles (PCS).
La figure 12.2. reproduit les deux distributions(320).
Figure 12.2. Comparaison de la répartition des deux distributions de PCS

* Principe de calcul de l’effectif théorique : (fréquence réelle de la PCS dans la population mère) × (effectif total de
l’échantillon). Soit, pour les agriculteurs : 3,95 = 0,01011 × 391.
\/|
Nous constatons des écarts entre les effectifs observés dans l’échantillon, et ce qu’ils
$|
devraient être si la répartition par PCS était, dans ce dernier, strictement identique à
4$

celle de la population. Ces écarts sont-ils suffisamment importants pour conclure à la


non-représentativité de l’échantillon en termes de PCS, ou peuvent-ils être négligés ?
By

Le test d’ajustement du χ2 permet de répondre.


La statistique du test est égale à :

Comme k = 8, le degré de liberté associé au test est égal à ν = k – 1 = 7. On lit dans la


table du χ2 (les tables statistiques les plus usuelles sont téléchargeables gratuitement
sur le site Vuibert.fr) la valeur critique du test, pour α = 5 % et ν = 7 (i.e. à
l’intersection de la colonne .05 et de la ligne 7). Elle est de χ2tabulé = 14,1 donc très
inférieure à celle de χ2calculé. Nous rejetons H0 et concluons que l’échantillon, au
moins en ce qui concerne les PCS, n’est pas représentatif de la population nationale
âgée de plus de 15 ans. Cette conclusion est formulée avec un risque d’erreur α = 5 %
(i.e. on a 5 % de chance de se tromper).

2. Test en t sur une moyenne


a. Contraintes d’utilisation
Ce test a une double exigence :
– échelle d’intervalle ou de ratio. Les réponses fournies dans le questionnaire doivent disposer de
l’une de ces propriétés ;
– distribution spécifique. Si la taille d’échantillon est supérieure à n = 30, alors la distribution de la
variable dans la population peut être quelconque. Mais un échantillon inférieur à 30 individus
implique que la variable étudiée suive une loi normale dans la population. Dans le cas contraire, le
test en t n’est pas approprié.
b. Objectifs et principes
Ce test vérifie si la valeur d’une moyenne observée dans un échantillon est significativement
différente d’une valeur théorique attendue. La loi statistique de référence du test en t est la loi de
Student. La fiche technique 12.2. expose les principes de base.

Fiche technique 12.2. Test d’ajustement en t à une moyenne


1 – Hypothèses et principes
Le choix du test dépend de trois conditions précises : la loi de distribution de la variable dans la population, la
taille de l’échantillon et la connaissance de la variance de la variable étudiée dans la population. Cette dernière
condition est rarement satisfaite en marketing et ce qui suit ne concerne que des cas où la variance de
\/|
population est inconnue. Le tableau suivant récapitule les cas possibles :
$|
4$
By

Les hypothèses sont :


2 – Formule de calcul
La statistique du test est :

Avec :

où : xi = valeur de X pour l’individu i,


\/|
s 2 = variance d’échantillon,
$|
X = moyenne des observations xi,
4$

μ 0 = moyenne attendue,
n = taille de l’échantillon.
By

Rappel : la variance d’échantillon s 2 est un estimateur sans biais de la variance de population.


3 – Règles de décision
Elles sont identiques à celles de tous les tests ; la valeur critique de ttabulé est lue dans la table de Student, pour
les différents seuils de risque acceptés. Pour n > 120, on peut utiliser la table de la loi normale centrée-réduite
car les valeurs de t et de z se confondent.
Donc :
si : tcalculé > ttabulé, on rejette H0 et on conclut à l’existence d’une différence significative entre les deux
moyennes,
si : tcalculé ≤ ttabulé, on ne peut pas rejeter H0 (i.e. absence de différence entre les deux moyennes).
Ces conclusions valent pour un test unilatéral. Dans le cas d’un test bilatéral, la zone de non-rejet de H0 est
incluse dans l’intervalle situé entre la valeur de ttabulé et la valeur opposée (voir, si besoin est, le guide
statistique téléchargeable).
Exemple
Lancement d’un nouveau « produit-voyage »
Un tour opérateur veut mettre un nouveau produit à son catalogue. La rentabilité de ce
produit suppose 50 réservations hebdomadaires au minimum par agence. À titre de
test, il décide de l’inclure au catalogue de 10 de ses agences, pendant une période de
trois mois. Les résultats obtenus sont donnés dans la figure 12.3.
Figure 12.3. Réservations hebdomadaires moyennes selon les agences

Numéros des Nombre de réservations


agences hebdomadaires moyennes
1 51
2 48
3 58
4 55
5 \/| 52
6 49
$|
7 50
4$

8 54
9 53
By

10 52

Le test est unilatéral : on souhaite que les ventes soient supérieures à 50 réservations
hebdomadaires par agence.
Les hypothèses sont alors :
H0 : μ ≤ 50
H0 : μ > 50
La moyenne et l’écart-type d’échantillon sont respectivement :

On admet que la distribution des ventes dans la population des agences suit une loi normale.
Compte tenu de la taille d’échantillon, c’est un test en t qui s’applique. La valeur calculée de la
statistique du test est :
Au seuil α = 5 %, et pour un nombre de degrés de liberté égal à 9, la valeur critique de t lue dans la
table est : ttabulé = 1,833. On vérifie la condition tcalculé > ttabulé et H0 doit être rejetée. Nous
concluons par conséquent, avec un risque d’erreur de 5 %, que la moyenne hebdomadaire des
réservations sera supérieure à 50 dans la population des agences. Le tour opérateur peut prendre la
décision d’inclure le produit à son catalogue général.
Les tests présentés jusqu’ici portaient sur une seule variable et un seul échantillon. Nous allons
maintenant envisager la comparaison de résultats obtenus sur deux échantillons différents, pour une
même variable.

3. Test binomial
a. Contraintes d’utilisation
Le test binomial s’applique à des variables nominales dichotomiques qui segmentent une population
en deux catégories complémentaires de type « succès » et « échec ». Si π est la proportion de
« succès » dans la population, alors 1 – π est la proportion d’« échecs ».
\/|
Ce type de phénomène est en principe décrit par une loi binomiale mais peut être approché par une
$|

loi normale dès que la taille d’échantillon devient assez grande. Il n’y a pas de norme, car cette
4$

taille et la valeur de p, la proportion de « succès » observée dans l’échantillon, sont liées. Il existe
une table spécifique pour les cas où n ≤ 35, mais certains auteurs admettent l’utilisation de
By

l’approximation normale à partir d’un double seuil np et n (1 – p) > 5 ou np (1 – p) > 9.

b. Objectifs et principes
Dans son fonctionnement et sa logique, ce test est comparable au test d’ajustement en z à une
proportion (guide statistique en ligne). Sa loi statistique de référence est la loi normale centrée-
réduite. La fiche technique 12.3. expose son fonctionnement.
Fiche technique 12.3. Test binomial
1 – Hypothèses et principes
En général, on fixe les hypothèses en référence à une valeur connue de population ou, en l’absence d’information
spécifique, à l’équiprobabilité des succès et des échecs dans la population (« 50 / 50 »). Dans ce cas, les
hypothèses du test s’écriront :
H0 : π = 0,5
H0 : π ≠ 0,5
Si l’on dispose d’une valeur de référence pour la population, les hypothèses deviennent :
H0 : π = π0
H0 : π ≠ π0
Avec π0 représentant la valeur de référence (par exemple 0,52 pour la proportion d’hommes dans la population
française).
Le test peut également être unilatéral.
2 – Formule de calcul
La statistique du test est :

Avec : xa = x + 0,5 quand x < nπ \/|


xa = x – 0,5 quand x > nπ
$|
où x est le nombre de succès observés dans l’échantillon.
4$

Le fait d’ajouter ou de retrancher 0,5 à x est appelé « correction de continuité ». Elle tient compte du fait que l’on
utilise une loi normale (donc continue) pour décrire des phénomènes en réalité discrets (voire binaires dans ce
By

cas). En appliquant la correction, on raisonne sur un intervalle de valeurs pour x et non pas sur une valeur exacte
qui, dans le cas d’une loi continue, n’a pas grand intérêt.
3 – Règles de décision
Elles sont identiques à celles du test en z développé dans le guide statistique en ligne, soit :
Rejet de H0 si zcalculé > ztabulé
Non-rejet de H0 si zcalculé ≤ ztabulé
On renverse ces relations pour des valeurs négatives de z.
La table statistique de référence est celle de la loi normale centrée-réduite pour une valeur fixée du seuil de
risque α. Si ce seuil est fixé, classiquement, à 5 % alors ztabulé = ± 1,96 pour un test bilatéral et ztabulé =
± 1,645 pour un test unilatéral.
Exemple
Les statistiques de l’Insee montrent que 19 % des 15-24 ans ne vont jamais au cinéma.
Une enquête a été réalisée auprès d’un échantillon d’étudiants de moins de 25 ans dans
une université du sillon alpin. Leur fréquentation du cinéma est donnée ci-dessous. Les
valeurs expriment le nombre d’individus. Par exemple : 19 personnes de sexe
masculin ne vont jamais au cinéma.
Figure 12.4. Fréquentation du cinéma en fonction du sexe

Sexe
Total
Masculin Féminin
0 19 30 49
Fréquence de 1 49 112 161
consommation 2 15 28 43
(nombre de fois 3 4 5 9
par mois)
4 6 \/| 6 12
5 4 0 4
$|
Total 97 181 278
4$
By

Peut-on dire que la population des étudiants de cette université fréquente davantage le cinéma que
la population française dans cette classe d’âge ?
La mesure d’origine est métrique mais peut facilement être rendue binaire. On appellera x = 0 un
« succès » (i.e. le fait de ne jamais aller au cinéma) et x ≠ 0 un « échec ».
Comme il s’agit de montrer que la population de référence (celle dont provient l’échantillon) a un
comportement différent de la population française, dans le sens d’une plus grande fréquentation, le
test va être unilatéral et les hypothèses s’écrivent :
H0 : π ≤ 0,19
H1 : π > 0,19
Le sens des inégalités n’est pas indifférent. Il rappelle que la « théorie » testée est celle que donne
H1. Le contraire, que l’on cherche à rejeter, figure par conséquent en H0.
En l’absence d’informations liées au seuil de risque, on s’en tient au conventionnel α = 0,05.
Il s’agit maintenant de calculer la proportion p de « succès » dans l’échantillon. Comme
49 étudiants sur 278 ont répondu ne jamais aller au cinéma, on a p = 49/278 = 0,1763.
La taille d’échantillon permet de s’orienter d’emblée vers une approximation normale du test. En
effet np = 278 × 0,1763 = 49,1 et n(1 – p) = 278 × 0,8237 = 228,99 sont bien supérieurs à 5. De
même, np(1 – p) = 278 × 0,1763 × 0,8237 = 40,37 est supérieur à 9.
Dans ces conditions, la valeur calculée de la statistique du test est :

La valeur calculée du test est supérieure à sa valeur critique (– 1,645). Cela conduit à ne pas rejeter
H0. Il est par conséquent impossible de conclure que la population des étudiants de cette université
fréquente davantage le cinéma que la population française, pour cette classe d’âge.
Il faut toutefois remarquer que la conclusion est sujette à caution puisque les statistiques de l’Insee
globalisent les 15-24 ans alors que la population des étudiants est majoritairement composée de 18-
25 ans. Des données segmentées plus finement et/ou redressées seraient donc nécessaires.

4. Test « unilatéral » de Kolmogorov-Smirnov


a. Contraintes d’utilisation
Il s’agit d’un test de « qualité d’ajustement » (goodness of fit) au même titre que le test du chi-deux
précédemment étudié. Le niveau de mesure requis est au moins ordinal pour une approximation.
Pour un test réputé « exact », les données doivent être continues.

b. Objectifs et principes \/|


Ce test compare une distribution observée sur un échantillon à une distribution attendue si H0 est
$|
vraie. Les deux sont des distributions de fréquences cumulées. La question centrale est de savoir si
4$

elles sont relatives à des individus issus de la même population.


By
Fiche technique 12.4. Test unilatéral de Kolmogorov-Smirnov
1 – Hypothèses et principes
Les hypothèses sont fixées en référence à des valeurs attendues. Comme pour le test binomial il peut s’agir d’une
hypothèse d’équiprobabilité (i.e. toutes les modalités de la variable auront la même fréquence relative). Plus
généralement, on va se référer à une distribution attendue calculée à partir d’une loi statistique particulière (loi
normale le plus souvent).
L’hypothèse nulle spécifie que la distribution observée de fréquences cumulées correspond en tout point à la
distribution théorique, soit :

Rien n’empêche d’en faire un test unilatéral mais, en pratique, ce test s’applique le plus souvent avec une logique
bilatérale.
2 – Formule de calcul
La statistique du test est :
D = max| F |
thi – Foi

Avec :
Fo = fréquence cumulée observée à la modalité i
i
Fth = fréquence cumulée attendue à la modalité i
i
\/|
Calculer D revient à identifier la modalité (ou la classe) pour laquelle les deux distributions montrent la plus
$|
grande divergence.
4$

Certains logiciels proposent une approximation normale de la statistique du test. Elle se calcule par
(http://faculty.chass.ncsu.edu/garson/PA765/kolmo.htm) :
By

3 – Règles de décision
Si H0 est vraie, la distribution d’échantillonnage de D est connue. Pour les petits échantillons ses valeurs
critiques sont données dans une table spécifique (Siegel et Castellan, 1988). Elles dépendent uniquement de α et
de n. Il n’y a pas de notion de degré de liberté dans ce cas. Les règles de décision sont :
Rejet de H0 si Dcalculé > Dtabulé
Non-rejet de H0 si Dcalculé ≤ Dtabulé
Pour les échantillons de taille supérieure à n = 35, on compare D à une grandeur variant en fonction de α et de n.
Il s’agit d’un rapport dont le numérateur dépend de α et dont le dénominateur est la racine carrée de la taille

d’échantillon. Pour α = 0,05, par exemple, cette grandeur est égale à .


Dans ce cas :

Rejet de H0 si

Non-rejet de H0 si .
Si l’on utilise l’approximation normale, les règles de décision sont identiques à celles du test binomial.
Exemple
Deux messages publicitaires A et B sont testés auprès d’un échantillon de
200 répondants, à qui on demande de comparer les deux messages sur une échelle en
cinq points. Si les deux messages sont équivalents, le plus probable est que la
répartition des réponses sera identique entre les préférences pour A et les préférences
pour B.
L’hypothèse nulle pose donc que la distribution de fréquences attendue est uniforme,
c’est-à-dire que les deux messages ont un effet identique. L’alternative dit le contraire,
c’est-à-dire que la distribution théorique n’est pas uniforme, donc que les deux
messages ont un effet différent.
Les deux distributions de fréquences sont données dans le tableau ci-après.
Figure 12.5. Effet comparé de deux messages publicitaires

Selon vous, le message A est : fth Fth fo Fo Fth – Fo


Meilleur que B 0,2 0,2 0,4 0,4 – 0,2
Plutôt meilleur que B 0,2
\/| 0,4 0,3 0,7 – 0,3
Ni meilleur ni moins bon que B 0,2 0,6 0,15 0,85 – 0,25
$|
Plutôt moins bon que B 0,2 0,8 0,1 0,95 – 0,15
4$

Moins bon que B 0,2 1 0,05 1 0


By

La valeur calculée de D est la plus grande des différences observées entre la fréquence cumulée
observée et la fréquence cumulée théorique. Elle est exprimée en valeur absolue. Ici, D = 0,3.

Comme n est supérieur à 35, on compare D à la grandeur critique .


On a Dcalculé > Dtabulé, donc on rejette H0. On en conclut que les deux messages ont un effet différent.
L’approximation normale du test donne :

Le test étant bilatéral, la valeur critique de z pour α = 0,05 est égale à 1,96. À nouveau on constate
que zcalculé > ztabulé, donc on rejette H0.
Abordons maintenant les tests relatifs à la comparaison de résultats observés sur deux échantillons.

B. Tests de comparaison entre deux échantillons


De nombreux tests visent à comparer la même grandeur, obtenue sur deux échantillons différents
issus de la même population. Par exemple, la consommation moyenne de cigarettes chez des
fumeurs de sexe masculin comparée à la même consommation moyenne chez des fumeurs de sexe
féminin. La comparaison entre les deux grandeurs peut prendre différentes formes, mais il s’agit la
plupart du temps soit d’un rapport, soit d’une différence. Nous présenterons d’abord un test de
comparaison de variances puis nous aborderons des tests de différences de moyennes et de
proportions.

1. Test de comparaison de deux variances


a. Contraintes d’utilisation
Trois conditions d’utilisation, principalement, rendent ce test exigeant. D’une part, les données
doivent être métriques, au moins d’intervalle. D’autre part, les observations doivent être
indépendantes. Enfin, la distribution de la variable étudiée doit suivre une loi normale dans chacune
des deux sous-populations dans lesquelles les échantillons ont été sélectionnés.

b. Objectifs et principes
Ce test est utilisé dans un grand nombre de méthodes d’analyse de données, telles que l’analyse de
régression (chapitres 13 et 14) ou l’analyse de variance (chapitre 15). Il est également utilisé pour
vérifier les conditions d’application du test en t de différences de moyennes.
\/|
$|
Il consiste à comparer deux variances calculées sur deux échantillons, en partant du principe
(hypothèse nulle) qu’elles sont égales dans la population.
4$
By
Fiche technique 12.5. Test en F de comparaison de variances
1 – Hypothèses et principes

Contrairement à la plupart des tests, le rejet de H0 n’est pas forcément l’objectif principal. C’est le cas, par
exemple, dans un test en t de différences de moyennes (voir ci-après)
2 – Formule de calcul
La statistique du test est :

Où : est la variance d’échantillon no 1 (i.e. estimateur sans biais de la variance de la variable dans la sous-
population 1)

est la variance d’échantillon no 2 (i.e. estimateur sans biais de la variance de la variable dans la sous-
population 2)
Rappel :
\/|
$|
La distribution d’échantillonnage de cette statistique suit une loi de Fisher-Snedecor à n1 – 1 et n2 – 1 degrés de
4$

liberté.
Avec : n1 = taille de l’échantillon 1
By

n2 = taille de l’échantillon 2
3 – Règles de décision
On rejette H0 si Fcalculé > Ftabulé.
La valeur Ftabulé est lue dans la table de Fisher-Snedecor (table 5 du panorama téléchargeable) pour α fixé et n1
– 1 et n2 – 1 degrés de liberté.
Exemples
On a mesuré l’attrait pour le risque en contexte touristique auprès d’un échantillon de
303 individus. L’une des propositions était : « J’aime aller en vacances dans des pays
où il y a du danger (terrorisme, guerre, volcans, climat...) » Les réponses étaient
recueillies sur une échelle de Likert en sept points, de 1 = « pas du tout d’accord » à
7 = « tout à fait d’accord ». On souhaite savoir si les hommes et les femmes se
distinguent sur cette proposition. Pour cela, il faut effectuer un test de différence de
moyennes (voir section 2 ci-après). L’une des contraintes d’utilisation de ce test est
l’égalité des variances de population pour la variable étudiée.
Autrement dit, il faut pouvoir estimer que la variance de cette variable d’attrait pour le
risque dans la population des femmes est la même que dans la population des hommes.
On fait donc appel au test en F, en posant comme hypothèses :

Résultats observés sur l’échantillon :

Sexe n X s
\/|
$|
Masculin 148 1,60 1,313
4$

Féminin 155 1,61 1,213


By

Valeur calculée de F :

La table de la loi de Fisher se présente généralement en deux blocs, l’un pour α = 0,025 et l’autre
pour α = 0,05, soit un test bilatéral et un test unilatéral. La valeur critique du test se lit à
l’intersection de la colonne correspondant au degré de liberté du numérateur et de la ligne
correspondant au degré de liberté du dénominateur. Ici le test est bilatéral, donc α = 0,025. On lit à
l’intersection des lignes 100 et 200 et des colonnes 100 et 200 car les valeurs exactes (147 et 154,
respectivement, au numérateur et au dénominateur) ne figurent pas dans la table.
Pour s’éviter une fastidieuse interpolation linéaire, on va considérer ici que les deux degrés de
liberté sont égaux à 150 et on va retenir la valeur moyenne des quatre chiffres reportés ci-dessous.
La moyenne de 1,48, 1,42, 1,39 et 1,32 est égale à 1,4025. C’est la valeur Ftabulé.
On a Fcalculé ≤ Ftabulé, ce qui amène à ne pas pouvoir rejeter H0. Dans la population, les deux
variances peuvent ainsi être considérées comme égales.

2. Test de différences entre deux moyennes


a. Contraintes d’utilisation \/|
Puisque le paramètre concerné est la moyenne, il faut disposer de mesures de niveau d’intervalle au
$|
moins. Par ailleurs, la distribution de la variable doit suivre une loi normale dans les deux sous-
4$

populations définies par le critère de regroupement (e.g. le genre). Il existe différentes variantes du
test selon :
By

– la connaissance préalable des variances de population : en marketing, c’est très rarement le cas,
donc nous n’aborderons pas cette variante ;
– l’égalité des variances de population : le test repose sur cette contrainte. Si elle n’est pas
respectée, on doit utiliser un test adapté ;
– la nature des échantillons : ils peuvent être indépendants ou appariés. Dans ce second cas, on
utilise également un test adapté.
b. Objectifs et principes
Les résultats de tests de différences permettent d’arbitrer entre plusieurs choix marketing. Par
exemple, un chef de produit hésite entre deux packagings ; il dispose des résultats d’un marché-test,
où les deux conditionnements en concurrence ont été évalués. Les chiffres d’affaires sont
légèrement différents. Peut-il dire que l’écart observé entre les deux résultats est significatif ? La
fiche technique 12.6. présente les différents tests de différences de moyennes.
Fiche technique 12.6. Tests de différences de moyennes
1 – Hypothèses et principes
Rappel : on part du principe que les variances des populations sont inconnues.
Le tableau ci-dessous résume les différentes situations et le test à retenir dans chaque cas :

Échantillons
Indépendants Appariés
Égales Test no 1 Test no 3
Variances
Différentes Test no 2

Le choix entre les tests no 1 et no 2 s’effectue à l’issue d’un test de comparaison de variances (voir
ci-dessus). Si le test est non significatif (i.e. non-rejet de H0), les variances sont égales et le test
no 1 s’applique. Dans le cas contraire, on utilise le test no 2.
2 – Test no 1 : échantillons indépendants, variances de populations supposées égales
\/|
Deux échantillons sont indépendants si les individus ont été répartis de manière aléatoire dans ces
$|
derniers.
4$

Les hypothèses du test sont :


By

Test bilatéral Test unilatéral


H0 : μ1 = μ2 H0 : μ1 ≤ μ2 (μ1 ≥ μ2)
H1 : μ1 ≠ μ2 H1 : μ1 > μ2 (μ1 < μ2)

Avec : μ1 = moyenne dans la sous-population 1


μ2 = moyenne dans la sous-population 2
La statistique du test est :

Puisque les variances des deux populations sont égales, on peut combiner les deux variances
d’échantillon, pour former un estimateur de la variance de population :
Avec : = variance d’échantillon no 1

= variance d’échantillon no 2
Pour décider si le test est significatif, on compare la valeur du tcalculé à la valeur critique lue dans la
table de Student, au seuil α, pour n1 + n2 – 2 degrés de liberté.
Si tcalculé > ttabulé, on rejette H0 et on conclut à l’existence d’une différence significative dans la
population entre les deux moyennes.
Si tcalculé ≤ ttabulé, on ne peut pas rejeter H0 (i.e. absence de différence entre les deux moyennes).
3 – Test no 2 : échantillons indépendants, variances de populations différentes

L’estimation n’est plus utilisable. La statistique du test devient :

\/|
$|
La règle de décision à l’égard des hypothèses est alors :
4$

Rejet de H0 si :
By

Avec :
t1 = valeur critique de t au seuil α pour n1 – 1 degrés de liberté,
t2 = valeur critique de t au seuil α pour n2 – 1 degrés de liberté.

4 – Test no 3 : Échantillons appariés


Deux échantillons sont dits appariés lorsque chaque observation réalisée dans une population A est
couplée à un « jumeau » extrait d’une population B. Les individus sont choisis de manière à
présenter des caractéristiques similaires. On parle également d’échantillons appariés lorsque l’on
procède à des mesures répétées sur un même échantillon.
On s’intéresse dans ce cas aux différences entre les observations plutôt qu’aux observations elles-
mêmes. Ces différences permettent de construire une nouvelle variable D.
Les hypothèses du test sont :
Test bilatéral Test unilatéral
H0 : μD = 0 H0 : μD ≤ 0 (μD ≥ 0)
H1 : μD ≠ 0 H1 : μD > 0 (μD < 0)

La statistique du test est :

Avec : D = moyenne des différences observées,


sD = écart-type de D.
Cette statistique suit une loi de Student à n – 1 degrés de liberté si D suit une loi normale.
Les règles de décision sont :
Si tcalculé > ttabulé, on rejette H0 et on conclut à l’existence d’une différence significative entre les
deux moyennes.
Si tcalculé ≤ ttabulé, on ne peut pas rejeter H0 (i.e. absence de différence entre les deux moyennes).
\/|
$|

Exemples
4$

Les tests no 1 et no 3 sont illustrés


By

1. Test no 1
Dans une étude sur la sensibilité à la protection de l’environnement, on a testé
l’intention d’« Utiliser systématiquement les poubelles publiques » (quand on se
promène dans la rue) sur une échelle de Likert à 7 postes. On veut montrer que
l’intention moyenne est plus élevée chez les femmes que chez les hommes. Le test est
donc unilatéral et les hypothèses sont :
H0 : μF ≤ μH
H1 : μF > μH
Dans l’échantillon total de taille n = 388, on identifie les femmes (nF = 196) et les
hommes (nH = 192), que l’on peut considérer comme deux échantillons issus de
populations indépendantes.
Les moyennes et écarts-types d’échantillons sont :
Femmes : XF = 5,3214 ; sF = 1,107
Hommes : XF = 5,2656 ; sF = 1,037
L’estimateur de la variance commune est égal à :
Et le tcalculé devient :

Pour 386 degrés de liberté (196 + 192 – 2 = 386) et le test étant unilatéral, la valeur
critique du test au seuil α = 5 %, lue dans la table de Student est de 1,645.
Nous sommes dans la situation tcalculé ≤ ttabulé qui ne permet pas de rejeter H0. Il faut en
conclure qu’il est impossible de mettre en évidence une différence d’intention entre les
hommes et les femmes dans la population.
2. Test no 3
Un chef de produit souhaite tester l’effet d’un nouveau packaging sur les ventes d’un
détachant pour le linge. Un échantillon aléatoire de 20 supermarchés est constitué, puis
scindé en deux sous-échantillons de 10 unités chacun, couplés sur la base, entre autres,
de leurs ventes hebdomadaires et de diverses caractéristiques sociodémographiques
des résidents de la zone de chalandise des magasins. L’un des magasins de chaque
\/|
couple propose le produit dans son nouveau packaging, tandis que l’autre magasin
$|
présente le produit dans l’ancien packaging. Les ventes enregistrées lors du test (en
milliers d’unités vendues) sont indiquées dans la figure 12.6. Les différences
4$

observées indiquent-elles un effet positif du nouveau conditionnement sur les ventes du


produit ?
By

Figure 12.6. Ventes observées selon le type de packaging

Couple de Nouveau Ancien Différence


magasins conditionnement conditionnement (di)
1 4 580 3 970 610
2 5 190 4 880 310
3 3 940 4 090 – 150
4 6 320 5 870 450
5 7 680 6 930 750
6 3 480 4 000 – 520
7 5 720 5 080 640
8 7 040 6 950 90
9 5 270 4 960 310
10 5 840 5 130 710
Comme il s’agit de deux échantillons appariés, on se ramène en fait à un test simple sur une
variable. On cherche à montrer un effet positif du nouveau conditionnement sur les ventes. Si c’est
le cas, et si la différence est calculée systématiquement dans le sens « nouveau – ancien », la
différence entre les deux doit donc être positive sur l’ensemble des magasins. Les hypothèses sont :
H0 : μD ≤ 0
H1 : μD > 0
Pour réaliser ce test, nous avons besoin de la moyenne des différences (D) et de l’écart-type des
différences (sD) :

La statistique du test est égale à :

On a ttabulé = 1,8331 (valeur lue dans la table de Student pour α = 5 % et 9 degrés de liberté ; il
\/|
s’agit d’un test unilatéral). La valeur calculée étant supérieure à cette valeur critique, nous rejetons
H0. En supposant que l’environnement marketing (prix, promotion...) était identique pour les deux
$|

échantillons, nous pouvons conclure que le nouveau packaging est plus performant que l’ancien.
4$

3. Test de différences entre deux proportions


By

a. Contraintes
Ce test ne s’applique qu’aux échantillons indépendants et de grande taille, issus de populations
elles-mêmes de taille très supérieure à celle des échantillons. Il s’applique à tout type de variable,
notamment nominale.

b. Principes et objectifs
Les principes du test sont donnés dans la fiche technique 12.7.
Fiche technique 12.7. Test de différences entre deux proportions
1 – Hypothèses
L’hypothèse nulle pose l’absence de différences entre les deux proportions de population :

Test bilatéral Test unilatéral


H0 : π1 = π2 H0 : π1 ≤ π2 (π1 ≥ π2)
H1 : π1 ≠ π2 H1 : π1 > π2 (π1 < π2)

Avec : π1 = proportion dans la sous-population 1


π2 = proportion dans la sous-population 2
2 – Calcul de la statistique du test
Sa loi parente est la loi normale centrée-réduite.

Avec : \/|
$|
4$

où :
By

– p1 et p2 sont les deux proportions observées dans les échantillons 1 et 2,


– n1 et n2 sont les deux tailles d’échantillon,
– π est l’estimation de la proportion « moyenne » dans l’ensemble de la population.
3 – Règles de décision
Si zcalculé > ztabulé, on rejette H0.
Si zcalculé ≤ ztabulé, on ne peut pas rejeter H0.
Exemple
Dans la même étude sur la sensibilité à la protection de l’environnement (voir test de
différences de moyennes ci-dessus), on a demandé aux interviewés s’ils veillent à ce
que les produits qu’ils achètent respectent l’environnement. Nous allons tester
l’hypothèse selon laquelle les femmes ont un comportement d’achat plus écologique
que les hommes, en comparant les fréquences des réponses positives à la question,
pour les deux groupes. Il s’agit d’un test unilatéral dont les hypothèses sont :
H0 : πF ≤ πH
H1 : πF > πH
Rappel : nF = 196 et nH = 192. Les deux proportions observées pF et pH sont,
respectivement, 0,9133 et 0,8698. L’estimation de la proportion de population est :

Et la statistique du test :
\/|
$|
Pour un test unilatéral, la valeur critique de z, lue dans la table de la loi normale
4$

centrée-réduite au seuil α = 5 %, est ztabulé = 1,645. Comme zcalculé ≤ ztabulé, on ne peut


pas rejeter H0. Rien ne permet ainsi de conclure que, dans la population, les femmes
By

adoptent plus facilement que les hommes un comportement d’achat écologique.

Les tests que nous allons présenter maintenant appartiennent à la famille des tests non
paramétriques. Ils permettent d’évaluer des différences entre des scores observés avec de petits
échantillons (taille le plus souvent inférieure à 30 personnes) et sans faire d’hypothèses sur la
forme de la distribution de la variable dans la population mère. Certains supposent deux
échantillons indépendants, d’autres exigent deux échantillons appariés (ou des mesures répétées sur
un même échantillon).

4. Tests U de Mann-Whitney et W de Wilcoxon pour deux échantillons


indépendants
a. Objectifs et contraintes d’utilisation
Les tests de Mann-Whitney et de Wilcoxon sont presque équivalents, d’où leur présentation
commune. Ils sont les plus utilisés des tests de différence quand les conditions d’application d’un
test en t ne sont pas réunies, et notamment quand la variable étudiée est de niveau de mesure ordinal
seulement. Le test compare les sommes des rangs des observations pour les deux groupes. La fiche
technique 12.8. présente les deux tests en commençant par le test U de Mann-Whitney.
Fiche technique 12.8. Tests U de Mann-Whitney et W de Wilcoxon pour
échantillons indépendants
1 – Hypothèses
L’hypothèse nulle spécifie que la distribution des sommes de rangs est la même dans les deux populations.
L’alternative est que les deux distributions sont différentes (test bilatéral) ou que l’une est supérieure à l’autre
(test unilatéral).
Si H0 est vraie, la répartition des scores dans chacun des groupes est aléatoire. C’est-à-dire que si l’on
sélectionne un score au hasard dans chaque groupe, la probabilité pour que l’un soit supérieur à l’autre est égale
à 0,5. Il n’y a pas de raison pour que les scores dans un groupe soient systématiquement supérieurs aux scores de
l’autre groupe.
2 – Calcul de la statistique du test
Les deux échantillons sont réunis et les observations classées en ordre croissant. La statistique U comptabilise
le nombre de fois où l’un des scores du groupe 1 précède l’un des scores du groupe 2. Si H0 est vraie, la
distribution des scores doit être équivalente dans les deux groupes, sinon elle aura une forme de répartition plus
marquée dans un groupe que dans l’autre.
La statistique du test est :

Et : \/|
U = min(Ui ; Uj)
$|
où ni est l’effectif du groupe i, nj est l’effectif du groupe j et Ri est la somme des rangs des observations dans
4$

l’échantillon i (respectivement Rj est la somme des rangs des observations dans l’échantillon j).
En pratique, la statistique calcule combien de fois le rang des observations de l’échantillon i dépasse le rang des
By

observations de l’échantillon j.
On peut également vérifier la relation :
Ui = ninj – Uj
Ou
Ui + Uj = ninj
3 – Règles de décision
Pour les petits échantillons, il existe une table spécifique. Mais dès que ni, taille du groupe le plus petit, dépasse
10, on utilise une approximation normale :

On retranche 0,5 à U pour des probabilités liées à la partie gauche de la distribution (i.e. des valeurs négatives
de z) ou on ajoute 0,5 pour des probabilités liées à la partie droite de la distribution.
En pratique, on peut utiliser Ui ou Uj. En valeur absolue, z aura le même résultat. Il faut, dans ce cas, faire
attention aux conclusions surtout si le test est unilatéral.
4 – Test W de Wilcoxon
Il est strictement équivalent au test U de Mann-Whitney. Les deux statistiques se déduisent l’une de l’autre par
la relation :

L’approximation normale de la statistique W est :


Étude de cas
Un groupe d’étudiants a été scindé aléatoirement en deux sous-groupes. L’un a été
soumis à un message publicitaire vantant la qualité des produits vendus sur Internet.
L’autre sert de groupe témoin. Quelques jours après, l’ensemble du groupe a répondu à
un questionnaire dans lequel on leur demandait leur intention de comportement en
matière d’achat sur Internet (exprimée en probabilité d’achat dans les six mois). Les
données en pourcentage figurent ci-dessous et se lisent de la manière suivante : le
premier individu du groupe expérimental (ICE, soumis au message) a répondu qu’il y
avait 10 % de chances pour qu’il achète sur Internet dans les six mois ; le second
individu du groupe témoin (ICT, non soumis au message) a répondu qu’il y avait 20 %
de chances pour qu’il achète sur Internet dans les six mois.

\/|
$|
4$
By
Figure 12.7. Intentions de comportement, groupes expérimental et témoin

ICE RgE ICT RgT


10 2 10 2
10 2 20 4
25 5,5 30 9
25 5,5 30 9
30 9 30 9
30 9 40 12,5
40 12,5 45 14
50 19,5 50 19,5
50 19,5 50 19,5
55 25,5 50 19,5
65 29,5 50 19,5
70 31,5 50 19,5
70 31,5 \/| 50 19,5
80 35,5 50 19,5
$|
90 38 50 19,5
4$

55 25,5
60 27,5
By

60 27,5
65 29,5
75 33,5
75 33,5
80 35,5
85 37
100 39,5
100 39,5
Somme 276 544
Moyenne 18,4 21,76

Le groupe expérimental compte 15 observations, pour 25 dans le groupe témoin. Les observations
sont d’abord classées par ordre croissant. On attribue ensuite un rang à chaque observation (ou
score) en n’oubliant pas de tenir compte des ex æquo. Par exemple, il y a trois individus ayant
répondu 10 %, deux dans le groupe expérimental, un dans le groupe témoin. Ces trois observations
occupent les rangs 1 à 3 mais comme elles sont identiques, on leur attribue un rang moyen égal à 2
(1 + 3/2 = 2). De même il y a deux observations à 25 % qui occupent les rangs 5 et 6, soit un rang
moyen de 5,5. Et ainsi de suite.
On dispose des tailles et des sommes des rangs pour les deux groupes. La statistique du test peut
être calculée :

On retient la plus petite des deux, soit U = 156. Comme la taille du groupe le plus petit est
supérieure à 10, l’usage de la table n’est plus possible. On se réfère alors à l’approximation
normale.

Comme 15 × 25/2 = 187,5 est plus grand que 156, la différence entre les deux va être négative et
l’on va se situer du côté négatif de la distribution. On retranche donc 0,5 à cette valeur, d’où le
\/|
155,5 dans l’équation.
$|

On vérifie également que l’on identifie la valeur de la statistique W à partir de U :


4$
By

Si l’on revient à z, on constate que sa valeur calculée est supérieure à la valeur critique du test
(égale à – 1,96 pour un test bilatéral). Puisqu’on se situe du côté négatif de la distribution, on ne
peut pas rejeter H0.
On doit en conclure que les deux distributions ne se différencient pas dans la population et, par
conséquent, que le message n’a pas eu d’effet sur l’intention d’achat sur Internet.
b. Alternatives
Le test de la médiane et le test de Kolmogorov-Smirnov pour deux échantillons indépendants sont
des alternatives aux tests U et W. Ils sont considérés comme moins puissants, aussi ne les
présenterons-nous pas en détail. Le test de Kruskal-Wallis s’applique quand le nombre
d’échantillons dépasse 2, comme alternative à l’analyse de variance à un facteur (chapitre 15)(321).

5. Test du signe des rangs de Wilcoxon (signed rank test)


Il est l’équivalent du test en t pour deux échantillons appariés. Il est utilisable dès lors que l’on peut
faire une affirmation du type « plus grand que » pour les deux valeurs d’une paire donnée
d’observations, ou pour deux scores de différences obtenues sur deux paires d’observations. Il
exige au minimum une échelle ordinale permettant de classer les différentes paires d’observations
obtenues.
Il est plus simple de le présenter directement au travers d’un exemple.

Exemple
Mesure de l’efficacité d’une publicité
Un chef de publicité désire évaluer l’agrément de sa prochaine campagne de publicité.
Pour des raisons de temps, il n’a pu réunir qu’un échantillon de 10 personnes
appartenant à la cible. La qualité perçue de la marque est d’abord évaluée avant le
passage de la publicité, puis réévaluée après lecture du message. Elle est mesurée sur
une échelle à supports sémantiques, calibrée de 1 à 13. Un score de 13 signifie que la
qualité perçue est jugée excellente, 7 équivaut à une qualité moyenne et 1 à une qualité
extrêmement mauvaise. Les scores de la marque sont donnés dans la figure 12.8.
Figure 12.8. Qualité perçue d’une marque avant et après exposition à une publicité

Score Score Ap – Av =
Individu Rang Ri
avant (Av) après (Ap) Di
\/|
$|
1 6 9 3 8,5
4$

2 7 8 1 3
3 5 6 1 3
By

4 10 10 0 –
5 8 9 1 3
6 7 6 –1 3
7 9 11 2 6,5
8 11 8 –3 8,5
9 12 13 1 3
10 8 10 2 6,5

On calcule les différences Di entre le score après l’exposition au message publicitaire et le score
avant. On retient pour la suite de l’analyse les différences non nulles. On classe ces différences par
ordre croissant (la plus petite est classée au rang 1), en ne tenant pas compte du signe. Lorsque deux
différences (ou plus) ont la même valeur, on leur affecte le rang moyen correspondant à leur
position.
Ici, 5 différences ont une valeur de 1. Le rang moyen correspondant est 3 [i.e. (5 + 1)/2]. On
redémarre ensuite au rang 6. Comme deux différences ont un score de 2, cela équivaut aux rangs 6
et 7, d’où le rang moyen 6,5, et ainsi de suite. Ce classement figure dans la colonne Ri du tableau
ci-dessus.
On effectue enfin la somme des rangs des différences positives, ce qui donne la valeur du Wcalculé :

Avec n’ = nombre de différences positives, Ri(+) = Rangs des différences positives.


Soit : Wcalculé = 8,5 + 3 + 3 + 3 + 6,5 + 3 + 6,5 = 33,5.
Pour des petits échantillons (n ≤ 20), on compare Wcalculé à une valeur critique lue dans une table,
qui fonctionne sur le même principe que celle du test sur la somme des rangs(322). On a une valeur
critique haute et une valeur critique basse. On rejette H0, si la valeur de Wcalculé se situe en dehors
de cette fourchette.
Ici, la fourchette donnée par la table est (10 ; 45), au seuil α = 5 % et pour une taille d’échantillon
ramenée à 9 (correspondant au nombre de différences non nulles). La valeur Wcalculé est égale à
33,5 : elle se situe à l’intérieur de la fourchette et ne nous permet pas, en conséquence, de rejeter
H0. Nous ne pouvons donc pas conclure que l’exposition au message publicitaire a amélioré la
perception de la qualité de la marque. Notre chef de publicité doit revoir sa copie s’il souhaite
\/|
atteindre l’objectif.
$|
Comme pour le test précédent, on peut utiliser une approximation normale pour une taille
4$

d’échantillon relativement grande, c’est-à-dire supérieure à 20. La valeur de zcalculé est donnée par
la formule suivante :
By

avec n = nombre de différences non nulles obtenues pour l’échantillon.


Lorsque le nombre d’échantillons est de trois ou plus, on utilise le test de Friedman pour
échantillons appariés. Ce test représente une alternative à l’analyse de variance à deux facteurs
(chapitre 15) lorsque la variable dépendante est de niveau de mesure ordinal.

6. Test du changement de McNemar pour deux échantillons appariés


a. Objectifs et contraintes d’utilisation
Ce test est bien adapté au design expérimental de type « avant-après » c’est-à-dire à des mesures
répétées sur les mêmes individus, avant et après un traitement quelconque. Il s’applique à des
variables nominales. Son objectif est d’évaluer la « réalité » d’un changement (de jugement, de
comportement...) de la part des sujets à l’issue du traitement.
Fiche technique 12.9. Test du changement de McNemar pour deux échantillons
appariés
1 – Hypothèses
La formulation des hypothèses, contrairement à d’autres tests, n’est pas intuitive. L’éventuel changement est
observé au travers d’une organisation particulière des données dans un tableau 2 × 2 qui se présente de la
manière suivante :

Après
– +
+ A B
Avant
– C D

Les signes + et – traduisent la nature de la réponse à la variable dépendante. Par exemple, une
évaluation positive ou négative sur une échelle d’attitude, une fréquence ou un montant
d’achat... Les lettres A, B, C et D désignent le nombre d’individus observés dans les cellules.
A, par exemple, représente le nombre d’individus qui avaient un jugement positif avant le
traitement et un jugement négatif après. D représente le nombre d’individus dont le jugement
était négatif avant le traitement et positif après. B et C représentent le nombre d’individus qui
\/|
n’ont pas changé de position à l’issue du traitement.
$|
Le test s’intéresse aux seuls individus ayant changé de position, en l’occurrence ceux des
4$

catégories A et D. L’hypothèse nulle stipule que le traitement n’a pas d’effet, c’est-à-dire que
le nombre de passages dans chaque sens est équivalent. Autrement dit, par rapport au nombre
By

total de changements A + D, on doit avoir un nombre identique de passages de – vers + et de


passages de + vers – soit (A + D)/2 dans chacun des deux cas.
Bref, si H0 est vraie, l’espérance (mathématique) de l’effectif dans chacune des deux cellules
tend vers (A + D)/2.
2 – Calcul de la statistique du test
La statistique est construite comme celle du test d’ajustement du χ2 mais ne tient compte que
des individus de ces cellules A et D. Les effectifs observés sont A et D et les effectifs
théoriques sont (A + D)/2 dans les deux cas. Comme deux cases du tableau seulement sont
concernées, la statistique :

Soit :
Pour tenir compte du fait que la distribution du χ2 est continue et que l’on s’intéresse ici à une
distribution purement discrète, on applique une correction dite de « continuité » et la
statistique du test devient :

3 – Règles de décision
Le nombre de degrés de liberté d’un tableau 2 × 2 est égal à 1. On compare donc le résultat du
calcul à une valeur critique qui, pour α = 0,05, sera toujours égale à 3,841. Les règles de
décision sont alors celles de tous les tests basés sur cette loi. En l’occurrence, le rejet de H0 si
χ2calculé > 3,841 pour α = 0,05.

Exemple
Dans le cadre d’un pré-test publicitaire pour un fabricant de savon M, on a mesuré la
préférence pour des marques de savon sur un échantillon de 35 individus. Les données
sont codées 1 si M est citée comme la marque préférée, 0 pour tout autre résultat. Les
\/|
sujets sont soumis au message en phase de calibration et on remesure leurs préférences
$|
pour les marques de savon quelque temps après. Voici les résultats :
4$

Après
By

0 1 Total
1 2 9 11
Avant
0 14 10 24
Total 16 19 35

A est égal à 2 : deux personnes préféraient M avant le message et une autre marque après ;
D est égal à 10 : dix personnes préféraient une autre marque avant le message et M après.
Les autres sujets n’ont pas changé d’opinion. En « théorie » (i.e. si H0 est « vraie », donc qu’il n’y a
pas d’effet du message) les effectifs des cases (1 ; 0) et (0 ; 1) auraient dû être de (2 + 10)/2 soit 6.
Dans ces conditions, la valeur calculée de la statistique du test est :

Cette valeur est supérieure à la valeur critique égale à 3,841, donc on rejette H0. On en conclut à
l’efficacité du message sur la préférence pour la marque.
Lorsque l’on est en présence de trois conditions expérimentales ou plus et que la réponse est
binaire, de type « succès » vs « échec », alors on utilise le test Q de Cochran, qui est une extension
du test de McNemar.
Nous venons de voir bon nombre de tests portant sur une seule variable. Nous allons maintenant
franchir une étape, en abordant la situation où deux variables sont traitées simultanément.

II. Association entre deux variables : test de contingence du chi-


deux
Le nombre de tests traitant deux variables simultanément est très réduit et, en pratique, on utilise
presque toujours le même. Il s’agit d’une extension du test d’ajustement du χ2 à des tableaux de
distributions de fréquences croisées (i.e. des « tris croisés »). On l’appelle test de contingence (ou
test d’indépendance) du χ2.

A. Objectifs et conditions d’utilisation


1. Objectifs
Le test de contingence du χ2 a pour objectif de porter un jugement de probabilité sur l’existence
\/|
dans la population d’une association entre deux variables à partir d’un tri croisé effectué à partir de
$|
données collectées sur un échantillon.
4$

2. Contraintes
By

a. Échelle nominale
Ce test s’applique à des variables dont le niveau de mesure est nominal. Cette contrainte est faible,
puisqu’en matière de mesure « qui peut le plus, peut le moins » : une variable métrique ou ordinale
peut toujours être « dégradée » en variable nominale(323).

b. Tableaux de contingence
Le test nécessite la construction préalable d’un tableau de contingence. Le test de contingence du χ2
intervient donc nécessairement après un tri croisé.

c. Effectifs minimums dans les cellules des tableaux


Comme pour le test d’ajustement, les cellules où les effectifs théoriques sont inférieurs à 5 sont à
éviter, et celles où les effectifs sont inférieurs à 1 sont à interdire absolument. En cas de petit
échantillon, cette situation se produit fréquemment. Il faut alors regrouper les modalités.

B. Mode de calcul
La fiche technique 12.10. présente les différentes étapes de mise en œuvre du test de contingence du
chi-deux.

Fiche technique 12.10. Test de contingence (ou d’indépendance) du χ2


1 – Principes et hypothèses
L’hypothèse nulle pose l’indépendance entre les deux variables (d’où, parfois, le nom de « test d’indépendance »
du χ 2). L’alternative postule donc l’association. Indépendance signifie que les distributions d’effectifs au sein des
modalités de l’une des deux variables ne varient pas en fonction des modalités de l’autre variable.
On recalcule ainsi, pour chaque case du tableau, les effectifs attendus si l’hypothèse nulle est vraie. Dans ce cas,
les effectifs observés dans l’échantillon et les effectifs attendus doivent être égaux aux erreurs
d’échantillonnage et d’observation près. Dans le cas contraire, les effectifs seront différents. La conclusion du
test porte sur l’écart tolérable (sous-entendu : qui ne remet pas en cause l’hypothèse d’indépendance) entre les
deux séries d’effectifs.
Formellement, les hypothèses du test s’écrivent :

Avec :
oij : effectif observé dans la cellule (i, j) du tableau, \/|
tij : effectif attendu dans la cellule (i, j) du tableau.
$|
2 – Formule de calcul
4$

Elle est donnée par l’expression :


By

Où : l = nombre de lignes « utiles » (i.e. sans compter la ligne « total ») du tableau,


c = nombre de colonnes « utiles » du tableau.
Le χ 2calculé suit une loi du χ 2 à (l – 1)(c – 1) degrés de liberté, pour un seuil de risque α fixé.
3 – Règles de décision

La valeur du χ 2calculé est comparée à une valeur critique, lue dans la table du χ 2 (table 4 téléchargeable) :

χ 2calculé ≤ χ 2tabulé : on ne peut pas rejeter H0.

χ 2calculé > χ 2tabulé : on rejette H0.


4 – Spécificités
Si l’on utilise des tableaux à deux lignes et deux colonnes, il faut corriger la formule du test par un facteur de
correction de continuité, également appelé correction de Yates. La formule devient :

C. Exemple d’application
1) Situation du problème
Imaginons qu’un tour opérateur veuille segmenter son marché. Il se demande s’il existe un lien entre
le type de destination de vacances d’hiver et la catégorie socioprofessionnelle. Au sein d’un
échantillon représentatif de la population française en termes d’âge, de sexe et de PCS, on s’est
concentré sur trois types de destinations (mer, montagne et campagne) et deux regroupements de
PCS (PCS + = professions intellectuelles supérieures, professions libérales, cadres supérieurs et
professions intermédiaires ; PCS – = employés, ouvriers, agriculteurs). Le sous-échantillon
concerné est composé de 100 personnes.

2) Hypothèses
H0 : il n’y a pas de lien entre la PCS et le type de destination choisie pour les vacances d’hiver.
H1 : le type de destination choisie pour les vacances d’hiver dépend de la PCS.

3) Résultats
Le croisement des deux variables donne :
Figure 12.9. Choix d’une destination de vacances et niveau d’études
\/|
$|
4$
By

On constate, dans l’échantillon, que PCS + et PCS – ne se distinguent pas sur le choix d’une
destination montagne. Dans les deux cas, approximativement 75 % d’entre eux s’y rendent. En
revanche, les PCS + se tournent, en proportion, davantage vers une destination « mer » et les PCS –
davantage vers une destination « campagne ». Peut-on estimer que ces différences existent dans la
population ?

4) Mise en œuvre du test


Le tableau donne les effectifs observés (oij) et les effectifs attendus (tij). Si H0 est vraie, la PCS
n’est pas liée au choix de destination. Pour les différents niveaux de PCS, la répartition des
effectifs devrait donc être identique à ce qu’elle est dans l’échantillon global.
Au total, 14 personnes sur 100 vont vers une destination mer, soit 14 %. Sur les 59 PCS+ on devrait
donc « attendre » (tij) la même proportion, soit 8,3 (59 × 0,14 = 8,3). Or, on en « observe » (oij) 11
dans l’échantillon, d’où un écart entre ce qui est observé et ce qui est attendu, sous-entendu si H0
est vraie. On procède au même calcul pour toutes les autres cellules.
La valeur calculée du χ2 est :

Le nombre de degrés de liberté est égal à (l – 1)(c – 1) = (2 – 1)(3 – 1) = 2.


La table du χ2 donne une valeur critique égale à 5,991 pour 2 degrés de liberté et un seuil de risque
fixé à 5 %.
Le χ2 calculé est inférieur à la valeur critique. On ne rejette pas H0.
Il faut noter que les deux valeurs sont proches. La valeur critique du test pour α = 0,10 est égale à
4,61. Dans ce cas, la valeur calculée est supérieure. Comment réagir face à ce problème ?
En pratique, il est tout à fait possible de rejeter H0. On sait, dans ce cas, que le risque d’erreur est
de 10 % au lieu de 5 %. On peut penser que cela reste un risque raisonnable. La décision appartient
entièrement à l’analyste. C’est pour cette raison que le calcul direct du risque α par les logiciels est
\/|
plus éclairant. Pour cet exemple, le résultat produit est :
$|
4$

Signification
Valeur ddl
asymptotique
By

Khi-deux de Pearson 5,491 2 0,064

Le risque α est égal à 0,064 (ce que le logiciel appelle « signification asymptotique »). Ce calcul
est complexe puisqu’il fait appel au calcul intégral. On sait qu’en rejetant l’hypothèse
d’indépendance des deux variables on prend un risque d’erreur de 6,4 %. Même si l’on dépasse les
5 % habituels, on peut penser que les deux variables sont effectivement associées dans la
population.

5) Conclusion
Un prestataire touristique (TO, agence de voyage...) pourrait utiliser ce résultat en adaptant une
offre « tourisme rural » à des personnes aux revenus modestes. À l’inverse, on constate que ceux
qui font le choix d’un tourisme « balnéaire » hivernal sont issus de catégories socioprofessionnelles
globalement plus élevées.

D. Limites
Le test de contingence du χ2 permet de déceler une association entre deux variables. Au mieux, il
s’agit d’un lien de dépendance (l’association observée peut aussi être « fallacieuse », c’est-à-dire
due au hasard). Mais on ne peut en aucun cas conclure à une relation de cause à effet, sauf si la
collecte des données a été prévue en ce sens (i.e. plan expérimental rigoureux). Le chapitre 15
donnera plus de précisions à ce sujet.
En revanche, ce test, lorsqu’il est significatif, ne donne ni le sens ni l’intensité de la relation entre
les deux variables. Des calculs similaires à des coefficients de corrélation, adaptés aux variables
nominales, doivent être effectués (chapitre 13).

Conclusion
Ce chapitre, plutôt technique, complète logiquement le précédent. En effet, si les différentes
statistiques descriptives ne donnent pas d’idée sur la population mère d’où l’échantillon a été tiré,
comment généraliser, en minimisant le risque d’erreur, les résultats obtenus ?
Deux types de tests sont utilisables dans cette perspective. Certains s’utilisent lorsque les lois de
distribution des variables étudiées sont connues dans la population (on se ramène le plus souvent à
la loi Normale, la loi de Student, la loi du χ2 ou la loi de Fisher-Snedecor). On les appelle tests
paramétriques. D’autres tests interviennent lorsque ces lois ne sont pas connues et, plus
généralement, lorsque les conditions d’utilisation des tests paramétriques ne sont pas satisfaites.
\/|
Ces tests, qualifiés de non paramétriques, sont souvent utilisés avec des petits échantillons et/ou
$|
des mesures nominales ou ordinales.
4$

La figure 12.10. propose une synthèse des tests les plus connus et de leurs conditions d’utilisation.
Les tests paramétriques apparaissent en gras, les tests non paramétriques en maigre. Les tests en
By

texte plein sont traités en détail dans le chapitre, ceux en italique ne sont que mentionnés.
Mais si les tests permettent des conclusions objectives sur le sens des résultats, ils ne remplacent
pas le jugement de l’analyste. En effet, celui-ci, compte tenu de son expérience du sujet, doit
pratiquer les tests sur les quelques variables jugées pertinentes : des tests systématiques, portant sur
toutes les combinaisons possibles de variables, n’auraient aucun sens.
Un bon nombre de tests statistiques usuels, paramétriques et non paramétriques a été passé en revue
dans ce chapitre : tests d’ajustement, tests de différence et tests d’association. Le test principal
d’association étudié, le test de contingence du χ2, a montré ses limites en ne donnant ni le sens ni
l’intensité de l’association. Le prochain chapitre a pour objectif de présenter des techniques
palliant ces lacunes.
Figure 12.10. Synthèse des principaux tests statistiques

\/|
$|
4$
By
Test de connaissance
(Cochez une seule réponse par question.)
Q1. Dans un test statistique, l’hypothèse nulle est :
(1) celle que l’on cherche généralement à rejeter
(2) celle que le chercheur désire valider
(3) celle qui correspond toujours à la réalité de la nature
Q2. La valeur critique d’un test est :
(1) le résultat obtenu au moyen de la formule de calcul
(2) une valeur que l’on considère comme fausse
(3) une valeur théorique lue dans une table qui fonde la décision sur H0
Q3. Le test d’ajustement du χ2 s’applique à des données :
(1) métriques
(2) nominales
\/|
$|
(3) ordinales
4$

Q4. Deux échantillons appariés sont choisis :


(1) de manière à ce que les individus présentent des caractéristiques similaires
By

(2) au hasard
(3) par paquets de deux
Q5. Le test du signe des rangs (Wilcoxon) vérifie que :
(1) deux échantillons indépendants sont issus de populations différentes
(2) deux échantillons indépendants sont issus de la même population
(3) deux échantillons appariés sont issus de la même population
Réponses : voir annexes téléchargeables sur www.vuibert.fr

Bibliographie
BERENSON M. L., LEVINE D. M., KREHBIEL T. H. et STEPHAN D. F., Basic Business Statistics,
12e édition, Prentice-Hall, 2011.
JOLIBERT A. et JOURDAN P., Marketing Research. Méthodes de recherche et d’études en marketing,
2e édition, Paris, Dunod, 2011.
LANG-MICHAUT C., Pratique des tests statistiques, Dunod, Paris, 1990.
LAPIN L. L., Statistics for Modern Business Decisions, 6e édition, The Dryden Press, New York,
1993.
MALHOTRA N. K., DÉCAUDIN J. M., BOUGUERRA A. et BORIÈS D., Études marketing avec SPSS,
6e édition, Paris, Pearson Education France, 2014.
SIEGEL S. et CASTELLAN N. J. Jr, Nonparametric Statistics for the Behavioral Sciences, 2e éd.,
McGraw-Hill International, New York, 1988.
WONNACOTT T. H. et WONNACOTT R. J., Statistique, 4e éd., Economica, 1991.

\/|
$|
4$
By
Chapitre 13

Analyses d’association et de dépendance


Rien n’est bon ou mauvais en soi, tout dépend de notre pensée.
W. SHAKESPEARE

Le chargé d’études est fréquemment amené à analyser la façon dont plusieurs variables peuvent se
comporter les unes par rapport aux autres, en particulier en termes d’influences réciproques. Ce
chapitre se limite au cas des relations entre paires de variables. Le suivant généralisera à trois
variables ou plus. L’étude des relations entre variables est importante d’un point de vue marketing.
Par exemple : les quantités achetées sont-elles influencées par l’âge des clients ? Si oui, la relation
est-elle positive ou négative (les quantités achetées augmentent-elles ou baissent-elles quand l’âge
\/|
augmente) ? Quelle est l’intensité de cette relation : observe-t-on un quasi-parallélisme dans la
$|
façon dont les valeurs des deux variables varient, ou pas ?
4$

De nombreuses méthodes permettent de répondre aux questions posées ci-dessus. Leur choix
dépend avant tout du niveau de mesure des variables et de la nature de la relation, simple
By

association ou relation de dépendance, que l’on souhaite mettre en évidence. Nous présenterons
d’abord diverses mesures d’associations entre variables nominales, ordinales ou métriques (voir
figure 13.1.), puis l’analyse de régression, qui s’intéresse à une relation de dépendance entre
variables métriques(324).
Figure 13.1. Plan du chapitre

\/|
$|
4$

I. Relations d’association entre variables


By

De nombreux coefficients permettent de calculer le sens et l’intensité d’une relation entre deux
variables. Leur « philosophie » et leur mode de calcul varient sensiblement selon la nature
(nominale, ordinale ou métrique) des mesures concernées.

A. Mesures d’association entre variables nominales


Les variables nominales correspondent à des affectations à des classes d’objets, donc parler de
mesure est ici abusif. Cette expression permettra néanmoins de garder un vocabulaire cohérent tout
au long du chapitre. Les coefficients présentés sont utilisables en toutes circonstances mais doivent
être interprétés prudemment.

1. Coefficient de contingence
Complémentaire à un test du χ2, ce coefficient s’applique aux tableaux de contingence de n’importe
quelle taille. Son expression est :

C varie entre 0 et une valeur :


Où : c = nombre de colonnes du tableau,
l = nombre de lignes du tableau.
Propriétés de C :
– la valeur maximale de C n’est jamais égale à 1 (sauf si χ2 tend vers l’infini !). Il faut donc
l’interpréter en termes relatifs, par rapport à son maximum possible. Il en découle que deux valeurs
de C ne sont comparables que si les tableaux sont de même taille ;
– il n’existe pas de test statistique pour vérifier que C est significatif. En pratique, calculer C n’a
d’intérêt que si le test du χ2 est significatif. Il s’agit d’un cas particulier où l’on procède au test
d’abord, puis au calcul de la mesure d’association.

Exemple
Dans une étude sur les intentions d’adopter des comportements écologiques (n = 391),
on a croisé l’âge (3 classes) et l’intention d’utiliser une lessive sans phosphates
(échelle de Likert à 6 postes, regroupés en 3 modalités – faible, moyenne, forte). Le
\/|
χ2calculé est égal à 9,96. La valeur critique du test pour α = 5 % et 4 degrés de liberté
$|
est égale à 9,488 (table 4 téléchargeable). On peut, dès lors, calculer directement C :
4$
By

Le tableau ayant le même nombre de lignes et de colonnes, on peut calculer la valeur


maximale possible de C :

Corriger C pour que sa valeur maximale soit 1 revient à diviser C par Cmax. Dans
notre cas cela donne :

Cette valeur indique une relation faible entre les deux variables.

2. Coefficient Φ (phi) pour les tableaux 2 x 2

Le coefficient Φ s’applique uniquement aux tableaux à deux lignes et deux colonnes :


Φ prend des valeurs situées entre 0 et 1. Une association parfaite est atteinte lorsque tous les
individus apparaissent sur l’une des deux diagonales du tableau puisque, dans ce cas, χ2 = n.

Exemple
Les lessives sans phosphates
Un chargé d’études veut tester l’association entre le niveau d’études, évalué par le
diplôme le plus élevé obtenu, et le fait de cotiser ou non à des associations liées à la
protection de l’environnement (e.g. WWF, Équipe Cousteau...). 385 questionnaires
exploitables ont été obtenus. La figure 13.2 donne le résultat du tri croisé.
Figure 13.2. Association entre l’âge et l’adhésion à des associations écologistes

\/|
Le χ2calculé pour ce tableau est égal à 9,3989 en utilisant la correction de continuité de
$|
Yates. Il est significatif puisque pour α = 5 % et ν = 1, χ2tabulé = 3,841. Le coefficient
4$

Φ sera donc de :
By

Nous remarquons à nouveau une association faible.

3. V de Cramer
Lorsque les tableaux de contingence sont de dimension supérieure à 2 × 2, le coefficient ø n’a plus
de limite supérieure. Le V de Cramer est une adaptation de ø à cette situation. Comparé à C, il
présente l’avantage de varier de 0 à 1. Il s’exprime par :

Dans le cas d’un tableau à deux lignes ou à deux colonnes, V et ø seront égaux.
Exemple
Dans une étude sur l’hospitalité perçue, on a demandé à 190 personnes de réagir à la
proposition suivante : « Pour que je me sente chez-moi quelque part, il faut que ce soit
un endroit qui me permette de décompresser ». La réaction a été recueillie sur une
échelle de Likert à cinq postes (1 = « pas du tout d’accord » à 5 = « tout à fait
d’accord »). Cette variable a été croisée avec le sexe. Le tableau résultant est :
Figure 13.3. Calcul du V de Cramer

« qui me permette de décompresser »


1à3 4 5 Total
Masculin 11 25 23 59
Sexe
Féminin 6 63 62 131
Total 17 88 85 190

Le test de contingence du χ2 est significatif : \/|


χ2calculé = 9,92 > χ2tabulé = 5,991 (α = 0,05 et ν = 2)
$|

Le plus petit des deux nombres entre l et c étant l = 2, on a l – 1 = 1 et :


4$
By

À nouveau la relation n’est pas très intense. Le lien entre les deux variables est dû uniquement à la
répartition hommes/femmes dans les modalités 1 à 3 (pas d’accord ou neutre), inverse de celle
attendue si l’hypothèse nulle d’indépendance avait été vraie.

4. λ asymétrique de Goodman et Kruskal


Le λ (lambda) de Goodman et Kruskal est une mesure d’association orientée vers la prédiction.
Elle indique dans quelle proportion la variable explicative influence la variable à expliquer. À la
différence des précédents coefficients, λ repose sur la notion de « réduction proportionnelle de
l’erreur » (Proportional Reduction in Error – PRE – en anglais), dont le principe est d’indiquer
dans quelle proportion la connaissance de la variable explicative permet d’améliorer le pronostic
des valeurs prises par la variable à expliquer. La valeur 1 signifie que la variable indépendante
prévoit parfaitement la variable dépendante. Inversement, la valeur 0 signifie que la connaissance
des effectifs de la variable explicative ne permet pas du tout de prévoir les effectifs de la variable
à expliquer. La valeur de λ représente le pourcentage de réduction de l’erreur de pronostic entre la
prévision d’une variable sans connaissance de l’autre (on choisira la modalité la plus fréquente sur
la marge) et la prévision de cette même variable en connaissant la valeur de l’autre (on choisira
alors la modalité dont la fréquence est maximum sur la ligne i.
Quand le tableau est présenté avec la variable à expliquer en ligne et la variable explicative en
colonne :
– maxl (ni) est le plus grand des effectifs de la variable à expliquer, observés sur l’ensemble des
modalités de la variable explicative ;
– c est le nombre de modalités de la variable explicative, c’est-à-dire le nombre de colonnes du
tableau ;
– maxl (nl) est le plus grand des effectifs totaux observés pour les modalités de la variable à
expliquer.

Exemple
Si l’on reprend le tableau de l’exemple précédent, soit avec le genre comme variable
à expliquer, on obtient :
Figure 13.4. Calcul du lambda de Goodman et Kruskal
\/|
« qui me permette de décompresser »
$|

1à3 4 5 Total
4$

Masculin 11 25 23 59
Sexe
By

Féminin 6 63 62 131
Total 17 88 85 190

Pour la première modalité de la variable à expliquer (« 1 à 3 »), l’effectif le plus grand est 11
(« masculin »). On lit ensuite respectivement 63 et 62. Le plus grand des effectifs totaux pour les
modalités de la variable à expliquer est 131. La valeur de lambda est donc :

Le fait de connaître le degré d’accord avec la proposition des répondants permet d’améliorer de
8,5 % la prédiction de leur genre.
Si l’on renverse le tableau et que la proposition « qui me permette de décompresser » devient la
variable à expliquer, on a :
Figure 13.4. bis. Calcul du lambda de Goodman et Kruskal

Masculin Féminin Total


1à3 11 6 17
4 25 63 88
5 23 62 85
Total 59 131 190

Et :

La connaissance du sexe des répondants ne permet pas d’améliorer la prédiction de leur degré
d’accord avec la proposition.

B. Mesures d’association entre variables ordinales


Ces mesures présentent le double point commun de fonder leurs calculs sur les rangs des
\/|
observations (et non sur les observations elles-mêmes), au niveau de mesure ordinal (ou supérieur).
$|
Elles diffèrent sur le traitement réservé aux ex aequo ainsi que sur l’interprétation des résultats.
4$

1. Corrélation des rangs de Spearman


By

a. Calcul du rs de Spearman
La corrélation des rangs de Spearman, notée rs, suppose un nombre de classés ex aequo nul ou
réduit et une relation linéaire entre les deux variables. Le calcul de ce coefficient est illustré par un
cas sans ex aequo(325).
Les observations sont classées selon leur rang, pour les deux variables. La corrélation des rangs de
Spearman s’intéresse aux différences observées entre les rangs pour chaque observation. Si la
correspondance entre les deux variables est parfaite, le rang sera identique pour chacune des deux
variables xi et yi. Donc :

Le coefficient a été calibré pour être égal à 1 lorsque cette condition est remplie.
Pour éliminer l’influence du signe négatif, on élève les différences au carré et on en calcule la
somme pour l’ensemble des observations :
Cette grandeur est ensuite normée pour que ses valeurs soient comprises entre 0 et 1 :

Exemple
– Problème posé
À l’occasion d’un pré-test publicitaire, cinq films concurrents sont soumis à un
consommateur représentatif de la cible visée et à un expert du métier. On leur demande
de classer les cinq films (figure 13.5.). On s’interroge sur la convergence des
classements. Dans ce cas, la corrélation des rangs de Spearman peut s’appliquer.
Figure 13.5. Comparaison de classements de films

\/|
$|
4$
By

– Solution

Ici, n = 5 et .
En remplaçant dans l’expression précédente, on trouve :

– Interprétation et décision
Que penser de ce coefficient ? 0,6 est-il un chiffre important ? Dans l’absolu, il est
difficile de répondre à la question, puisque l’on travaille sur deux jugements
individuels seulement. Il aurait été préférable de travailler sur des rangs moyens
obtenus auprès d’échantillons de consommateurs et d’experts plus fournis.
Cette convergence existe-t-elle dans la population ? Répondre à cette question
suppose l’application d’un test statistique.
b. Test du rs de Spearman
Si les individus sont tirés au hasard, on teste l’hypothèse nulle d’indépendance des deux variables ;
ρs est l’estimateur dans la population de rs. Les hypothèses sont :
H0 : ρs = 0 (il n’y a pas d’association entre X et Y dans la population)
H1 : ρs ≠ 0 (il y a une association entre X et Y dans la population)

Application du test et règles de décision :

1er cas : n compris entre 4 et 25


Il n’y a pas de calcul spécifique à effectuer. On compare directement la valeur observée de rs à une
valeur critique lue dans une table, pour n et α fixés (table 8 téléchargeable).

Exemple (suite)
n = 5, donc nous sommes dans ce cas. rs = 0,6. La valeur critique, au seuil α = 5 %
\/|
(test bilatéral), pour n = 5 est de 1. Cela signifie que, pour une taille d’échantillon
$|
aussi petite, et avec un tel seuil de risque, le coefficient observé doit être maximum si
4$

l’on veut inférer l’existence d’une relation dans la population. Donc, bien que la
corrélation soit élevée dans l’échantillon, il est impossible ici de faire cette inférence.
By

2e cas : n compris entre 25 et 50

On montre dans ce cas que la statistique suit une loi de Student à n – 2 degrés de
liberté.
On compare la valeur calculée de la statistique ci-dessus à la valeur critique de t, au seuil α (test
bilatéral), pour n – 2 degrés de liberté. Les règles de décision sont identiques à celles exposées
pour les tests en t.

3e cas : n supérieur à 50
On peut se référer à une loi normale centrée-réduite et la statistique devient :
Les règles de décision sont les mêmes que pour un test d’ajustement à une proportion ou un test
binomial : on rejette H0 si zcalculé > ztabulé.
Rappel : pour α = 0,05, ztabulé = 1,96 si le test est bilatéral et 1,645 si le test est unilatéral.

Limites du coefficient de Spearman


La corrélation rs de Spearman implique une relation a priori linéaire entre les deux variables.
De même, il pose problème lorsque les classements comportent beaucoup d’ex aequo.
Dans ce dernier cas, ou si l’on a de bonnes raisons de penser que la relation étudiée n’est pas
linéaire, il est préférable d’utiliser le coefficient τb de Kendall.

2. Corrélation τb (« tau-b ») de Kendall


Il existe plusieurs coefficients τ. Nous nous limiterons à la présentation du τb, qui s’applique non
seulement à des classements (e.g. préférences) mais également à des variables catégorielles dont
les modalités sont liées par une relation d’ordre (e.g. âge transformé en classes, fréquence de
comportement). Pour mieux illustrer le fonctionnement du calcul en présence d’ex aequo ou non,
deux exemples vont être développés.

a. Calcul de τb
\/|
$|
4$

Exemple 1 : cas sans ex aequo


By

Les cinq films de l’exemple précédent ont été classés par deux autres individus
(figure 13.6.) :
Figure 13.6. Classement de cinq films

Films F1 F2 F3 F4 F5
Consommateur 2 1 4 3 5
Expert 1 2 4 5 3

On réordonne le classement de l’une des deux personnes, par exemple le consommateur :


Figure 13.6. bis. Classement de cinq films

Films F2 F1 F4 F3 F5
Consommateur 1 2 3 4 5
Expert 2 1 5 4 3
Puis on compte, pour l’autre personne (l’expert), le nombre de paires de films où son classement
apparaît dans le même ordre que le consommateur, le nombre de paires où il apparaît dans un ordre
différent et le nombre de paires où l’un ou l’autre aurait des ex aequo (figure 13.6. ter). Rappelons
que le nombre de paires dans un ensemble de taille n quand l’ordre n’a pas d’importance (i.e. A –

B = B – A) est donné par . Par exemple, le consommateur classe le film 2 avant le film 1
alors que l’expert fait le contraire. Pour cette paire, le classement est divergent. Pour la paire
film 1-film 4, le classement est convergent puisque tous les deux classent le film 4 après le film 1
(peu importent les rangs précis). On fait la même chose avec toutes les paires possibles et l’on
compte le nombre de paires convergentes et le nombre de paires divergentes. Les paires où l’un ou
l’autre auraient classé deux films ex aequo ne seraient pas comptées.
Figure 13.6. ter. Calculs préparatoires au tau (τ) de Kendall

\/|
La formule du test est(326) :
$|
4$
By

Avec : C = ∑ c
D=∑d
UX = ∑ uX (ux – 1) ; UY = ∑ uY (uy – 1)
uX = uY = nombre de fois où une valeur x (ou y) apparaît. Par exemple, dans un échantillon de
6 observations, si une valeur x1 apparaît deux fois, une valeur x2 trois fois et une valeur x3 une fois
seulement,
UX = ∑ uX (ux – 1) = 2(2 – 1) + 3(3 – 1) + 1(1 – 1) = 8
Lorsque toutes les valeurs d’une série sont différentes, ce qui est le cas ici – 1, 2, 3, 4, 5 –, UX = 0.
Le résultat du calcul donne :

La corrélation entre les deux classements est donc faible.


Exemple 2 : cas avec ex aequo
On a recueilli le nombre de kilomètres de pistes de ski alpin et le nombre de lits
touristiques pour quatre stations des Alpes (figure 13.7.). Les données sont classées en
ordre croissant du nombre de kilomètres de pistes.
Figure 13.7. Classement de quatre stations de ski

Bonneval- Arèches-
Stations La Norma Valfréjus
sur-Arc Beaufort
Kilomètres de
25 50 65 65
pistes
Lits touristiques 1 751 6 000 5 500 6 800

Il y a six paires de stations. Les classements convergent pour quatre d’entre elles, divergent pour
une et une paire n’est pas prise en compte parce que deux observations sont ex aequo pour l’une des
deux variables. \/|
Figure 13.7 bis. Calculs préparatoires au tau-b (τb) de Kendall
$|
4$
By

Dans ce cas, UX = ∑ uX (ux – 1) = 2(2 – 1) = 2.


Donc :

Il y a, dans cet échantillon, une association d’intensité moyenne entre la taille du domaine skiable et
la capacité d’hébergement touristique des stations.
Comment généraliser à la population ?

b. Test du τb
L’existence d’une relation entre les deux variables dans la population se teste de manière différente
selon la taille d’échantillon.
1er cas : n ≤ 30
La valeur de τb se compare à une valeur critique lue dans une table (table 7 téléchargeable). Les
règles de décision sont communes à beaucoup de tests : pour α donné, on rejette H0 si τb-calculé > τb-
tabulé.

Exemple (suite)
Le τb calculé pour les quatre stations est égal à 0,547. La valeur critique pour n = 4 lue
dans la table est égale à 1. On ne peut pas rejeter H0. Dans la population, les deux
séries sont considérées comme indépendantes. Pour cette taille d’échantillon on est
ainsi forcé d’admettre cette indépendance, sauf à avoir deux classements strictement
identiques dans l’échantillon. Dans ce cas, la valeur calculée de τb serait égale à 1.

2e cas : n > 30
La statistique : \/|
$|
4$

suit approximativement une loi normale centrée-réduite. La valeur calculée est ensuite comparée
By

aux valeurs critiques de z lues dans la table de cette loi. Les règles de décision ont été rappelées
plus haut dans ce chapitre.
c. Tau de Kendall ou rs de Spearman ?
En pratique, les résultats obtenus avec le rs de Spearman et le τb de Kendall conduisent
généralement à la même conclusion, notamment en termes de significativité. Cependant,
l’interprétation des coefficients n’est pas la même :
– Le rs de Spearman s’interprète comme le coefficient de corrélation linéaire, à ceci près que le
calcul est fait sur des rangs et non des scores bruts. Il indique donc le sens et l’intensité de la
relation entre deux variables.
– Le τb de Kendall indique la différence entre la probabilité que, pour les données observées, X et
Y soient dans le même ordre, et la probabilité que les données pour X et Y soient dans des ordres
différents.
Le choix entre les deux s’opère essentiellement sur la nature et la qualité des données : si la
relation étudiée est non linéaire et qu’il y a beaucoup d’ex aequo dans les rangs, alors il faut opter
pour le τb.
C. Corrélation r de Pearson
Le coefficient de corrélation linéaire (ou r de Pearson) est l’indicateur le plus utilisé pour évaluer
la direction et l’intensité d’une relation entre deux variables. Il mesure la distance qui sépare
chaque observation i, repérée par ses coordonnées xi et yi sur deux variables X et Y, des
coordonnées moyennes (X ; Y). Il est possible de tester la signification statistique de cet indicateur.
La fiche technique 13.1. récapitule la procédure à mettre en œuvre.

\/|
$|
4$
By
Fiche technique 13.1. Calcul et test d’un coefficient de corrélation r
1 – Principes
Le coefficient de corrélation est basé sur la moyenne de tous les produits de distances pour les n points de
l’échantillon, que l’on appelle covariance. Sur une population :

Si l’on souhaite calculer l’estimateur de la covariance de population à partir de données d’échantillons, on


remplace N par (n – 1) (si besoin, revoir le chapitre 12).
On élimine ensuite l’effet des unités de mesure, en « standardisant » la covariance, c’est-à-dire en la divisant par
le produit des deux écarts-types. Soit :

L’expression développée devient :

Notez que les ou utilisés pour le calcul de la covariance et des écarts-types s’annulent. De fait,
contrairement à la variance (ou à l’écart-type) le calcul de r (échantillon) ou de ρ (population) est identique.
\/|
Ce coefficient est compris entre – 1 et 1. Un signe positif indique que les deux variables évoluent dans le même
sens : une augmentation de l’une s’accompagne d’une augmentation de l’autre et inversement. Un signe négatif
$|
indique une variation opposée : l’une augmente, l’autre diminue ou inversement.
4$

Un coefficient proche de 1 en valeur absolue indique une très forte association. Le nuage de points est alors très
étiré, ressemblant à un cigare. Un coefficient proche de 0 est signe d’une très faible association. Dans ce cas, le
By

nuage de points a une forme de cercle.


Les conditions d’utilisation du coefficient de corrélation linéaire sont assez sévères. Tout d’abord, les données
exigent une échelle d’intervalle ou de rapport. Ensuite, la distribution des données doit être binormale : les deux
variables doivent être distribuées conjointement (et non pas chacune prise individuellement) selon une loi
normale. Les tests de multinormalité sont peu répandus. Aussi convient-il de s’assurer, par un test (par exemple
de Kolmogorov-Smirnov) de la normalité des distributions individuelles. Si c’est le cas, on peut calculer r. Dans le
cas contraire, il est préférable d’utiliser la corrélation des rangs de Spearman ou le tau-b de Kendall.
2 – Test de signification du coefficient de corrélation
Quand le coefficient de corrélation linéaire est proche de 0, il peut être intéressant de vérifier que, dans la
population, la « vraie » corrélation ρ est différente de 0. Pour cela, il existe un test, basé sur une statistique dont
la loi de référence est celle de Student. L’hypothèse nulle est ρ = 0, l’hypothèse alternative étant ρ ≠ 0.
L’expression de la statistique du test est :

avec : n = taille d’échantillon


r = corrélation calculée dans l’échantillon
n – 2 degrés de liberté

Exemple
L’échantillon de stations utilisé pour le τb de Kendall a été étoffé et compte dix
observations.
On ne sera pas regardant, ici, sur les conditions d’application du calcul. Avec une si
petite taille d’échantillon, un test de normalité est presque sûr d’échouer. La linéarité
de la relation peut s’analyser visuellement en reportant les valeurs des stations sur un
plan orthogonal :
Les calculs sont réalisés facilement à partir de la figure 13.8.
Figure 13.8. Équipement de dix stations

\/|
$|
4$
By

Source : http://www.france-montagnes.com/stations-de-ski-france et http://www.mountain-riders.org

Figure 13.9. Représentation graphique de la relation


La corrélation entre les deux variables est proche de 1, ce qui dénote une association
très étroite dans l’échantillon : plus le nombre de kilomètres de pistes augmente, plus
le nombre de lits touristiques augmente également.
Peut-on faire l’hypothèse que cette corrélation existe dans la population ?

La valeur critique de t pour α = 0,05 (attention, test bilatéral) et n – 2 = 8 degrés de


liberté est égale à 2,31 (table 3 téléchargeable). La valeur calculée du test étant
supérieure à sa valeur critique, on rejette l’hypothèse nulle du test et l’on en conclut
que la probabilité de commettre une erreur en rejetant l'hypothèse nulle est inférieure à
5 %.

Les coefficients présentés jusqu’ici se limitent à explorer l’association entre variables. Lorsque le
résultat est significatif, le seul constat possible est l’existence d’une « variation concomitante » des
deux variables. Pour conclure à l’existence d’une relation de dépendance, il faut utiliser une
analyse de régression.

II. Analyse de régression simple


\/|
$|
L’analyse de régression simple (ou bivariée) fait partie de la famille des méthodes relevant du
4$

« modèle linéaire général ». Elle s’intéresse par conséquent à des relations linéaires entre
variables. Elle a deux objectifs principaux :
By

– confirmer empiriquement une relation de dépendance entre deux variables, dont on aura postulé
l’existence et la direction au plan théorique. Ce postulat se fait sous la forme d’une hypothèse, que
l’analyse de régression a pour but de tester. Par exemple : l’âge a un effet positif sur les dépenses
liées à la santé (i..e. plus on est âgé, plus on dépense). Cette méthode n’est pas un test statistique au
sens strict mais nous verrons plus loin que son utilisation implique le recours à au moins un test ;
– si cette relation est confirmée, évaluer son intensité et, corollairement, la « qualité » du modèle,
c’est-à-dire son pouvoir explicatif.
La procédure à mettre en œuvre se résume ainsi :
– distinguer, dans le couple de variables, la variable explicative (notée X) de la variable à
expliquer (notée Y) ;
– identifier le modèle mathématique qui exprime Y en fonction de X, par l’intermédiaire d’une
variable « reconstruite » (notée Ŷ). Les paramètres du modèle, c’est-à-dire les coefficients de
l’équation de régression, sont choisis de manière à ce que la somme des différences (Y – Ŷ)2 soit la
plus petite possible ;
– évaluer la qualité du modèle sur un triple plan(327) :
• théorique : le signe des coefficients (i.e. le sens de la relation) est-il celui attendu ? Quel est
l’ordre de grandeur de ces derniers ? etc. ;
• statistique : tests sur le caractère significatif des coefficients, sur le respect des hypothèses du
modèle. Calcul de la qualité de l’ajustement, etc. ;
• prédictif : quelle est la précision du modèle (i.e. quel est l’écart entre les valeurs prédites par le
modèle et celles réellement observées) ?
Un exemple permettra d’abord de détailler les procédures d’identification du modèle et les
caractéristiques de la relation entre les variables ; puis nous présenterons quelques applications de
l’analyse de régression.

A. Ajuster les données par l’analyse de régression


1. Exemple
Nous allons utiliser une analyse de régression pour tester l’hypothèse selon laquelle les dépenses
consacrées aux vacances dépendent du revenu. Les deux variables sont mesurées sur une base
annuelle. Le revenu est exprimé net par foyer. Contrairement à la corrélation, un sens précis à la
relation entre les deux variables a été postulé. C’est le revenu qui détermine les dépenses et pas
l’inverse.
Pour rendre les calculs faisables manuellement, un échantillon de convenance de
10 consommateurs, extrait d’une base plus large de 347 observations, a été retenu. Les données sont
\/|
présentées dans la figure 13.10.
$|
4$

Figure 13.10. Revenu et dépenses annuels pour les vacances (en euros)

Revenu Budget
By

21 000 1 000
20 500 1 100
23 000 1 200
27 000 1 300
25 500 1 400
28 000 1 600
26 500 1 700
30 000 1 900
29 000 2 000
31 000 2 200

L’observation « à l’œil nu » des données montre que plus le revenu augmente, plus les dépenses
pour les vacances augmentent. Cette impression visuelle est confirmée par le graphique en nuage de
points du phénomène, illustré par la figure 13.11.
Figure 13.11. Représentation de la relation entre revenu et budget vacances

La relation suggérée par le tableau de données apparaît sans nécessiter de calculs compliqués...
Pourtant un modèle mathématique, c’est-à-dire une équation, capable de reproduire, même
imparfaitement, les variations de l’une des variables en fonction de l’autre est très utile. Il permet
\/|
de représenter le phénomène pour des grosses bases de données où l’excès d’information brouille
$|
les représentations graphiques. Il permet également de « prédire » les valeurs d’une variable en
4$

fonction de celles de l’autre.

2. Identification du modèle
By

La fiche technique 13.2. présente les différentes étapes nécessaires à l’identification du modèle de
régression : sélection des variables, vérification des conditions d’application, choix de l’équation
de régression, calculs des paramètres d’ajustement.

Fiche technique 13.2. Identification du modèle d’ajustement


1 – Sens de la relation
Il faut préciser la variable dont on veut expliquer les variations, puis celle dont dépendent ces dernières. La
première est la variable à expliquer, ou variable dépendante. La seconde est la variable explicative, ou variable
indépendante.
Nous cherchons à expliquer pourquoi le budget vacances varie d’un foyer à l’autre : c’est la variable dépendante,
notée Y. Nous avons retenu le revenu comme variable explicative, notée X, mais le budget dépend probablement
de nombreux autres facteurs. Par exemple, le nombre de personnes au foyer, où des variables psychologiques
telles que le besoin de stimulation ou l’importance accordée aux vacances pourraient être des variables
explicatives pertinentes. Le pouvoir explicatif d’un modèle de régression dépend du nombre et de la pertinence
des variables explicatives retenues (voir chapitre 14). Mais nous verrons que ce modèle tient compte des
variables potentiellement explicatives qui auraient pu être omises.
2 – Vérification des conditions d’application
Les conditions d’application de la régression sont celles de la corrélation (échelles métriques, normalité des
distributions). Il est nécessaire que les deux variables soient corrélées de manière significative pour qu’un
éventuel lien de dépendance soit analysé. On y ajoute des contraintes sur la taille d’échantillon, sur la linéarité
du phénomène sous-jacent et sur la distribution des résidus. Le point sur la linéarité a déjà été fait et nous
aborderons le problème des résidus au chapitre 14.
Il n’existe pas de règle scientifique formelle pour déterminer une taille d’échantillon idéale. Un échantillon trop
petit provoque une certaine instabilité du modèle : une modification minime de la composition de l’échantillon
peut alors faire varier sensiblement les paramètres de l’équation. La « norme » la plus courante suggère vingt
observations par variable explicative.
3 – Sélection du modèle d’ajustement
Nous cherchons une fonction f qui lie les valeurs de Y à celle de X. La figure 13.11. montre qu’une simple droite
permettrait de représenter correctement le phénomène. L’équation de cette droite est construite sur le modèle
Ŷ = a + bX.
4 – Ajustement des observations
Mais on voit bien que les points ne sont pas parfaitement alignés et représentent un « nuage » plus qu’une droite.
On dit alors que la droite « ajuste » le nuage. On s’arrange pour que les coefficients a et b fassent passer la droite
« au plus près » des points du nuage.
L’équation qui permet d’exprimer les valeurs de Y en fonction de celles de X tient compte de ces distances entre
points et droite et s’écrit :
Y = a + bX + e = Ŷ + e
Autrement dit, e représente l’erreur commise par le modèle. Cette erreur doit, bien sûr, être minimisée. Pour
cela, on joue sur le choix de X et sur les valeurs de a et de b.
Pour X les critères sont théoriques : postuler que le budget vacances est déterminé au moins en partie par le
revenu semble pertinent. Utiliser le nombre d’heures passées devant la télévision l’aurait probablement été
beaucoup moins. \/|
L’identification du couple (a ; b) repose sur des critères mathématiques. Le critère des moindres carrés ordinaires
(MCO) est facile à mettre en œuvre et performant. Le meilleur couple (a ; b) minimise la somme des carrés des
$|
différences entre chaque point et sa valeur recalculée par la droite.
4$

Écrire :
Y=Ŷ +e
By

revient à dire que pour chaque observation i l’erreur ei est la différence entre l’observation yi et la valeur ŷ i
calculée par l’équation ŷ i = a + bxi. Soit :
∀ i,ei = (yi - ŷ i)
Les points pouvant se situer de part et d’autre de la droite, les distances positives ont tendance à équilibrer les

distances négatives. Pour éviter cela, on élève ei au carré et on cherche à minimiser .


Les valeurs de a et b qui permettent de respecter cette contrainte se calculent par :

Et :
a = Y – bX
Le numérateur de b est la covariance des deux variables (avant division par la taille d’échantillon). Le
dénominateur est le numérateur de la variance de X.

3. Application chiffrée (328)


La figure 13.12. donne les principaux calculs permettant d’identifier la valeur de a et de b.
Figure 13.12. Calculs préparatoires à l’identification de la droite de régression

Vérifions tout d’abord que les variables sont corrélées significativement :


\/|
$|
4$

La corrélation est proche de 1, ce qui dénote une association très étroite dans l’échantillon.
By

Peut-on faire l’hypothèse que cette corrélation existe dans la population ?

La valeur critique de t pour α = 0,05 (attention, test bilatéral) et n – 2 = 8 degrés de liberté est égale
à 2,31 (table 3 téléchargeable). La valeur calculée du test étant supérieure à sa valeur critique, on
rejette l’hypothèse nulle et l’on en conclut que les deux variables sont corrélées dans la population
(au risque d’erreur α = 5 % près).
Le calcul des coefficients de la régression peut être poursuivi :

Et :
a = Y – bX = 1 540 – 0,1028 × 26 150 = – 1 148,22
L’équation de la droite qui « ajuste » au mieux le nuage de points de la figure 13.11. s’écrit :
Ŷ = – 1 148,22 + 0,1028 × X
4. Interprétation de la droite de régression
Comment interpréter a et b ?
– b est la pente de la droite, soit la variation de Y lorsque X augmente d’une unité. Quand le revenu
augmente d’un euro, le budget vacances augmente de 0,10 euro. Le signe de b étant positif, X et Y
varient dans le même sens. Un signe négatif induit une variation opposée : Y diminue quand X
augmente ou inversement.
– a est l’origine de la droite, c’est-à-dire la valeur prise par Y lorsque X = 0. Un ménage à revenu
nul aurait un budget vacances de – 1 148,22 euros. C’est bien sûr impossible, mais trois remarques
s’imposent :
• la relation entre les deux variables n’est linéaire que dans l’intervalle couvert par les données de
l’échantillon. Intégrer des revenus plus faibles et plus élevés aurait probablement montré des effets
de seuil (et une courbe en S plutôt qu’une droite) : en dessous d’un certain revenu le budget
vacances est 0 et, au-dessus, il finit par plafonner (en moyenne) ;
• des modèles de régression beaucoup plus sophistiqués que les moindres carrés ont été développés
(notamment non linéaires) pour tenter d’affiner la représentation des phénomènes étudiés ;
• un modèle de régression est avant tout une théorie donc une approximation, aussi bonne soit-elle.
Aucun modèle théorique, quelle que soit sa nature, ne peut prétendre représenter parfaitement une
réalité empirique (i.e. le monde « réel » dans lequel nous vivons).
\/|
Jusqu’à présent, e a été négligé. Sa valeur est un indicateur de « qualité » du modèle.
$|
4$

est une perte d’information : plus elle est faible, meilleur est le modèle dans sa capacité à
By

« prédire » Y à partir de X.

B. Évaluer la qualité du modèle


1. Analyse graphique visuelle
La droite d’ajustement Ŷ est superposée au nuage de points dans la figure 13.13. Visuellement, on
s’aperçoit que la qualité de l’ajustement est bonne, puisque les distances ei, prises
individuellement, sont faibles.
Figure 13.13. Évaluation visuelle de la qualité d’ajustement d’une droite de régression

\/|
Toutefois, cette inspection graphique manque de finesse et, dans de nombreux cas, ne permet pas
$|
d’évaluer avec précision la qualité de l’ajustement. Le modèle utilisé est le meilleur possible, mais
4$

il reste à apprécier objectivement ses performances.


By

2. Coefficient de détermination (R2)


On peut s’imaginer le coefficient R2 comme un indicateur synthétisant la capacité de la droite de
régression à retrouver les différentes valeurs de la variable à expliquer Y. Plus sa valeur va tendre
vers 1, plus la restitution va s’approcher de la perfection.
Les étapes et les formules nécessaires au calcul de ce coefficient sont présentées dans la fiche
technique 13.3.
Fiche technique 13.3. Formules de calcul d’un coefficient de détermination (R2)
1 – Calcul de ŷ i et de ei
Rappel (fiche technique 13.2.) :
ŷ i = a + bxi
Et :
ei = (yi – ŷ i)
2 – Calcul de la variation expliquée par la régression
L’information totale contenue dans une variable est donnée par la somme des carrés des écarts entre les
observations et la moyenne (i.e. le numérateur du calcul de la variance). Cette somme s’appelle la « variation ».
L’information expliquée par la droite de régression est la variation de la variable Ŷ, soit :

3 – Calcul de la variation résiduelle


La variation résiduelle est :

Elle est minimale pour la droite identifiée et représente la perte d’information résultant de la régression. Elle est
\/|
donc un premier indicateur de la qualité globale de cette dernière. Plus elle est faible, meilleure est la régression.
$|
4 – Calcul de la variation totale
La variation totale est l’information contenue dans la variable dépendante Y :
4$
By

Elle est la somme de la variation expliquée et de la variation résiduelle :

5 – Calcul du coefficient de détermination (R2)


Le coefficient de détermination R2 est le rapport de la variation expliquée à la variation totale :

– Application chiffrée
La figure 13.14. donne les informations permettant de calculer le R2 pour notre exemple.
Figure 13.14. Calculs des variations

\/|
Le modèle restitue 85,16 % de la variation qui était exprimée dans les données de départ. C’est un
$|
excellent résultat, pour trois raisons : la faible taille d’échantillon, le risque d’erreur (volontaire ou
4$

non) lié à la nature déclarative des données et l’existence potentielle d’autres facteurs explicatifs
des sommes dépensées annuellement pour les vacances.
By

3. Test F (Fisher-Snedecor)
Pour répondre à l’interrogation précédente, il est possible de procéder à un test statistique (test F)
pour évaluer la « qualité » du R2. La fiche technique 13.4. donne la marche à suivre.
Fiche technique 13.4. Mise en œuvre d’un test F (Fisher-Snedecor)
1 – Hypothèses et principes
Ce test est comparable à celui vu au chapitre 12. En cas de rejet de H0 il permet de conclure à la plausibilité de
l’existence du modèle dans la population. Dans ce cas, les paramètres de l’équation dans la population seraient
estimés par intervalle de confiance (voir chapitre 14). H0 postule l’égalité de la variance expliquée et de la
variance résiduelle. Le test calcule le rapport de ces deux variances et compare le résultat obtenu aux valeurs
critiques de la loi de Fisher-Snedecor. En cas de non-rejet de H0, l’interprétation des résultats, notamment du R2,
n’a pas grand intérêt.
2 – Formules de calcul
Il s’agit d’un rapport de variances. Jusque-là nous avons calculé des variations, qu’il faut maintenant diviser par
leurs degrés de liberté respectifs. Le degré de liberté de la variation expliquée est le nombre k de variables
explicatives. La variance expliquée est :

Le degré de liberté de la variation résiduelle est le nombre d’observations moins le nombre de variables
explicatives moins 1. La variance résiduelle est :

Le test en F examine le caractère significativement différent de 1, au seuil α fixé, et pour un nombre de degrés de
\/|
liberté donné (ici k et n – k – 1) de la statistique :
$|
4$

3 – Règles de décision
By

On compare la valeur calculée de F à sa valeur critique, lue dans la table de la loi en F au seuil α et pour k et (n –
k – 1) degrés de liberté. Plus F est supérieur à 1, meilleur est le modèle.

Si nous appliquons ces formules aux données de notre exemple, nous obtenons :

Et F égale :

La valeur critique de F, au seuil α = 5 %, pour 1 et 8 degrés de liberté, est égale à 5,32. Le Fcalculé
étant nettement supérieur, nous pouvons rejeter H0 et conclure que dans la population la variance
expliquée par le modèle est supérieure à sa variance résiduelle. Autrement dit, le revenu est bien un
facteur explicatif pertinent du budget vacances dans la population.
4. Autres indicateurs de qualité
Un troisième indicateur de qualité est l’erreur standard de la régression. On peut l’interpréter
comme une sorte d’erreur moyenne dans la prédiction de Y par l’équation de régression. Elle se
calcule comme la racine carrée de la variance résiduelle. Pour notre exemple, on obtient :

Le taux d’erreur de l’ajustement s’exprime par :

En moyenne le modèle commet une erreur de 165,94 euros en prédisant le budget vacances d’un
individu à partir de son revenu, soit 10,8 % de la moyenne de la variable, ce qui semble
relativement important.
Enfin, b est la valeur du coefficient de régression dans l’échantillon. Il faut tester si sa valeur β
dans la population est différente de 0, avec
H0 : β = 0
H1 : β ≠ 0
\/|
$|
La statistique du test est :
4$
By

Elle suit une loi de Student. La valeur calculée est donc à comparer à la valeur critique tα/2 ; n – 2 lue
dans la table. Ici elle est égale à 2,31 puisque le test est bilatéral.

Conclusion
Ce chapitre a présenté diverses mesures d’intensité de l’association entre deux variables. La
mesure de l’association entre variables nominales peut se faire au moyen du coefficient de
contingence (C), du coefficient ø destiné aux tables 2 × 2, du V de Cramer ou du λ de Goodman et
Kruskal. Lorsque l’on dispose de variables ordinales, la corrélation des rangs (rs) de Spearman ou
le tau-b (τb) de Kendall sont plus performants. Ce dernier doit être préféré lorsque la relation entre
les deux variables n’est pas linéaire ou lorsqu’il y a de nombreux ex aequo dans les rangs des
observations. Lorsque les variables sont purement métriques et ont des distributions normales, c’est
la corrélation (r) de Pearson qui s’applique.
L’analyse de régression complète la corrélation de Pearson par le test d’un éventuel lien de
dépendance entre deux variables métriques. L’une des deux est définie comme la variable à
expliquer, ou variable dépendante. Les différences observées entre ses valeurs dépendent de
l’influence de l’autre variable, appelée variable explicative, ou indépendante. On cherche à
identifier l’équation d’une droite qui exprime la variable à expliquer en fonction de la variable
explicative, en minimisant la perte d’information. Grâce à cette équation, on évalue la qualité de
l’ajustement réalisé, à partir du coefficient de détermination (R2) et d’un test en F.

Test de connaissance
(Cochez une seule réponse par question.)
Q1. L’analyse de régression vise à :
(1) évaluer l’association entre deux variables ordinales
(2) expliquer les variations d’une variable métrique
(3) représenter graphiquement la relation entre deux variables
Q2. L’un des indicateurs de la qualité d’une régression est :
(1) le coefficient de corrélation linéaire (r de Pearson)
(2) le test d’ajustement du χ2 \/|
(3) le R2
$|
4$

Q3. Le coefficient de détermination d’une régression traduit :


(1) la part de variation globale expliquée par le modèle
By

(2) l’importance de la variation résiduelle


(3) l’intensité de l’association entre les deux variables
Q4. La corrélation des rangs (rs de Spearman) s’applique :
(1) uniquement à des données métriques
(2) à des données métriques ou ordinales
(3) à tous types de données
Q5. Pour évaluer l’association entre deux variables nominales dichotomiques, on utilise :
(1) le coefficient Φ
(2) le V de Cramer
(3) le χ2
Réponses : voir annexes téléchargeables sur www.vuibert.fr

Bibliographie
BERENSON M. L., LEVINE D. M., KREHBIEL T. H. et STEPHAN D. F., Basic Business Statistics,
12e édition, Prentice-Hall, 2011.
JOHNSTON J., Méthodes économétriques, vol. 1, Economica, Paris, 1985.
JOLIBERT A. et JOURDAN P., Marketing Research. Méthodes de recherche et d’études en marketing,
2e édition, Paris, Dunod, 2011.
LAMBIN J.-J., La recherche marketing, McGraw-Hill, Paris, 1990.
LAPIN L. L., Statistics for Modern Business Decisions, 6e édition, The Dryden Press, New York,
1993.
MALHOTRA N. K., DÉCAUDIN J. M., BOUGUERRA A. et BORIÈS D., Études marketing avec SPSS,
6e édition, Paris, Pearson Education France, 2014.
SIEGEL S. et CASTELLAN N. J. Jr., Nonparametric Statistics for the Behavioral Sciences, 2e éd.,
McGraw-Hill International, New York, 1988.
WONNACOTT T. H. et WONNACOTT R. J., Statistique, 4e éd., Economica, Paris, 1991.

\/|
$|
4$
By
Chapitre 14

Analyses multivariées
Les faits sont têtus. Il est plus facile de s'arranger avec les statistiques.
MARK TWAIN

À l’issue des analyses menées dans les chapitres 10 à 13, de nombreuses questions restent posées.
L’analyse de régression menée dans le chapitre précédent a montré que le revenu est un déterminant
clé des dépenses consacrées aux vacances. Plus précisément, 85,16 % de la variation totale de
cette variable sont expliqués par le revenu. C’est un excellent résultat, mais qui laisse en suspens un
certain nombre de questions. Que se passe-t-il, notamment, si l’on inclut des variables telles que
« nombre d’enfants au foyer » ou « motivation à partir en voyage » ? Par ailleurs, un tri croisé a mis
\/|
en évidence une relation entre l’âge et l’intention d’utiliser une lessive sans phosphates. Pourrait-on
$|
affiner cette analyse en prenant en compte d’autres variables ?
4$

Dans une étude de marché, l’information brute est volumineuse. Fréquemment, l’interprétation
s’améliore si l’on « traite » plus de deux variables à la fois : c’est le domaine de l’analyse
By

multivariée. L’intérêt commun de ces méthodes est d’accepter une petite perte d’information pour
obtenir une meilleure compréhension du phénomène. Elles diffèrent les unes des autres sur trois
points : objectifs, type d’information traité et manière de présenter les résultats.
Nous dresserons un panorama des familles de méthodes multivariées, puis nous verrons
successivement : l’analyse factorielle, l’analyse des correspondances, l’analyse typologique,
l’analyse des similarités, l’analyse de régression multiple et l’analyse discriminante (voir
figure 14.1.). Pour chaque méthode, l’objectif recherché, la nature des données nécessaires et des
exemples seront présentés.
Figure 14.1. Plan du chapitre

\/|
$|
4$
By

I. Présentation générale des méthodes d’analyse multivariée

A. Classification des méthodes


La figure 14.2. présente deux critères de classement très courants :
– objectif de l’analyse. On distingue les méthodes descriptives des méthodes explicatives ; les
premières, par leur capacité à fournir une information synthétisée, facilitent l’emploi ultérieur des
secondes ;
– nature des variables. Le type de mesure (nominale, ordinale ou métrique) conditionne le choix des
méthodes.

(329)
Figure 14.2. Classement des méthodes selon l’objectif et la nature des variables (329)

B. Présentation des données


Les données sont présentées selon quatre formes de tableaux prédéfinis. On choisit l’une ou l’autre
\/|
selon la méthode à utiliser. Les deux premières ont déjà été utilisées dans les précédents chapitres.
$|

1. Tableau des données brutes


4$

C’est le tableau le plus simple, qui se présente sous une forme individus/variables. Par exemple,
By

dans la figure 14.3., l’individu no 2 est de sexe masculin et âgé de 25 ans. De manière plus
générale, la valeur xij représente l’information fournie par l’individu i pour la variable j. Lire ce
tableau implique de savoir comment les variables ont été codées (e.g. dans la nomenclature Insee, 1
désigne invariablement le genre masculin). Les symboles utilisés sont des conventions de notation
assez largement utilisées (k pour le nombre de variables (quelquefois p ou q), n pour la taille
d’échantillon, i pour l’indice repérant une ligne, j pour l’indice repérant une colonne.
Figure 14.3. Exemple de tableau de données brutes

2. Tableau de contingence
C’est un extrait synthétique du tableau des données brutes : l’information est agrégée, au lieu
d’être disponible individu par individu. Il résulte du tri croisé de deux variables, d’où une forme
variable/variable. La figure 14.4. en donne un exemple : dans cet échantillon (de taille n),
245 individus sont à la fois de niveau d’éducation secondaire et de profession supérieure. La
valeur nij donne le nombre d’individus présentant la modalité i pour la variable en ligne et la
modalité j pour la variable en colonne.
Figure 14.4. Exemple de tableau de contingence

3. Tableau de distances
Il présente des distances (réelles ou perçues) entre objets étudiés, sur une, deux ou plusieurs
variables. Alors que le tableau de contingence agrège les individus pour s’intéresser aux variables,
le tableau de distances agrège les variables pour se préoccuper des individus, d’où sa forme
\/|
individus/individus.
$|

La figure 14.5. donne, dans sa partie gauche, les scores de cinq individus sur deux variables. La
4$

première est l’âge donné en années, la seconde est une mesure d’attrait pour le risque sur une
échelle de Likert à cinq postes. Dans la partie droite, figure la matrice de distances entre les
By

individus qui en résulte. Il existe plusieurs façons de calculer des distances entre individus. Ici,
nous avons utilisé la plus courante. Nous reviendrons sur ce point et donnerons les techniques de
calcul en présentant l’analyse typologique.
Figure 14.5. Exemple de tableau de distances (données fictives)

La distance entre Alain et Bernard est de 1,320. La méthode de calcul utilisée a fait disparaître les
unités de mesure. Cela facilite la comparaison entre les individus sans privilégier l’une ou l’autre
des variables dans le calcul. Il est bien sûr possible d’utiliser plus de deux variables, mais la
quantité de calculs à faire augmente très vite. La particularité d’un tel tableau est la symétrie autour
de sa diagonale, dont les éléments sont égaux à 0. La distance entre un objet et lui-même est en effet
nulle. De même, l’ordre n’a pas d’importance ; la distance entre Alain et Bernard est la même
qu’entre Bernard et Alain. Les valeurs du triangle supérieur sont donc identiques à celles du
triangle inférieur. Une valeur dij indique, de manière générale, la distance entre les individus i et j.

4. Tableau de Burt (disjonctif complet)


Le tableau disjonctif complet (ou tableau de Burt) présente des couples individus/variables
particuliers, comme le montre l’exemple de la figure 14.6. : l’individu no 1 (sexe masculin) a un
niveau d’éducation primaire ; l’individu no 2 (sexe féminin) a un niveau supérieur. Pour chaque
couple individu/variable, l’individu prend la valeur 1 pour la modalité choisie et 0 pour les autres
modalités. Ce tableau ne s’applique qu’à des variables qualitatives ou quantitatives transformées en
classes.
Figure 14.6. Exemple de tableau disjonctif

\/|
$|
4$
By

Nous allons maintenant présenter les méthodes d’analyse multivariée les plus courantes.

II. Méthodes d’analyse factorielle


Cette famille de méthodes a pour principe commun de transformer un ensemble de variables
métriques en un autre ensemble de variables métriques, que l’on nomme facteurs. Ceux-ci ont un
contenu en information variable. Cela permet de n’en retenir qu’un petit nombre qui, en quelque
sorte, représente un « concentré d’information » par rapport aux variables de départ. Le phénomène
étudié peut ainsi être analysé et interprété plus simplement grâce au gain réalisé sur le nombre de
variables à appréhender simultanément.
Les méthodes d’analyse factorielle se distinguent en deux groupes selon l’approche théorique que
l’on a du phénomène étudié. Dans un cas, on s’intéresse à une variable inobservable, mais que l’on
suppose exister et susceptible de donner naissance à des phénomènes qui, eux, sont observables. La
figure 14.7. illustre ce point de vue.
Figure 14.7. Modèle d’analyse factorielle

L’amour est un concept dont l’ontologie (i.e. la « réalité ») n’a pas manqué d’interpeller l’humanité
au cours des derniers millénaires. Il est en tout cas bien documenté dans la littérature et son
« existence » fait l’objet d’un consensus assez large. Malheureusement, aucune IRM ne montrera
jamais l’amour. Au mieux, on peut en voir des conséquences (telle ou telle zone du cerveau
« s’allume »). En analyse factorielle, on représente une telle variable par une forme ronde ou ovale.
Il s’agit bien d’une variable car les individus diffèrent les uns des autres sur le « degré » d’amour
éprouvé pour quelqu’un / quelque chose. Ses manifestations sont représentées par des rectangles.
\/|
Ici le nombre de manifestations potentielles de l’amour n’est évidemment pas exhaustif. Chaque
$|
variable observée est la résultante de ce « facteur » caché et d’autres sources de « variation »,
4$

comme en analyse de régression. Les variables observées partagent toutes une information
commune, dont la source est le facteur.
By

Dans l’autre cas, la perspective théorique est absente. On part d’un ensemble de variables
observées sans s’interroger sur leur(s) déterminant(s) commun(s), et l’on cherche simplement à
résumer l’information qu’elles contiennent dans un plus petit nombre de variables de synthèse. On
va ensuite interpréter la signification de ces dernières en fonction de critères purement statistiques.
La figure 14.8. illustre cette perspective.
Figure 14.8. Modèle d’analyse en composantes principales
Dans cette perspective, le développement économique est un facteur dont l’existence est due à
une pure construction intellectuelle et qui n’a pas d’autre source que les variables observées. On
part du principe que celles-ci sont redondantes en termes d’information. La création du facteur
permet d’éliminer cette redondance pour ne garder que ce qui est strictement utile à l’interprétation
du phénomène.
Dans le premier cas on a affaire à une analyse en facteurs communs et spécifiques, dont il existe
plusieurs variantes. Dans le second cas, on parle d’analyse en composantes principales (ACP). Les
deux fonctionnent de manière très différente au plan mathématique mais, en pratique, aboutissent à
des solutions factorielles très comparables. Nous nous concentrerons sur l’ACP et nous donnerons
en fin de partie quelques éléments sur l’analyse en facteurs communs et spécifiques.

A. Objectifs et principes techniques fondamentaux


L’ACP poursuit un double objectif :
– simplifier un tableau de données brutes en passant d’un grand nombre de variables à un petit
nombre de nouvelles variables obtenues par « regroupement » des premières ;
– structurer et interpréter les données de départ, grâce à ce petit nombre de nouvelles variables.
Celles-ci simplifient l’interprétation de données peu lisibles au premier abord.
\/|
Les grands principes de la méthode sont récapitulés dans la fiche technique 14.1.
$|
4$

Fiche technique 14.1. Résumé des principes analytiques de l’ACP


By

1 – Principes fondamentaux
Si k est le nombre de variables de départ, la méthode consiste à diagonaliser la matrice k x k des corrélations r
de Pearson (voir chapitre 13) entre ces variables.
Dans un premier temps k composantes principales sont produites en résolvant un système de k équations
linéaires à k inconnues, de la forme suivante :
pi = ai1x1 + ai2x2 + ... + aikxk
Les aij sont les coefficients de pondération des variables initiales. Ils sont choisis de manière à produire des
composantes principales :
– par ordre de variance décroissante ;
– non corrélées entre elles (contrairement aux variables de départ).
2 – Contraintes
La méthode de calcul utilisée implique des variables métriques corrélées entre elles et un échantillon de grande
taille (ce point sera de nouveau abordé plus loin). Le calcul des corrélations implique une distribution normale
des variables (chapitre 13).
3 – Choix du nombre de nouvelles composantes et interprétation
L’objectif étant de synthétiser l’information, il revient au chargé d’études de choisir un ensemble de p
composantes, avec p beaucoup plus petit que k.
L’un des critères de décision est la perte d’information (i.e. de variance) consentie. L’interprétation des
composantes se fait à partir des anciennes variables, en fonction de la contribution de chacune d'entre elles aux
combinaisons linéaires mises au jour.
B. Étapes de l’analyse
L’exemple ci-dessous illustre les principales phases de la démarche.

Exemple
Contexte : Dans une étude sur ce qui constitue l’essence d’un « chez-soi », cent
cinquante propositions ont émergé d’une phase qualitative et de plusieurs phases
d’évaluation par des experts. Elles ont été soumises à un échantillon de convenance de
190 personnes, à l’issue de la phrase d’ancrage suivante : « Pour que je me sente chez-
moi quelque part, il faut que ce soit un lieu... ». Les réponses ont été recueillies sur
des échelles de Likert à 5 postes. Sept propositions ont été extraites pour cet exemple :
« Où je me sens protégé » ; « Où les autres aiment venir » ; « Où l’on accueille
l’autre » ; « Rassurant » ; « Où je ne me sens pas agressé » ; « Que j’ai envie de
partager avec d’autres » ; « Où je me sens en sécurité ».
Objectif de l’analyse : Est-il possible de résumer ces 7 variables en 2 ou 3 maximum
de manière à voir émerger des grandes dimensions structurantes de la perception du
« chez soi » ?
\/|
1. Étape 1 : analyse des conditions d’application de la méthode
$|
4$

a. Nature des mesures


By

Bien que les échelles de Likert soient fondamentalement des mesures ordinales, une longue tradition
de recherche en psychométrie les assimile à des mesures d’intervalle. L’usage d’échelles
d’intervalle à supports sémantiques est conseillé dès que possible. Par ailleurs, la définition de
cinq postes est un minimum : plus le nombre de postes sera élevé, plus l’hypothèse de « continuité »
de la mesure sera défendable.

b. Distribution normale des variables


Le test de Kolmogorov-Smirnov unilatéral est bien adapté (chapitre 12). En cas de rejet de
l’hypothèse nulle, on regarde si les paramètres de forme sont extrêmes ou non. Dans ce dernier cas,
on peut tabler sur une certaine « robustesse » de la méthode. Dans le premier, il faut analyser plus
finement les distributions et repérer d’éventuelles observations aberrantes. Si tout échoue, il est
préférable d’enlever les variables concernées de l’analyse. La figure 14.9. donne le résultat des
tests.
Figure 14.9. Tests de Kolmogorov-Smirnov

Exemple (suite)
La valeur de la « signification asymptotique » indique le pourcentage d’échantillons
pour lequel la valeur observée de la statistique du test est compatible avec l’hypothèse
nulle. Ce pourcentage étant inférieur au seuil de risque α de 0,05, il est préférable de
rejeter cette dernière. Les variables ne suivent pas une distribution normale. Par
contre, l’examen des paramètres de forme (asymétrie et aplatissement) montre que les
valeurs des coefficients sont toutes inférieures à |3| (figure 14.10.). L’écart à la
normalité n’est, par conséquent, pas trop marqué et l’on peut poursuivre l’analyse.
\/|
$|
Figure 14.10. Coefficients d’asymétrie et d’aplatissement
4$

Statistique
By

lieu que j’ai envie de partager Asymétrie – 0,946


avec d’autres Aplatissement 1,060
Asymétrie – 1,046
lieu où les autres aiment venir
Aplatissement 0,796
Asymétrie – 1,430
lieu où je ne me sens pas agressé
Aplatissement 2,958
Asymétrie – 0,959
lieu où l’on accueille l’autre
Aplatissement 1,155
Asymétrie – 0,985
lieu où je me sens protégé
Aplatissement 1,093
Asymétrie – 0,773
lieu rassurant
Aplatissement 1,185
Asymétrie – 1,261
lieu où je me sens en sécurité
Aplatissement 2,516
« Qualité » des corrélations : il faut d’une part que les corrélations soient individuellement
significativement différentes de 0 et collectivement différentes d’une matrice identité et d’autre part
que la part de la corrélation partielle dans la corrélation totale soit limitée. La fiche technique 14.2.
présente le test de Bartlett et l’indice de Kaiser-Meyer-Olkin, qui donnent un éclairage sur les deux
derniers points.

Fiche technique 14.2. Test de sphéricité de Bartlett et indice de Kaiser-Meyer-


Olkin (KMO)
1 – Principe
Le test de Bartlett compare la matrice M des corrélations observées à une matrice identité I. Une matrice
identité ne comporte que des 1 sur sa diagonale et des 0 partout ailleurs. L’hypothèse nulle du test est que dans
la population M = I. Sa statistique est :

Où n est la taille d’échantillon et |R| est le déterminant de la matrice. Cette statistique suit une loi du χ 2 à

degrés de liberté (avec k = nombre de variables). La règle de décision est classique : si la valeur
calculée du test dépasse sa valeur critique (tabulée), H0 doit être rejetée. Dans ce cas, les corrélations sont non
\/|
nulles dans la population et l’ACP peut être menée.
$|
2 – Calcul de l’indice KMO
Il est égal à :
4$
By

Rij2 correspond à la corrélation multiple entre les variables i et j et rij2 est la corrélation partielle entre ces
mêmes variables. La notion de corrélation multiple est identique à celle vue au chapitre 13, à une nuance près : le
calcul de la corrélation entre deux variables intègre l’effet produit par les liens entre ces deux variables et
toutes les autres. La corrélation partielle entre deux variables est « ce qui reste » quand on a enlevé cet effet.
L’existence d’une information (i.e. corrélation) partagée entre variables due à une source commune (un facteur)
implique qu’une fois l’effet de cette source commune neutralisé, les corrélations partielles deviennent faibles.
Dans ce cas, KMO prend une valeur proche de 1. Une valeur inférieure à 0,5 indique que la part d’information
commune est inférieure aux corrélations spécifiques aux variables et rend l’ACP inappropriée.

Exemple (suite)
La figure 14.11. donne la matrice des corrélations entre les sept variables. Pour
chaque couple de variables, la corrélation est sur la première ligne et la significativité
du test sur la seconde. Elles sont toutes significatives sauf deux. La règle de décision
est la même que pour le test de Kolmogorov-Smirnov ci-dessus. Lorsque la valeur de
la significativité est inférieure à 5 %, il vaut mieux rejeter H0 qui, dans ce cas, postule
ρ = 0. L’existence de corrélations non significatives serait problématique si une ou
plusieurs variables étaient systématiquement non corrélées avec toutes les autres. Ce
n’est pas le cas ici, donc il n’y a pas de contre-indication à la poursuite de l’analyse.
Figure 14.11. Corrélations entre les variables du « chez-soi »

\/|
$|
4$

La figure 14.12. donne les valeurs de KMO et du test de Bartlett. Dans les deux cas, la
poursuite de l’analyse peut être envisagée. La valeur de KMO est nettement supérieure
By

à 0,5 et se situe dans une tranche intermédiaire entre « moyen » et « méritoire » selon
la grille donnée par ses concepteurs. Le test de Bartlett est significatif (voir fiche
technique 14.2.), donc la matrice de corrélations n’est pas une matrice identité dans la
population.
Figure 14.12. Indice KMO et test de Bartlett

Mesure de précision de l’échantillonnage de Kaiser-Meyer-Olkin 0,787


chi-deux approximé 563,639
Test de sphéricité de Bartlett ddl 21
signification de Bartlett 0,000

2. Étape 2 : diagonalisation de la matrice des corrélations et calcul des


composantes principales
L’analyse factorielle construit des combinaisons linéaires des variables de départ, que l’on appelle
composantes principales, en respectant les principes énoncés plus haut. Ces calculs donnent un
tableau comportant la variance de chacune des composantes principales, ainsi que la part de
variance initiale représentée par chacune de celles-ci (figure 14.13.).
Figure 14.13. Variance des composantes principales

Valeurs propres initiales


Composante
Total % de variance % cumulé
1 3,347 47,811 47,811
2 1,618 23,111 70,922
3 0,587 8,382 79,304
4 0,496 7,081 86,384
5 0,378 5,404 91,788
6 0,329 4,700 96,489
7 0,246 3,511 100,000
\/|
Exemple (suite)
$|
4$

La méthode a calculé sept composantes principales. La première a une valeur propre,


ou variance, de 3,347 qui représente à elle seule 47,81 % de l’information totale
By

contenue dans les sept variables d’origine. La seconde a une valeur propre de 1,618 et
représente 23,11 % de l’information. La troisième ne représente plus que 8,38 %, et
ainsi de suite. Les trois premières contribuent, ensemble, à près de 80 % de la
variance initiale. On voit bien qu’il semble possible de passer de sept variables à 2 ou
3 composantes sans perdre beaucoup d’information.

Remarque : l’information que représentent les composantes est la même que celle des variables
initiales. Elle a juste été réorganisée pour être « densifiée » dans certaines composantes et
« allégée » dans d’autres. On peut se séparer de ces dernières sans perte substantielle
d’information.

3. Étape 3 : choix des composantes principales


Ce choix est important car il conditionne l’interprétation des composantes retenues et la qualité des
analyses qui pourraient être menées sur ces dernières. Ce point sera abordé plus loin dans le
chapitre. Le choix du nombre pertinent de composantes principales est principalement basé sur
deux critères :

a. La valeur propre (ou critère de Kaiser)


Les variables initiales ont une variance égale à 1, parce qu’elles ont été préalablement centrées et
réduites. On retient les composantes dont la valeur propre est supérieure à 1, parce qu’elles sont
plus denses en information que les variables de départ. Ce critère a l’inconvénient de déboucher
sur un nombre élevé de composantes. Lorsque le nombre de variables de départ est élevé, certaines
de ces composantes peuvent être retenues et ne contenir néanmoins que du « bruit », c’est-à-dire de
l’information non pertinente voire trompeuse pour leur interprétation. Pour cette raison, le critère
de Kaiser est généralement couplé au scree-test de Cattell, plus conservateur.

b. Le scree-test
Un graphique représentant les valeurs propres des composantes principales, dans l’ordre du
tableau, suggère une paroi de falaise, de profil, avec, à son pied, des éboulis. On retient les valeurs
propres se situant au-dessus des « éboulis », c’est-à-dire d’une éventuelle rupture de pente.
Contrairement à ce que son nom suggère, ce n’est pas un test statistique au sens du chapitre 12.
Lorsque les deux critères convergent, on retient la solution proposée sans plus de réflexion.
Lorsque ce n’est pas le cas, on retient généralement le plus petit nombre de composantes proposé,
sous réserve que celles-ci soient alors clairement interprétables à partir des variables qui leur sont
reliées.

Exemple (suite)
\/|
$|
Le critère de Kaiser suggère de retenir deux composantes principales (figure 14.13.).
4$

Cette solution semble assez robuste car il y a un écart très important entre la seconde
et la troisième valeur propre. Elle est corroborée par le scree-test (figure 14.14.) qui
By

montre une rupture de pente claire à la troisième composante. On retient celles qui se
trouvent immédiatement au-dessus, donc les deux premières.

4. Étape 4 : interprétation des composantes principales


Elle se fait au moyen des corrélations entre les variables de départ et les composantes retenues
(loadings en anglais) (figure 14-15.). Plus elle est élevée (indépendamment de son signe), plus la
variable contribue à l’interprétation du facteur. Par construction, toutes les variables sont corrélées
à toutes les composantes (y compris celles non retenues). C’est la différence entre les loadings sur
une même composante qui sert à l’interprétation, plus que la valeur des loadings dans l’absolu.
Figure 14.14. Graphique des variances des composantes (scree-test)

\/|
Figure 14.15. Corrélations (loadings) entre les variables et les composantes
$|
4$

Composante
By

1 2
Lieu que j’ai envie de partager avec d’autres 0,490 0,619
Lieu où l’on accueille l’autre 0,635 0,559
Lieu rassurant 0,790 – 0,273
Lieu où je me sens en sécurité 0,795 – 0,330
Lieu où je me sens protégé 0,787 – 0,389
Lieu où je ne me sens pas agressé 0,742 – 0,323
Lieu où les autres aiment venir 0,526 0,695
Exemple (suite)
Les composantes ne peuvent pas être clairement interprétées. Les quatre premières
variables sont plus fortement corrélées à la première composante qu’à la seconde. On
peut penser que la première composante est liée à l’idée de sécurité. Les trois autres
variables sont assez fortement corrélées aux deux composantes et le sont davantage sur
la seconde composante que les quatre premières. Cette seconde composante serait
donc liée à l’idée d’accueil et de partage.

Lorsque l’on se trouve face à la situation de la figure 14.15, assez fréquente, l’interprétation des
composantes est délicate. La composante no 1 est un « facteur général » auquel toutes les variables
sont bien corrélées. On peut alors avoir recours à une sorte d’artifice, que la figure 14.16. illustre.
Le premier graphique donne la même information que le tableau de la figure 14.15. De fait les sept
variables ne peuvent pas être très clairement distinguées sur la composante no 1. Appliquer un jeu
de coefficients habilement choisis aux loadings revient à faire pivoter le système d’axes de manière
à le rapprocher des variables qui, elles, ne bougent pas. Cette manipulation s’appelle une rotation.
Le second graphique, élaboré après cette manipulation et recalcul des coordonnées des variables
sur les axes, montre une situation plus claire : trois variables sont liées à la composante no 2
\/|
(coordonnées proches de 0,7-0,8) et très peu à la composante no 1 (coordonnées proches de 0,1-
0,2). Pour les quatre autres variables, c’est le contraire. Le tableau des loadings calculés après
$|

rotation le confirme (figure 14.17.).


4$

Figure 14.16. Graphique des corrélations entre les variables et les composantes
By
Figure 14.17. Corrélations (loadings) entre les variables et les composantes après rotation orthogonale

Composante
1 2
Lieu que j’ai envie de partager avec d’autres 0,089 0,784
Lieu où l’on accueille l’autre 0,243 0,811
Lieu rassurant 0,815 0,186
Lieu où je me sens en sécurité 0,850 0,140
Lieu où je me sens protégé 0,874 0,087
Lieu où je ne me sens pas agressé 0,801 0,118
Lieu où les autres aiment venir 0,079 0,868

Exemple
La composante no 1 renvoie à l’idée d’un « chez soi » sécurisant et protecteur. La
composante no 2 est maintenant clairement liée à un « chez soi » hospitalier, lieu de
\/|
partage avec « l’autre ».
$|
4$

Il existe plusieurs algorithmes de rotation. Certains conservent la non-corrélation entre les


composantes. Elle se traduit ici par des axes à angle droit dans les graphiques. On parle dans ce cas
By

de rotation orthogonale. La procédure la plus employée s’appelle Varimax. Le jeu de coefficients


est choisi par itérations de manière à maximiser les écarts entre loadings sur une composante
donnée, et rendre ainsi plus simple son interprétation.
Lorsque l’on a de bonnes raisons de penser que les composantes peuvent être corrélées (lorsqu’il
s’agit de facteurs liés par une théorie, par exemple), on peut opter pour une rotation oblique. Dans
ce cas, les algorithmes Oblimin ou Promax sont généralement recommandés.
Exemple (suite)
Il semble raisonnable de penser qu’un « chez soi » ne pourra être partagé avec l’autre
que si l’on s’y sent aussi en sécurité. Les deux facteurs ne semblent donc pas
indépendants et une rotation oblique paraît pertinente. La figure 14.18. en donne les
loadings.
Figure 14.18. Corrélations (loadings) entre les variables et les composantes après rotation oblique

Composante
1 2
Lieu où je me sens protégé 0,892 – 0,052
Lieu où je me sens en sécurité 0,859 0,008
Lieu rassurant 0,815 0,061
Lieu où je ne me sens pas agressé 0,811 – 0,007
Lieu où les autres aiment venir – 0,057 0,887
Lieu où l’on accueille l’autre \/| 0,123 0,801
Lieu que j’ai envie de partager avec
– 0,033 0,799
$|
d’autres
4$
By

La solution retenue est tout aussi clairement interprétable que la précédente. La corrélation entre les
deux composantes est égale à 0,303. Ce n’est pas très élevé mais pas totalement négligeable non
plus.
Pour une vérification complémentaire de la qualité de l’interprétation, on examine les
« communautés » (communality en anglais) des variables. C’est la part de variance des variables
initiales restituée par les composantes retenues (voir figure 14.19.). Une communauté élevée
signifie que l’information contenue dans la variable se retrouve dans la solution retenue et contribue
à son interprétation. À l’inverse, une communauté faible signifie qu’une bonne part de l’information
de cette variable a été perdue :
– soit la variable partageait peu d’information avec les autres. Dans ce cas, il est logique que les
composantes, qui sont à l’origine de cette information commune, ne lui soient pas reliées. Éliminer
cette variable est la solution recommandée ;
– soit la variable partageait de l’information avec les autres. Dans ce cas, il est probable qu’elle
est liée à une composante qui n’a pas été retenue. Il faut retourner à l’étape 3 pour réexaminer le
choix effectué.
La communauté est assimilable à un R2, comme en analyse de régression. Lorsque les composantes
sont orthogonales (avant rotation, ou après une rotation orthogonale), la communauté d’une variable
est la somme des r2 partiels liés à chacun des facteurs retenus. Un loading étant assimilable à une
corrélation, il suffit d’élever cette corrélation au carré pour obtenir ce R2 partiel. Si l’on retient
toutes les composantes possibles, la communauté est par construction égale à 1. Ce principe ne
fonctionne pas avec les rotations obliques. La figure 14.19. illustre ce point et montre ensuite le
tableau des communautés pour l’exemple du « chez-soi ».

Exemple
Figure 14.19. Communautés entre les variables et les composantes

Loadings avant rotation


1 2 3 4 5 6 7
Lieu que j’ai envie
de partager avec 0,490 0,619 0,522 0,302 – 0,012 – 0,107 0,044
d’autres

On constate que si l’on retient les sept composantes, la somme des communautés partielles est égale
\/|
à1:
$|
4$
By

Même chose pour les loadings obtenus après rotation orthogonale :


Figure 14.19. bis. Communautés entre les variables et les composantes après rotation orthogonale

Loadings avant rotation


1 2 3 4 5 6 7
Lieu que j’ai envie de
0,029 0,948 0,226 0,064 0,082 0,193 0,039
partager avec d’autres

Et :

Le tableau des communautés pour la solution à deux facteurs retenues dans l’exemple est :
Figure 14.19. ter. Communautés entre les variables et les deux composantes retenues

Initial Extraction
Lieu que j’ai envie de partager avec d’autres 1,000 0,623
Lieu où l’on accueille l’autre 1,000 0,717
Lieu rassurant 1,000 0,698
Lieu où je me sens en sécurité 1,000 0,741
Lieu où je me sens protégé 1,000 0,771
Lieu où je ne me sens pas agressé 1,000 0,655
Lieu où les autres aiment venir 1,000 0,760

Où l’on vérifie aisément, après rotation orthogonale, que :

Et, après rotation oblique, que :


\/|
$|
4$

Toutes les communautés sont fortes, montrant que les deux composantes sont largement suffisantes
pour synthétiser la « réalité » contenue dans les données de départ. Il n’existe pas de norme
permettant de décider objectivement quelle valeur de communauté est « suffisante ». En pratique, on
By

la considère comme acceptable dès qu’elle dépasse 0,5. Plus l’on se rapproche de 1, mieux c’est.
Au final, cette analyse en composantes principales nous aura fait passer d’un ensemble de sept
variables à deux composantes en ne perdant que 29,1 % de l’information de départ. Ces deux
composantes montrent que le « chez soi » s’articule autour des notions de sécurité et d’hospitalité.
Elles vont pouvoir être utilisées dans d’autres analyses.

5. Étape 5 : visualisation des individus sur les composantes principales


On peut en effet calculer les coordonnées des individus sur les composantes. Par construction, ces
dernières ont une moyenne égale à 0. Leur variance est leur valeur propre. Leur étendue est
variable, mais les scores des individus s’étalent généralement entre – 2 et – 4 pour les minima et
+ 2 et + 4 pour les maxima. Elles sont sans unité de mesure, ce qui les rend directement
comparables les unes aux autres.
Exemple (suite)
La figure 14.20. montre que les répondants se répartissent de façon à peu près
équilibrée en nombre sur la composante de sécurité, avec autant d’individus de part et
d’autre de 0, mais avec des scores plus marqués du côté négatif. La répartition est
moins équilibrée sur la composante d’hospitalité, avec davantage de répondants ayant
un score positif. L’assimilation du chez soi à un lieu sécurisé et sécurisant peut donner
lieu à des réactions tranchées lorsqu’elles sont négatives. Par contre, le chez soi
comme lieu d’accueil de l’autre et de partage semble plus consensuel.
Figure 14.20. Coordonnées des individus sur les composantes

\/|
$|
4$
By

III. Analyse des correspondances

A. Objectifs et principes
L’objectif général de l’analyse des correspondances (AC) est identique à celui de l’ACP : identifier
un petit nombre de dimensions cachées pour simplifier et interpréter un ensemble complexe de
données. Elle fonctionne à partir de variables nominales, ce qui est son intérêt majeur.
Les données d’entrée pour une AC sont des tableaux de contingence. Elle complète utilement les
tris croisés et les tests du χ2, lorsque les deux variables ont chacune un grand nombre de modalités.
Dans ce cas, il est difficile d’évaluer l’importance et l’influence respective de ces dernières. Une
AC rend cette interprétation plus facile. La méthode n’a pas d’exigence sur la nature de
l’association entre les deux variables, ce qui est un autre avantage.

B. Interprétation et sens de l’analyse


L’AC projette individus et variables sur les mêmes axes, d’où le terme « correspondances ». En
pratique, elle revient à faire une double ACP : l’une sur les lignes du tableau, l’autre sur ses
colonnes. On interprète donc deux ensembles de résultats, nommés « profils », l’un sur les lignes,
l’autre sur les colonnes. Cela rend l’interprétation moins facile qu’en ACP et constitue l’un des
inconvénients de la méthode.

Exemple
Comment interpréter le lien, s’il existe, entre la PCS (professions et catégories
socioprofessionnelles) et le budget annuel consacré aux vacances ? Une enquête a été
menée auprès de 301 répondants représentatifs de la population française sur trois
quotas croisés : sexe, âge et PCS. Pour simplifier, les deux variables ont été recodées
en cinq modalités pour la PCS et trois pour le budget. Le tri croisé est donné dans la
figure 14.21.
Figure 14.21. Dépenses pour les vacances selon la PCS

Budget annuel consacré aux vacances


PCS 1 001 à \/|
0 à 1 000 2 001 et + Total ligne
2 000
$|

PCS + 23 26 55 104
4$

PCS – 46 34 24 104
By

Étudiant 14 3 1 18
Retraité 16 17 17 50
Autre inactif 9 6 10 25
Total colonne 108 86 107 301

La modalité PCS+ regroupe les classes 2, 3 et 4 de l’Insee (commerçants, artisans, chefs


d’entreprises, professions supérieures, profession intermédiaires). La modalité PCS – regroupe les
classes 1, 5 et 6 (agriculteurs, employés, ouvriers). Les montants de la variable budget sont
indiqués en euros.
Avant d’interpréter la relation entre les deux variables, on vérifie qu’elles ne sont pas
indépendantes dans la population. Pour cela, on effectue un test de contingence du χ2, selon la
procédure décrite au chapitre 12. La valeur calculée de la statistique du test est χ2calculé = 37,274.
Pour un tableau à (5 – 1)(3 – 1) = 8 degrés de libertés, la valeur critique du test au seuil α = 0,05
est χ2tabulé = 15,5 χ2tabulé = 15,5 (table 4 téléchargeable). La valeur calculée étant supérieure à la
valeur critique, l’hypothèse nulle (indépendance) du test peut être rejetée avec un risque d’erreur
inférieur à 5 %. On en conclut que les deux variables sont bien en relation dans la population,
autrement dit que le budget consacré aux vacances dépend de la PCS. Il s’agit maintenant
d’analyser le tableau.

1. Étape 1 : analyse du tableau de contingence


Pour analyser le sens de la relation entre les deux variables, on compare les pourcentages en lignes
et en colonnes par rapport aux pourcentages totaux (on dit aussi « marginaux ») qui leur
correspondent. Ces derniers peuvent être assimilés à une sorte de répartition « moyenne » dans la
population, abstraction faite de l’autre variable.

Exemple (suite)
La figure 14.21. a été complétée (figure 14.21 bis.). Chaque case du tableau contient
trois chiffres : le premier (en partant du haut) représente l’effectif. Dans la première
case, par exemple, 23 individus sont de PCS supérieure ET dépensent annuellement
1 000 euros ou moins pour leurs vacances. Le chiffre entre parenthèses à côté de
l’effectif correspond au pourcentage que représente ce dernier par rapport au total de
la ligne : 23 est égal à 22,1 % de 104. Le chiffre entre parenthèses au-dessous de
l’effectif correspond au pourcentage que représente ce dernier par rapport au total de
la colonne : 23 est égal à 21,3 % de 108. \/|
$|
Figure 14.21. bis. Dépenses pour les vacances selon la PCS
4$

Budget annuel consacré aux vacances


By

PCS 1 001 à
0 à 1 000 2 001 et + Total ligne
2 000
23 (0,221) 26 (0,250) 55 (0,529) 104
PCS +
(0,213) (0,302) (0,514) (0,346)
46 (0,442) 34 (0,327) 24 (0,231) 104
PCS –
(0,426) (0,395) (0,224) (0,346)
14 (0,778) 3 (0,167) 1 (0,056) 18
Étudiant
(0,130) (0,035) (0,009) (0,060)
16 (0,320) 17 (0,340) 17 (0,340) 50
Retraité
(0,148) (0,198) (0,159) (0,166)
9 (0,360) 6 (0,240) 10 (0,400) 25
Autre inactif
(0,083) (0,070) (0,094) (0,083)
Total colonne 108 (0,359) 86 (0,286) 107 (0,356) 301

L’interprétation nécessite un peu de rigueur mais reste relativement simple. Par exemple, 22,1 %
des PCS + dépensent 1 000 euros ou moins, alors que cette dernière catégorie représente 35,9 % de
l’échantillon. Les PCS + sont donc sous-représentés dans la classe de dépense [0 ; 1 000]. De
même, les PCS + représentent 34,6 % de l’échantillon et parmi ceux qui dépensent 1 000 euros ou
moins pour leurs vacances, on trouve 21,3 % de PCS +. La classe de dépenses [0 ; 1 000] est donc
également sous-représentée chez les PCS +.
Le raisonnement se poursuit de la même manière pour toutes les autres lignes et colonnes. On peut
alors tenter de déceler une tendance dans les liens entre les modalités des deux variables, ce qui
devient vite fastidieux si le tableau est grand. L’analyse des correspondances va analyser de
manière systématique la contribution relative de chaque modalité, en ligne comme en colonne, aux
écarts constatés par rapport aux distributions marginales. Elle en propose une visualisation
graphique.

2. Étape 2 : représentation graphique


Il s’agit de superposer les modalités des deux variables sur des axes. Ceux-ci représentent les
dimensions au sens des composantes principales de l’ACP. Si l et c sont respectivement le nombre
de lignes et de colonnes (hors totaux) du tableau, le nombre total de dimensions est égal à :
min (l, c) – 1

Exemple \/|
Dans notre exemple, la variable « PCS » a 5 modalités et la variable « budget » en a
$|

3 : donc le nombre de dimensions est égal à : (3 – 1) = 2.


4$
By

Comme pour l’ACP, chaque dimension contribue à une part décroissante de l’information initiale.
La nature nominale des variables ne permet plus de calculer la variance. On utilise une notion
proche, nommée inertie. Le choix du nombre de dimensions pertinentes est du ressort de l’analyste.
Exemple
La figure 14.22. montre que la contribution de la seconde dimension est totalement
marginale. La représentation dans un plan étant néanmoins plus lisible, il ne faudra pas
perdre de vue ce résultat dans l’interprétation.
Figure 14.22. Inertie des dimensions

Proportion d’inertie
Dimension Valeur
Inertie Expliqué Cumulé
singulière
1 0,334 0,112 0,901 0,901
2 0,111 0,012 0,099 1,000
Total 0,124 1,000 1,000

La représentation graphique met « en correspondance » les liens éventuels entre les modalités des
\/|
deux variables étudiées. La dimension horizontale est, par convention, celle qui représente le plus
$|
d’information (voir figure 14.23.).
4$
By
Rappel
Les deux variables doivent être interprétées séparément. La proximité des modalités
des deux variables n’est pas interprétable car les deux plans sont simplement
superposés. Une interprétation « commune » peut néanmoins être réalisée lorsque le
nombre de dimensions est limité à 2 comme ici. Cela reste toutefois une exception.
La distance entre « PCS + » et « étudiants » contribue clairement à l’essentiel de
l’inertie de la dimension 1. Leurs comportements sont opposés. On note, par contre,
une grande proximité, sur cette dimension (par projection sur l’axe), entre les
« retraités » et les « autres inactifs ». Leurs comportements sont comparables.
L’autre variable va moins contribuer à cette dimension, car l’écart entre les deux
modalités les plus éloignées (« 2 001 et + » et « 0 à 1 000 ») est moins marqué. Même
remarque pour la dimension 2 pour laquelle l’écart entre « étudiants » et « retraités »
est plus grand qu’entre « 0 à 1 000 » et « 1 001 à 2000 ». Les trois modalités de la
variable « budget » sont très éloignées les unes des autres, sur les deux dimensions.
Elles servent donc peu à l’interprétation globale du phénomène.
On voit que les projections des couples (« PCS + » ; « 2 001 et + »), (« retraité » ;
« 1 001 à 2 000 ») et, à un moindre degré, (« PCS – ; « 0 à 1 000 ») sont très proches,
\/|
et ce sur les deux dimensions. Comme il n’y a que deux dimensions, on peut en inférer
que ces modalités sont proches dans l’espace. Autrement dit, les classes de dépenses
$|

indiquées caractérisent bien le comportement des PCS correspondantes.


4$

Figure 14.23. Représentation géométrique d’une AFC


By

3. Étape 3 : interprétation algébrique


Deux types d’indicateurs facilitent cette interprétation. On parle de contribution absolue et de
contribution relative. Ces notions sont proches, respectivement, des loadings et des communautés
de l’ACP.
La contribution absolue représente la part de chaque modalité dans l’inertie des axes. Plus elle est
élevée, plus elle contribue à la dimension (voir figure 14.24.).
La contribution relative est la qualité de la représentation d’une modalité sur un facteur. C’est la
capacité de la dimension à expliquer l’inertie (l’information) d’une variable.

\/|
$|
4$
By
Exemple
Le premier tableau représente les « points ligne » (« PCS ») et le second les « points
colonne » (« budget »).
Figure 14.24. Contribution des variables « PCS » et « Budget »

\/|
$|
4$
By

Pour la variable « PCS », on voit que les modalités « PCS + » et « étudiant » sont les
plus fortes contributrices à la dimension 1. Les autres modalités ont une contribution
faible (PCS –) ou totalement marginale. La modalité « étudiant » contribue fortement à
la dimension 2. Comme le poids de celle-ci est négligeable, il n’y a pas lieu d’en
interpréter la signification. À l’inverse, la dimension 1 contribue fortement aux
modalités PCS +, PCS – et « étudiant ». La dimension 2 contribue aux modalités
« retraité » et « autre inactif ».
Pour la variable « budget », ce sont les modalités 0 à 1 000 et 2 001 et plus qui
contribuent le plus à la dimension 1. La modalité 1 001 à 2 000 contribue plutôt à la
dimension 2. Les contributions relatives suivent le même schéma.
Synthèse. Une opposition entre PCS + et « étudiants » peut être décelée. Les premiers
se caractérisent par les budgets les plus élevés, les seconds par les budgets les plus
faibles. Les PCS – et les retraités sont moins bien pris en compte par l’analyse, ce qui
est a priori signe de situations plus hétérogènes en matière de dépenses. Ils se
rapprochent néanmoins des budgets intermédiaires.
C. Applications et prolongements
Dans les études de marché, les applications les plus courantes de l’AC concernent la segmentation
et l’évaluation d’image de marque.

Exemple
Les images de marques de dentifrice ont été analysées par une AFC, à partir d’un
tableau croisant 25 attributs relatifs à 12 marques de dentifrices(330). La représentation
graphique relie les marques à leurs « paniers » d’attributs respectifs. On peut
assimiler ceci à une démarche de segmentation par avantages recherchés. Ce type
d’application de l’AFC est assez courant(331).

L’AC classique ne traite que deux variables simultanément ; l’AC multiple (ACM) est une extension
possible pour des données catégorielles multiples, présentées sous forme de tableau de Burt. Le
principe de base est de transformer ce tableau pour en faire une juxtaposition de tableaux de
contingence et de procéder ensuite à une AFC simple. On obtient des représentations simultanées de
toutes les modalités de tous les caractères. L’interprétation est identique à celle d’une AC, à une
différence près : le nombre de variables multiplie les modalités reproduites sur les graphiques et
\/|
rend ceux-ci plus délicats à interpréter(332).
$|
4$

IV. Analyse typologique


By

A. Objectifs et principes fondamentaux


Lorsque l’on poursuit un objectif de classification (d’individus, d’entreprises, de marques...), deux
familles d’outils sont à disposition :
– l’une consiste à partir d’un critère de découpage des individus en groupes homogènes.
Généralement, il s’agit d’une variable de comportement (e.g. acheteurs ou non-acheteurs d’une
marque, volume de quantités achetées, ancienneté de la relation à la marque, etc.). L’analyse
consiste ensuite à rechercher quelles caractéristiques des acheteurs distinguent ces groupes ainsi
identifiés ;
– l’autre sélectionne des caractéristiques des individus et constitue, par regroupement, des
groupes homogènes à partir de ces caractéristiques.
La première a une visée explicative. Plusieurs méthodes peuvent être utilisées : l’analyse
discriminante, différentes formes de régression notamment logistique, des modèles de régression
sur classes latentes, des arbres de classification et de régression (CART) et les méthodes de type
AID (Automatic Interaction Detection), dont la variante CHAID (Chi-squared Automatic Interaction
Detection) basée sur le χ2 est la plus connue(333).
La seconde a une portée uniquement descriptive et sera présentée en détail ci-après. Outre
l’objectif de regroupement des individus, cette approche repose sur une double contrainte :
– les individus appartenant à un même groupe doivent se ressembler le plus possible ;
– les groupes doivent être les plus différents possible les uns des autres.
Lorsque l’on se situe dans ce type d’approche, on parle d’analyse typologique. Les méthodes
d’analyse typologique sont fondées sur des distances entre individus, qu’il s’agisse de personnes,
de marques, de produits, de pays... Les données d’entrée se présentent sous la forme d’un tableau
de distances, le choix de la méthode de calcul de ces dernières faisant partie intégrante de
l’analyse. Ces méthodes sont elles-mêmes très nombreuses.
Historiquement, l’analyse typologique a été développée pour des variables métriques, mais des
calculs de distances ont ensuite été mis au point pour tous les types de données (notamment
nominales). La fiche technique 14.3. en présente quelques exemples.

Exemple
Rappel : les données sont fictives.
On reprend le tableau de données de la figure 14.5.
\/|
Attrait pour le
$|
Individus Âge
4$

risque
Alain 60 4
By

Bernard 48 5
Camille 19 3
David 28 2
Élise 37 4

La représentation graphique en nuage de points de ces deux variables est simple. Deux groupes
d’individus distincts cohabitent :
B. Étapes de l’analyse \/|
Les différentes étapes sont résumées dans la figure 14.25.
$|
4$

Figure 14.25. Étapes d’une analyse typologique


By

1. Étape 1 : choix des critères de classification


Ce choix dépend de l’objectif d’étude et d’une forte présupposition d’hétérogénéité entre les
individus pour ces critères : les variables à faible variance sont à éviter.
Exemple
Pour mettre en évidence des groupes de clients dont les comportements d’achat sont
homogènes, on considérera les quantités achetées, les lieux d’achat, le type et les
marques de produits achetés...

Plus le nombre de critères de classification augmente, plus les calculs sont gourmands en capacités
de traitement et plus l’identification et l’interprétation des groupes sont délicates. De ce point de
vue, trois à quatre critères semblent être un maximum sauf si l’on dispose d’échantillons de très
grande taille (plusieurs dizaines de milliers d’individus). On ne retient ainsi que les critères
importants par rapport à ce que l’on cherche à montrer.
L’utilisation de variables de synthèse, telles que des composantes principales résultant d’une ACP
(i.e. scores factoriels) ou les sommes de scores sur des échelles, peut se révéler, de ce point de
vue, très intéressante.
Pour garantir la meilleure séparation possible des groupes, il est important que les critères de
classification soient indépendants les uns des autres (i.e. non corrélés). De ce point de vue, l’intérêt
des scores factoriels est majeur, sous réserve qu'ils aient été calculés avant rotation ou après une
rotation orthogonale. \/|
$|

Exemple
4$

Une typologie visant à identifier des individus ayant une perception commune du
By

« chez soi » pourrait être construite à partir des deux composantes principales
identifiées plus haut au lieu des sept variables de départ.

2. Étape 2 : calcul d’une distance


Il existe un grand nombre de mesures de distances, selon la nature des variables ; la fiche
technique 14.3. présente les plus simples d’entre elles.

Fiche technique 14.3. Mesures d’une distance


1 – Variables métriques
La mesure la plus connue est la distance euclidienne. Cette distance est donnée par la formule :

avec : dij = distance entre les individus i et j,


p = nombre de variables,
xik = valeur prise par l’individu i sur la variable k,
xjk = valeur prise par l’individu j sur la variable k.
Cette distance correspond au carré de l’hypoténuse d’un triangle rectangle (théorème de Pythagore). Très
souvent, on ne tient pas compte de la racine carrée, car cela ne change rien aux distances relatives entre objets.
On utilise donc la distance euclidienne au carré d2ij.
En revanche, l’élévation au carré, nécessaire pour éviter les problèmes de signe, pose problème. Les variables
dont la variance est importante seront privilégiées dans le calcul. De même, des unités de mesure hétérogènes
faussent l’estimation des distances. Par conséquent, il est préférable d’utiliser des variables préalablement
centrées et réduites.
Calculons, à titre d’exemple, la distance entre Alain et Bernard :

Attrait pour
Âge
Attrait pour le risque
Individus Âge (centrée-
le risque (centrée-
réduite)
réduite)
Alain 60 1,336 4 0,351
Bernard 48 0,594 5 1,228
Camille 19 – 1,200 3 – 0,526
David 28 – 0,643 2 – 1,404
Élise 37 – 0,087 4 0,351
\/|
Moyenne 38,4 3,6
$|

Écart-type 16,17 1,14


4$

Rappel : centrer et réduire une variable revient à créer une nouvelle variable par
By

transformation des observations sur le modèle suivant :

Pour l’âge d’Alain, cela donne :

La distance entre Alain et Bernard est :

Dans ce total, la variable âge compte pour 144 et l’autre pour 1, alors qu’au départ la
différence entre les deux individus sur chacune des variables est exactement du même ordre
(20 %).
Avec les valeurs centrées-réduites, on a :
d2ij = (1,336 – 0,594)2 + (0,351 – 1,228)2 = 1,320
La variable âge compte maintenant pour 0,551 et l’autre pour 0,769. On voit bien que l’écart
entre les individus est plus important, dans l’absolu, sur cette dernière.
2 – Variables nominales
Dans ce contexte, la notion de distance n’a plus réellement de signification : on parle plutôt
d’indice de (dis)similarité. On considère que plus deux individus partagent des attributs
communs, plus ils sont similaires. Le calcul de ces indices se fait à partir du tableau de Burt.
Le plus courant est l’indice de Jaccard :

avec :
sij = similarité entre les individus i et j,
a = nombre de paires de modalités communes,
c = nombre de paires de modalités différentes.
Considérons par exemple le tableau de données présenté à la fin de cette fiche technique :
L’indice de Jaccard pour les individus 1 et 2 donne :
\/|
$|
4$

En effet, il y a une paire de modalités communes (âge entre 15 et 35 ans) et quatre paires de
modalités différentes. On ne compte pas, dans cet indice, les paires de modalités indiquant des
By

attributs non possédés [couples (0, 0)].


Selon le même principe de calcul, on a s1a = 0,2 et s2a = 0.
Les indices de ce type ne sont pas sans inconvénients. Ils tiennent compte du nombre de paires
de modalités communes et pas de la nature des modalités. L’exemple ci-dessus montre que
l’individu 1 est à « distance » égale des individus 2 et 3, parce qu’il partage une modalité
commune avec chacun des deux. Pourtant, la modalité n’appartient pas à la même variable.
Dans ce cas, une alternative intéressante peut être d’utiliser les coordonnées des individus sur
les axes produits par une ACM. Ces « nouvelles » variables offrent en effet l’avantage d’être
métriques et centrées-réduites.
3. Étape 3 : choix de l’algorithme de classification
Chaque groupe doit contenir des individus se ressemblant le plus possible à l’intérieur, et
présentant le plus de différences possible par rapport aux groupes restants. Il existe deux approches
pour procéder à cette opération :
a. Méthodes hiérarchiques
Elles sont ascendantes ou descendantes. Les premières, les plus fréquentes, procèdent par
agglomération. Elles sont illustrées ci-après. Les secondes fonctionnent exactement à l’inverse.
Le départ et l’arrivée sont les mêmes pour toutes les méthodes : on démarre dans une situation où
chaque individu constitue un groupe à lui seul et on aboutit à un seul groupe contenant l’ensemble
des individus. La procédure comporte donc une étape de moins qu’il n’y a d’individus. L’étape
initiale forme le premier groupe avec les deux individus pour lesquels la distance est la plus faible.
À partir de là, plusieurs manières de procéder coexistent. L’une des plus courantes peut être
qualifiée de méthode du « voisin moyen ». Elle consiste à ajouter un individu à un groupe sur la
base de la moyenne des distances entre cet individu et ceux constituant le groupe. S’il existe déjà
plusieurs groupes, on considère la plus petite de ces distances moyennes. La méthode est illustrée
ci-dessous.
\/|
Exemple
$|

La matrice des distances euclidiennes au carré entre nos cinq individus est (après
4$

centrage et réduction des variables) :


By

Alain Bernard Camille David Élise


Alain 0
Bernard 1,320 0
Camille 7,202 6,295 0
David 6,996 8,454 1,079 0
Élise 2,024 1,232 2,009 3,387 0

Étape 0 : [Alain] ; [Bernard] ; [Camille] ; [David] ; [Élise].


Étape 1 : on cherche la plus petite des distances entre les individus. Elle est de 1,079 pour le
couple (Camille ; David). On a donc une solution à quatre groupes :
[Alain] ; [Bernard] ; [Camille, David] ; [Élise].
Étape 2 : la plus petite distance suivante est 1,232 pour le couple (Bernard, Élise). Les deux autres
regroupements individuels possibles se feraient à des distances plus grandes [(Alain,
Bernard) = 1,320 ; (Alain, Élise) = 2,024]. Il reste à examiner les distances auxquelles seraient
affectés Alain, Bernard ou Élise au groupe déjà constitué. Alain serait adjoint à (Camille, David)

sur la base de . Avec le même principe de calcul, Bernard est à une


distance moyenne de (Camille, David) égale à 7,375 et Élise est à une distance moyenne de 2,698.
C’est bien le regroupement (Bernard, Élise) qui se fait sur la plus petite distance et l’on obtient une
solution à trois groupes :
[Camille, David] ; [Bernard, Élise] ; [Alain].
Étape 3 : il reste trois solutions : affecter Alain à l’un des deux groupes ou regrouper Camille,
David, Bernard et Élise en laissant Alain seul. On calcule les distances moyennes pour ces trois
solutions :
(Alain) – (Camille, David) = 7,099
(Alain) – (Bernard, Élise) = (1,320 + 2,024)/2 =1,672
(Camille, David) – (Bernard, Élise) = (6,295 + 2,009 + 8,454 + 3,387)/4 = 5,036
La plus petite des distances étant 1,672, la solution suivante, à deux groupes, sera donc :
[Alain, Bernard, Élise] ; [Camille, David]
Étape 4 : solution à un groupe ; regroupement sur la base de la moyenne des dix distances = 4 :
[Alain, Bernard, Camille, David, Élise].
\/|
Plusieurs algorithmes de ce type existent. L’un des plus connus et utilisés avec celui du voisin
$|
moyen est l’algorithme de Ward. Il a pour caractéristique de ne pas calculer de distances entre les
4$

groupes. L’algorithme de Ward constitue les groupes à partir d’un critère de minimisation de
l’inertie intraclasse(334). Il vise à l’homogénéité maximale au sein des groupes et aboutit à des
By

groupes compacts et de taille comparable. L’algorithme de Ward est réputé « optimal » lorsque les
distances sont euclidiennes et que des scores factoriels sont utilisés comme variables de
classification(335).

b. Méthodes non hiérarchiques


Également appelées « nodales », ces méthodes choisissent a priori des individus « types » qui
serviront de « cibles » au regroupement des autres individus. On fixe un nombre de groupes,
représentés chacun par un individu « type », et l’ensemble des autres individus est affecté à ces
groupes selon des critères, variables en fonction des méthodes, mais qui visent tous à minimiser
l’inertie intraclasse (i.e. la variance dans les groupes) et à maximiser l’inertie interclasses (i.e.
la variance entre les groupes).
– Méthode K-means. On spécifie initialement k groupes et k points (i.e. individus) de départ. La
première étape affecte chaque individu à l’un de ces points de départ, en fonction de leur proximité.
Le centroïde [i.e. point « moyen » (ou encore centre de gravité)] de chaque groupe est ensuite
calculé et les individus sont éventuellement réaffectés à celui dont ils sont devenus les plus
proches. Cette seconde phase est répétée jusqu’à ce qu’il n’y ait plus de réaffectation.
– Nuées dynamiques. Cette méthode généralise la précédente : l’algorithme démarre sur k
« noyaux » au lieu de k points(336). Un noyau est un ensemble d’individus qui, s’ils sont bien choisis,
sont plus représentatifs d’un groupe que son centroïde, toujours plus ou moins artificiel. Les autres
phases sont similaires à la méthode K-means, à la différence près que l’on identifie un nouveau
« noyau » au lieu de recalculer le centroïde.
Les algorithmes non hiérarchiques sont, de manière générale, beaucoup moins gourmands en temps
et en capacités de calcul que leurs équivalents hiérarchiques. Ils représentent donc une alternative
intéressante lorsque l’on travaille sur de gros échantillons (plusieurs dizaines de milliers
d’individus) et que l’on a une idée a priori du nombre de groupes à obtenir. Si tel n’est pas le cas,
l’interprétation de la typologie est délicate. Une solution est d’essayer plusieurs partitions (i.e.
plusieurs k différents), mais le gain en temps de traitement disparaît rapidement. Une autre solution
est d’utiliser un algorithme hiérarchique sur une petite partie de l’échantillon, sélectionnée
aléatoirement, et d’utiliser la solution identifiée comme point de départ à, par exemple, un
algorithme K-means sur la totalité de l’échantillon.

4. Étape 4 : choix du nombre de groupes


Cette phase ne concerne que les algorithmes hiérarchiques. Rappelons, en effet, que le processus
démarre de n groupes, autant que d’individus, et aboutit à un groupe, contenant les n individus.
Comme cette dernière solution n’a aucun intérêt, il s’agit de décider du nombre de groupes à
retenir. Pour cela, on s’appuie sur les « sauts » dans les distances d’agglomération des individus
aux groupes (appelées également distances de fusion). \/|
$|
Exemple
4$

Les quatre étapes ci-dessus peuvent être synthétisées par le tableau suivant :
By

Figure 14.26. Chaîne de construction des groupes

Ce tableau reprend les différentes étapes détaillées ci-dessus. À l’étape 1, Camille et


David sont regroupés sur la base d’une distance de 1,079. Cette classe n’est encore
jamais apparue (0 : 0) et on la reverra à l’étape 4. À l’étape 2, Bernard et Élise sont
regroupés sur la base d’une distance de 1,232. Cette classe n’était jamais apparue non
plus, et on va la revoir à l’étape suivante. Étape 3 : Alain (1) est adjoint à ce groupe,
repéré par 2, à une distance de 1,672. Ce groupe a été constitué à l’étape 2 et va être
de nouveau impliqué à l’étape 4. Étape 4 : les groupes repérés par 1 (1, 2, 5) et par 3
(3, 4) sont fusionnés à une distance de 5,724.
Avec une solution à deux groupes, les distances d’agglomération sont relativement
homogènes et faibles, contre 5,724 pour passer à une solution à un groupe. Il y a un
« saut » important dans la distance d’agglomération. On retient la solution précédant
ce saut, c’est-à-dire deux groupes. Certains logiciels fournissent une aide visuelle à la
décision. L’un de ces outils est inspiré du scree-test de Cattell vu avec l’ACP.
On voit que pour passer de l’étape 3 à l’étape 4 il y a une rupture de pente très nette.
On retient la solution qui précède cette rupture. C’est celle de l’étape 3, c’est-à-dire
une solution à deux groupes.

\/|
$|
4$

Le dendrogramme est un autre outil :


By
Il relie les individus les uns aux autres sur la base des distances de fusion. Celles-ci
ont été transformées de manière à mieux faire apparaître la proportionnalité des sauts
de distances. On voit que David et Camille, ainsi que Bernard et Élise, sont adjoints à
partir de distances équivalentes (environ 1 sur l’échelle redimensionnée). Alain est
ensuite adjoint à Bernard et Élise à une distance un peu plus importante (environ 4,5).
Puis les deux groupes sont fusionnés à une distance de 25. Ce saut proportionnellement
beaucoup plus important indique une solution à deux groupes également.

5. Étape 5 : description des groupes


Dans tous les cas, on décrit les groupes au moyen des variables de classification et, éventuellement,
d’indicateurs supplémentaires. On obtient ainsi un profil (de comportement, d’attitude,
sociodémographique) des individus composant les différents groupes. Suivant le type de variable,
on utilisera la moyenne, la médiane ou écart-type.

Exemple
Nos deux groupes ci-dessous sont composés des individus [Alain, Bernard, Élise]
\/|
pour l’un et [Camille, David] pour l’autre. L’âge et l’attrait pour le risque sont les
$|
deux seules variables disponibles pour les décrire.
4$

Groupe 1 Groupe 2
By

Attrait Attrait
Indiv. Âge pour le Indiv. Âge pour le
risque risque
Alain 60 4 Camille 19 3
Bernard 48 5 David 28 2
Élise 37 4
X 48,33 4,33 X 23,5 2,5
s 11,5 0,58 s 6,36 0,71

Normalement, il faut tester les différences de moyennes entre groupes (test en t de différences de
moyennes entre échantillons indépendants ou test U de Mann-Whitney, si les conditions ne sont pas
remplies)(337). Dans les deux cas, les très petites tailles d’échantillon amènent à un non-rejet de
l’hypothèse nulle, c’est-à-dire ne permettent pas de conclure à une différence entre les groupes dans
la population. Nous ne les présentons pas ici.
6. Étape 6 : validation des groupes
On vérifie l’acceptabilité de la solution retenue. Les différents groupes obtenus doivent être faciles
à décrire. Malheureusement, la pertinence du nombre de groupes n’est pas facilement vérifiable par
test statistique(338). Quelques solutions sont utilisables :
– si le découpage « naturel » des individus dans la population existe réellement, des algorithmes
différents doivent aboutir à des solutions très similaires. En cas de désaccord, la typologie doit être
remise en cause ;
– après séparation aléatoire de l’échantillon en deux moitiés, on applique le même algorithme sur
chacune des moitiés et on compare les deux solutions. En cas de divergence prononcée, la typologie
est à rejeter ;
– si les distributions des groupes, sur les variables de classification, se chevauchent, la typologie
n’est pas efficiente ;
– l’analyse discriminante (voir plus loin dans ce chapitre) peut servir de recours. Les critères de
classification sont les variables indépendantes et l’appartenance des individus aux groupes forme la
variable dépendante. Les indicateurs de distances entre les groupes permettent de repérer les
variables ayant le mieux contribué à la classification.

\/|
C. Exemple d’application
$|
Nous cherchons à identifier une typologie des individus selon leur perception du « chez soi », avec
4$

comme variables d’analyse les deux composantes issues de l’analyse en composantes principales.
L’une était relative au sentiment de sécurité que procure le « chez soi », l’autre au statut du « chez
By

soi » comme lieu de partage avec l’autre, baptisé ici hospitalité.


Le nombre d’observations rendrait peu lisible une représentation graphique. Aussi passons-nous
directement à l’analyse typologique.

– Mise en œuvre et résultats de l’analyse typologique


Nous avons centré et réduit les deux variables et utilisé une distance euclidienne au carré et
l’algorithme « Voisin moyen ». La figure 14.27. reproduit la fin de la « chaîne des agrégations »,
c’est-à-dire l’équivalent de la figure 14.26.
Figure 14.27. Composition des groupes selon les sauts de distances

On voit que les différences dans les sauts de distance sont marginales jusqu’à la ligne 184. Il ne
semble pas raisonnable d’envisager une solution à plus de cinq groupes. Le saut le plus important
se situe entre 3,280 et 5,378, ce qui milite pour une solution à quatre groupes. Néanmoins le
\/|
passage à trois et à deux groupes se fait à des distances équivalentes et proportionnellement peu
$|
différentes du saut précédent. Il semble donc plus prudent de tester trois scénarios plausibles :
4$

deux, trois ou quatre groupes.


En premier lieu, on regarde si un ou plusieurs groupes ont des effectifs totalement marginaux,
By

révélateurs d’individus aberrants qui devraient alors être éliminés. La plupart des logiciels créent
des variables où chaque individu est repéré par son numéro de groupe. Dans cet exemple, nous
avons créé trois variables. L’une correspond à une situation à deux groupes, une autre à une solution
à trois groupes et la troisième à une solution à quatre groupes. De simples tris à plat sur chacune de
ces variables suffisent ensuite. Le résultat montre des effectifs très déséquilibrés dans les trois cas,
mais rien qui puisse être considéré comme marginal. Il faut approfondir l’analyse.
L’inertie interclasses doit être élevée. Un indicateur de cette inertie est la différence entre les
moyennes de groupes sur les variables de classification. Des différences significatives indiquent
une solution pertinente. On utilise à nouveau les variables artificielles qui viennent d’être créées
pour faire des tests de différences de moyennes ou des analyses de variance simples, qui sont une
extension de ces tests quand le nombre de groupes dépasse deux. Dans une solution à deux groupes,
les individus ne se différencient pas sur la variable « hospitalité ». Dans une solution à quatre
groupes, les individus des groupes 1 et 2 et des groupes 3 et 4 ne se différencient pas non plus.
Seule la solution à trois groupes permet cette différenciation, comme le montre la figure 14.28.
Figure 14.28. Scores moyens sur les variables de classification, solution à trois groupes

Si les différences entre moyennes de groupes sont significatives (les outils permettant cette
interprétation sont décrits au chapitre 15), la solution reste peu satisfaisante. En effet, les groupes 1
et 3 se chevauchent partiellement pour la variable « sécurité ». Le phénomène est encore accentué
pour la variable « hospitalité ». Par exemple, les scores minimum et maximum des individus du
groupe 1 sont inclus dans ceux du groupe 2. Les moyennes permettent donc de décrire des
tendances, mais les frontières de groupes sont ambiguës. C’est malheureusement souvent le cas dans
les typologies.
\/|
En « moyenne », donc, le groupe 1 caractérise des individus au score moyen sur les deux variables.
$|
Le groupe 2 montre des moyennes négatives sur les deux variables. Pour ces individus, le fait de se
4$

sentir chez soi quelque part n’est donc pas forcément synonyme de sécurité. La tendance est moins
marquée sur l’hospitalité. À l’inverse, les individus du groupe 3 valorisent le sentiment de sécurité
By

pour se sentir chez soi et ne font pas de ce dernier un lieu d’hospitalité. Ces derniers sont davantage
repliés sur eux-mêmes, quand les premiers sont manifestement plus ouverts sur l’autre.
Il s’agit enfin de tenter de décrire plus finement les individus des trois groupes. On utilise pour cela
toutes les variables d’identification à disposition dans la base de données. Ici, nous avons testé le
genre, l’âge et le type de logement habité. Ces variables étant nominales (l’âge était mesuré en
classes), seuls des tris croisés suivis de tests de contingence du χ2 étaient possibles. Aucun de ces
tests ne s’est avéré significatif. Autrement dit, les trois groupes ne peuvent être distingués sur
aucune de ces variables.
Valider une typologie est complexe car cette analyse débouche rarement sur des solutions évidentes.
On admet que si plusieurs algorithmes permettent d’aboutir au même nombre et à la même
composition de groupes, alors on est en présence d’une typologie ayant un « sens ». Si les solutions
divergent fortement, on est plutôt en présence d’un artefact. C’est le cas pour notre exemple, car
l’algorithme de Ward amenait à une solution à deux groupes, mais dont les moyennes sur les
variables de classification, bien que différentes, montraient des individus « moyens » dans les deux
cas. Ce n’était donc pas plus intéressant. Cela amène à remettre en cause le bien-fondé de cette
typologie.

V. Analyse des similarités(339)


A. Objectifs et principes fondamentaux
L’analyse multidimensionnelle des similarités et des préférences est une technique dont l’objectif
principal est de traduire visuellement la représentation mentale par un répondant des positions
relatives d’un ensemble d’objets les uns par rapport aux autres. Elle aboutit à représenter dans un
plan un ensemble de distances entre objets sur des dimensions « cachées ». La position des objets
dans le plan aide à l’interprétation de ces dimensions.
Cette technique repose sur trois présupposés relativement forts(340) :
– le nombre et la nature des caractéristiques (dimensions) sur lequel un objet est évalué varie d’un
individu à l’autre ;
– le poids d’une caractéristique dans le jugement peut varier d’un individu à l’autre (même si cette
caractéristique est utilisée par tous les individus) ;
– le nombre, la nature et le poids des caractéristiques dans le jugement d’un individu donné varient
dans le temps.
L’analyse des similarités fonctionne à partir de distances objectives (e.g. distances entre villes) ou
subjectives (e.g. perceptions de similarités entre marques). En marketing, on utilise essentiellement
des données subjectives. Les données d’entrée, nécessaires au fonctionnement, doivent être au
minimum ordinales. En sortie, et c’est l’intérêt majeur de l’analyse des similarités, on obtient une
\/|
représentation spatiale d’objets, basée sur de « vraies » distances (euclidiennes). En d’autres
$|
termes, cette technique est susceptible d’enrichir les données d’entrée.
4$

Cette méthode est précieuse pour éclairer le choix d’un positionnement pour une marque. Elle
révèle les axes qui structurent l’espace concurrentiel et situe les produits ou marques sur ces
By

dimensions, selon les perceptions des consommateurs.

B. Forme des questionnaires


Elle varie selon que l’on recueille des jugements de similarité ou de préférence. Dans les deux cas,
il s’agit de sélectionner un ensemble d’objets (e.g. de marques) susceptibles de faire partie de
l’ensemble de considération du répondant, dans un scénario d’usage donné.
Selon la situation d’achat, les marques susceptibles de faire partie de l’ensemble de considération
sont en effet potentiellement différentes. L’offre des fabricants peut ne pas couvrir tel ou tel usage,
ou le consommateur peut exclure de lui-même telle ou telle marque parce qu’il la juge inapte à un
usage alors qu’il envisagera son achat pour un autre usage.
Pour fixer un scénario d’usage pertinent et identifier l’ensemble de considération correspondant, on
peut procéder par une méthode de citation directe ou par une méthode de reconnaissance. Dans le
premier cas, on identifie les marques saillantes au moment de l’interview et on demande au
répondant de préciser celles qu’il serait susceptible d’acheter. Dans le second cas, on présente aux
répondants une liste de marques en lui demandant de cocher celles qu’il connaît puis de préciser
également celles qu’il serait susceptible d’acheter. Dans les deux cas, les marques retenues pour la
suite de l’analyse sont celles qui, par exemple, font partie de l’ensemble de considération d’au
moins 50 % des répondants.
1. Données de similarité
a. Approche directe
On constitue toutes les paires d’objets possibles. Les répondants classent l’ensemble des paires par
ordre de dissimilarité croissante : les deux objets les plus « globalement ressemblants » en premier,
les deux les moins ressemblants en dernier. Une alternative consiste à utiliser des échelles de
similarité perçue, construites comme des échelles de Likert ou des échelles à supports sémantiques.
Ces échelles facilitent la tâche du répondant lorsque le nombre de paires d’objets à comparer est
important.

Exemple
L’image des marques de vélo
Cet exemple est construit à partir d’un ensemble de considération et d’une liste de
critères d’évaluation obtenus auprès d’un seul répondant. Les données ont été
simplifiées pour des raisons pédagogiques. Le scénario d’usage fixé est l’achat d’un
vélo de course à usage sportif hors compétition.
À partir de la liste des marques identifiées, on a construit toutes les paires possibles.
\/|
Le répondant les a classées par ordre de dissimilarité décroissante, selon des critères
$|
qui lui sont propres. Le résultat de ce classement est donné ci-après.
4$

Time Giant Trek Colnago Lapierre


By

Time 0
Giant 8 0
Trek 5 3 0
Colnago 2 7 6 0
Lapierre 9 1 4 10 0

Un ensemble de cinq marques donne dix paires à classer(341). Les marques Giant et Lapierre sont les
plus proches. Les marques Colnago et Lapierre sont les plus éloignées.
Il aurait également été possible de collecter les données de la manière exposée ci-après.
Pas du
Moyennement Extrêmement
tout
similaires similaires
similaires
Time - Giant 1 2 3 4 5
Time - Trek 1 2 3 4 5
Etc.

Dans ce cas, le répondant entoure le chiffre qui correspond le mieux à sa perception.

b. Approche indirecte
Les répondants évaluent chaque objet sur différentes caractéristiques, ou attributs, préalablement
identifiés ; le soin accordé à cette étape préliminaire conditionne la réussite des investigations
ultérieures(342). On utilise, pour l’évaluation, des échelles bipolaires de type différentiel sémantique
ou des notes.

Exemple (suite) \/|


L’échelle utilisée selon cette approche était :
$|
4$

Giant
By

Performance 1 2 3 4 5
Prestige 1 2 3 4 5
Rapport qualité-prix 1 2 3 4 5
Polyvalence 1 2 3 4 5

(Et ainsi de suite pour les quatre marques restantes.)

2. Données de préférence
La collecte des données de préférence peut se faire de trois manières :
– classement global des objets par ordre de préférence ;
– indication, pour chaque paire, de l’objet préféré ;
– classement de préférence des objets sur la liste de critères.
Exemple (suite)
Nous avons utilisé la troisième solution.
« Veuillez classer les six marques de vélo sur chacun des critères suivants, selon votre
préférence (de 1 pour la marque que vous préférez, jusqu’à 5 pour la marque que vous
préférez le moins). »

Time Giant Trek Colnago Lapierre


Performance 1 4 3 2 5
Prestige 2 4 3 1 5
Rapport qualité-
4 3 1 5 2
prix
Polyvalence 1 4 2 5 3

3. Problèmes inhérents aux questionnaires de similarités


\/|
$|
Les questionnaires nécessaires sont en général longs et complexes. Dans l’exemple présenté, nous
n’avons que cinq objets et quatre critères d’évaluation, ce qui est peu. Lorsque le nombre de paires
4$

d’objets à comparer dépasse la vingtaine, soit sept objets au départ, la tâche dépasse les capacités
cognitives de la plupart des répondants.
By

Or, pour des raisons techniques, les algorithmes des méthodes de MDS ne peuvent être utilisés « à
plein rendement » qu’au-delà de huit à dix objets. D’où un équilibre très délicat à trouver entre les
contraintes techniques d’une part et les limites cognitives des répondants d’autre part.

C. Étapes de l’analyse
1. Étape 1 : construction des matrices de similarités
Cette opération peut s’effectuer à deux niveaux :
– niveau individuel. L’analyse est menée individu par individu. La matrice découle du classement
des paires d’objets ou de leur évaluation. C’est ce qui a été fait ci-dessus ;
– niveau agrégé. Lorsque l’on travaille avec plusieurs répondants, on construit la matrice des
similarités à partir du rang moyen (classement) ou du score moyen (évaluation) obtenu par chaque
paire(343).
Dans cette approche, si l’écart-type des rangs ou des scores est élevé, chaque paire peut avoir été
classée de manière très différente par les individus. La matrice agrégée traduira mal la diversité
des perceptions chez les consommateurs. Une analyse typologique préalable aide à repérer les deux
ou trois « types » d’évaluations différents, qui permettent d’élaborer autant de matrices de
similarités. Chaque matrice est ensuite analysée séparément.

2. Étape 2 : interprétation des dimensions


Le résultat principal d’une MDS est un graphique à deux dimensions, appelé carte perceptuelle,
situant des objets les uns par rapport aux autres. Cette carte résulte d’une procédure de calcul de
distance (généralement euclidienne).

Exemple (suite)
Les coordonnées des marques de vélo sur les deux axes sont données dans la
figure 14.29. L’axe horizontal (dimension 1) oppose les marques Time et Colnago à
Lapierre. L’axe vertical (dimension 2) oppose, moins nettement, les marques Time et
Colnago.
Figure 14.29. Coordonnées des marques

Dimension
1 2
\/|
Time – 0,672 – 0,309
$|

Giant 0,568 0,193


4$

Trek 0,007 – 0,191


By

Colnago – 0,614 0,403


Lapierre 0,712 – 0,096

La visualisation de ces coordonnées dans un plan est généralement plus parlante. Elle est donnée
dans la figure 14.30.
Figure 14.30. Carte perceptuelle des marques de vélo

\/|
$|
4$
By

L’information étant la même, l’interprétation est identique. Cette carte permet néanmoins de
constater que les marques sont relativement distantes. Pour le répondant, aucune marque n’est donc
strictement substituable à une autre.
Deux situations sont envisageables pour l’interprétation :
– connaissance préalable du marché. Si l’analyste connaît bien les marques étudiées, il identifie
intuitivement la nature des dimensions à partir de la position relative des objets. C’est une solution
tentante parce qu’économique et immédiate. Le risque est de remplacer la perception du
consommateur par celle d’un expert, qui peut avoir perdu de vue les réalités du marché ;
Exemple (suite)
La dimension 1 peut être interprétée comme un axe de « prestige de la marque », dans
un sens décroissant. En effet Time et Colnago représentent plutôt le haut de gamme du
marché, tandis que Lapierre et Giant font du « tout venant ». Cette interprétation reste
subjective, puisque ce prestige ou cet élitisme peuvent être interprétés aussi bien
positivement que négativement par les consommateurs. La dimension 2 est peu
intuitive, ce qui renforce le besoin d’informations complémentaires.

– liste de critères de choix préexistante. Les consommateurs ont évalué chaque marque sur les
différents critères, à l’aide d’échelles d’attitude. On corrèle ces scores avec les coordonnées des
marques sur les deux dimensions. Une forte corrélation indique que la répartition des objets sur
l’axe correspond d’assez près à la répartition de leurs scores sur la variable. En d’autres termes, la
variable est utile à l’interprétation de l’axe. Cette solution nous servira pour l’interprétation des
axes.

\/|
$|
4$
By
Exemple (suite)
On constate assez clairement, dans la figure 14.31., que le premier axe oppose la
performance, la polyvalence et le prestige au rapport qualité-prix. L’intuition initiale
est donc infirmée, ce qui renforce l’intérêt de cette approche par les critères. Les
corrélations des variables sur la seconde dimension sont beaucoup plus faibles, ce qui
traduit un poids moindre de cette dernière dans la description globale du phénomène.
Cela étant, cette dimension oppose la polyvalence au prestige. C’est cohérent avec les
marques concernées, Colnago étant LA marque de prestige sur ce marché. Elle
s’oppose sur l’axe à Time dont la polyvalence des produits, notamment des plus
récents, est réputée.
Figure 14.31. Évaluation des marques de vélo et corrélations avec les dimensions

\/|
$|
4$

Dimension 1 Dimension 2
By

Performance – 0,912 0,147


Prestige – 0,947 0,263
Rapport qualité-prix 0,779 – 0,326
Polyvalence – 0,832 – 0,500

3. Étape 3 : Évaluation de la qualité de la représentation


Il existe plusieurs algorithmes de calcul pour aboutir à une telle « représentation spatiale ». Ils
reposent tous sur une procédure itérative visant à produire une solution qui minimise la différence
entre la matrice des distances (ou dissimilarités) initiales à la matrice des distances calculée à
partir des coordonnées des objets dans le plan. Le fonctionnement exact de la méthode dépend de la
fonction de minimisation choisie(344). On dérive de cette fonction un indicateur de stress qui traduit
la différence entre les deux matrices et doit donc être le plus faible possible. Il existe plusieurs
manières de calculer le stress(345), chacune étant optimisée pour un algorithme donné. Dans tous les
cas, le stress est égal à 0 lorsque les deux matrices coïncident parfaitement. Kruskal a proposé une
échelle d’évaluation de cet indice (voir figure 14.32.)(346).
Exemple (suite)
Sur le marché du vélo, le stress relatif à la solution obtenue est égal à 0,00008. Il
s’agit d’un excellent résultat qui montre que l’algorithme reproduit presque à
l’identique les écarts perceptuels entre marques tels qu’ils ont été donnés par le
répondant.
Figure 14.32. Qualité d’un ajustement

Stress (en %) Qualité de l’ajustement


20 Faible
10 Moyenne
5 Bonne
2,5 Excellente
0 Parfaite

\/|
VI. Analyse de régression multiple
$|
Jusqu’à présent, l’objectif était, avant tout, de résumer un ensemble d’informations, soit
4$

visuellement, soit par la création de variables de synthèse. À aucun moment nous n’avons évoqué
de préoccupations liées à la généralisation des résultats à une population. Avec la régression
By

multiple, nous entrons dans le domaine des méthodes dites « explicatives » plus spécifiquement
conçues dans cette perspective. Les principes de fonctionnement de l’analyse de régression ont été
présentés dans le chapitre 13. Ils ne changent pas fondamentalement lorsque l’on ajoute des
variables explicatives.

A. Objectifs et principes
Les objectifs sont les mêmes que ceux de la régression simple, à savoir :
– expliquer les variations d’une variable dépendante par les influences cumulées de plusieurs
variables explicatives supposées être à l’origine de ces variations ;
– déterminer le cas échéant l’intensité de cette influence.
Par rapport à la régression simple, la régression multiple offre l’avantage d’analyser l’apport
relatif de chaque variable indépendante dans l’explication des variations de la variable dépendante.
Les données d’entrée sont le tableau des données brutes. Les variables sont, normalement, de
niveau de mesure métrique (i.e. au moins d’intervalle)(347).
Les variables explicatives doivent être non corrélées. Si elles le sont, on a un effet de
multicolinéarité dont la conséquence est double :
– estimation imprécise des coefficients de régression, donc des erreurs standard de régression
élevées ;
– manque de stabilité des coefficients de régression : leur valeur variera beaucoup d’un échantillon
à l’autre.
Dans ce cas, l’estimation de la part relative de chaque variable indépendante dans la « qualité » de
la régression devient délicate. Deux solutions sont envisageables :
– « forcer » la non-corrélation des variables explicatives, par exemple en utilisant des scores
factoriels avant rotation, ou après rotation orthogonale seulement (voir le II de ce chapitre) ;
– estimer le risque de dégradation des résultats due à la multicolinéarité et éliminer la (ou les)
variable(s) source(s) de cette dernière.
L’équation de régression multiple dans la population est :
Y = α + β1X1 + β2X2 + ... + βkXk + e
avec : k = nombre de variables indépendantes
Les coefficients sont inconnus. On les estime à partir de :
Ŷ = a + b1X1 + b2X2 + ... + bkXk
\/|
B. Étapes de l’analyse
$|
4$

1. Étape 1 : vérification des conditions d’application


Les contraintes d’application sont liées à la taille d’échantillon, à la linéarité de la relation entre
By

les variables explicatives et la variable dépendante, aux termes d’erreur et à la multicolinéarité.


Les deux premières ont été abordées au chapitre 13.

a. Contraintes liées aux termes d’erreur


Il faut vérifier l’homoscédasticité, l’absence d’autocorrélation et la normalité.

Homoscédasticité
Chaque erreur ei est le résultat de la différence entre la valeur observée de yi et la valeur calculée
par la régression ŷi. La variable e constituée de tous les termes d’erreur (voir figure 13.15.) peut
être décrite au moyen des indicateurs classiques de tendance centrale ou de forme.
L’homoscédasticité se définit comme la constance de la variance du terme d’erreur pour l’ensemble
des valeurs des variables X. Autrement dit, les points yi doivent rester à peu près à égale distance
de la droite, quelles que soient les valeurs des variables explicatives. Si l’on observe notamment
un éloignement progressif de ces valeurs, on parle d’hétéroscédasticité. Par exemple, les écarts de
revenus augmentent avec l’âge, d’où une augmentation progressive « mécanique » de la valeur des
termes d’erreur de la régression.
L’homoscédasticité s’analyse en croisant graphiquement la variable dépendante avec les résidus,
généralement « studentisés », c’est-à-dire divisés par leur écart-type. Les tests statistiques
correspondants (tests de White et de Breush-Pagan) sont très techniques à mettre en œuvre et ne
sont disponibles que dans des logiciels spécialisés en économétrie(348).

Exemple
Nous cherchons à expliquer la durée totale des vacances (exprimée en nombre de
jours par an) par le nombre de séjours effectués, la tendance à la recherche de variété
dans le choix de la destination, la tendance à la recherche d’information préalable aux
séjours et le nombre d’enfants au foyer. La tendance à la recherche de variété dans le
choix de la destination et la tendance à la recherche d’information sont des scores
factoriels issus d’analyses en composantes principales. L’échantillon comporte
266 observations valides.
Pour le modèle testé, dont les détails seront présentés tout au long de cette partie, le
croisement de la variable dépendante et des résidus studentisés est présenté sur la
figure 14.33.
Une homoscédasticité parfaite amènerait à un nuage de points sphérique. Autrement dit
les valeurs des résidus seraient réparties aléatoirement par rapport aux valeurs de la
\/|
durée des séjours. Ce n’est pas le cas ici, où l’on constate une relation positive entre
$|
les deux : plus la durée des séjours augmente, plus la valeur des résidus augmente.
4$

Pour simplifier la suite, les données seront gardées en l’état.


By

Figure 14.33. Croisement durée totale des vacances et résidus studentisés de la régression
L’hétéroscédasticité peut être due à un écart à la normalité de l’une des variables du modèle. Il faut,
dans ce cas, la transformer par une fonction adaptée. L’inconvénient est de perdre l’unité de mesure
initiale, ce qui complique grandement l’interprétation des résultats. Les effets de
l’hétéroscédasticité sont surtout sensibles sur les variances des estimations des paramètres. Leurs
valeurs sont non biaisées, donc restent bonnes pour l’échantillon étudié, mais les estimations que
l’on peut faire de leur valeur dans la population deviennent optimistes(349).

Absence d’autocorrélation
Il y a autocorrélation des termes d’erreurs quand leurs valeurs sont dépendantes les unes des autres.
Ce phénomène se produit essentiellement dans les séries chronologiques, en cas de mesures
répétées. Dans les séries non chronologiques, l’omission d’une variable explicative importante
et/ou la mauvaise spécification du modèle sont source d’autocorrélation.
Les effets négatifs de ce phénomène sur la qualité de la régression sont comparables à ceux de
l’hétéroscédasticité. Une autocorrélation positive sous-estime la variance des coefficients de la
régression, alors qu’une autocorrélation négative la surestime.
L’autocorrélation des termes d’erreurs peut s’évaluer par le test de Durbin-Watson dont la
statistique est : \/|
$|
4$

Sa valeur est comprise entre 0 et 4. Une valeur proche de zéro indique une autocorrélation positive,
By

les valeurs situées autour de 2 montrent une absence d’autocorrélation (hypothèse nulle) et si l’on
s’approche de 4, il existe une autocorrélation négative. Les valeurs critiques inférieure et
supérieure, notées respectivement Dinf et Dsup sont lues dans une table spécifique, qui peut être
trouvée sur Internet(350). Les règles de décision sont :
– Non-rejet de H0 si Dcalculé > Dsup et si Dcalculé < [4 – Dsup]
– Rejet de H0 si Dcalculé < Dinf ou Dcalculé > [4 – Dinf]
– Indétermination si : Dcalculé ∈ [Dinf ; Dsup] ou Dcalculé ∈ [4 – Dinf ; 4 – Dsup
Exemple
La statistique du test renvoie une valeur Dcalculé = 1,808. Le logiciel utilisé ne donne
pas d’aide à la décision. Bien que l’on soit proche de 2 et que la taille d’échantillon
soit grande (n = 266), il faut vérifier dans la table. Pour un seuil de risque α = 0,05 et
k = 4 variables explicatives, on lit Dinf = 1,73 et Dsup = 1,81. En pratique, nous avons
Dcalculé = Dsup. Formellement nous sommes dans une situation d’indétermination mais
très proches d’une situation de non-rejet de H0. La présence d’autocorrélation n’est
donc pas formellement établie.

Normalité de la distribution des résidus


Le non-respect de cette condition rend inopérants les tests de validation des résultats d’une
régression. L’allure générale de la courbe de distribution des résidus est un premier indicateur. Si
elle est fortement asymétrique ou (plati)leptokurtique, l’écart à la normalité est évident. Un second
indicateur est un graphique qui projette dans un plan la valeur des résidus observés en abscisse et
leur valeur « théorique » (sous-entendu si leur distribution est normale). La plupart des logiciels
\/|
proposent ce graphique. Cette projection ne doit pas trop s’écarter d’une diagonale « sud-ouest ;
nord-est ». Enfin, si le logiciel utilisé permet de sauvegarder les résidus standardisés dans une
$|
variable, un test de Kolmogorov-Smirnov est le moyen le plus rigoureux de tester la normalité de la
4$

distribution des résidus.


By
Exemple
La partie gauche de la figure 14.34. superpose la distribution des résidus à une courbe
de Laplace-Gauss. On voit que la distribution observée est plus « pointue »
(leptokurtique) que la distribution normale.
Figure 14.34. Normalité de la distribution des résidus

La partie droite de la figure montre que la superposition des valeurs observées des
résidus à la droite « théorique » observée si la distribution est normale est légèrement
\/|
sinusoïdale. Le phénomène n’étant pas très marqué, il est prudent de vérifier par un
$|
test formel. La figure 14.35. donne les résultats du test de Kolmogorov-Smirnov sur
les résidus standardisés.
4$

Figure 14.35. Test de normalité de Kolmogorov-Smirnov sur les résidus de la régression


By

Résidu standardisé
N 266
Z de Kolmogorov-Smirnov 1,083
Signification asymptotique (bilatérale) 0,191

Pour simplifier, et compte tenu de la taille d’échantillon, nous n’avons retenu que la valeur z
approximée de la statistique du test. On constate que l’hypothèse de normalité ne peut être rejetée :
la valeur de z est faible, inférieure à la valeur critique de z pour un seuil de risque à 5 %, qui est
égale à 1,96 (voir chapitre 12). La valeur p (« signification asymptotique » permet la même
conclusion : c’est la probabilité d’observer la valeur z calculée si l’hypothèse nulle est vraie. Dès
que cette valeur p dépasse α on ne prend plus le risque de rejeter H0.
La distribution des résidus peut donc être considérée comme normale.
b. Contraintes liées aux variables explicatives
Les variables doivent être distribuées selon une loi normale et ne pas être corrélées entre elles. La
normalité se teste comme nous venons de le voir dans l’exemple. La présence de fortes corrélations
entre les variables explicatives est susceptible de provoquer un phénomène dit de multicolinéarité,
évoqué en début de partie. Le diagnostic de multicolinéarité se fait au moyen de plusieurs
indicateurs.
Trois critères empiriques simples peuvent être vérifiés. En premier lieu, il y a risque de
multicolinéarité si n’importe quel couple de variables explicatives présente une corrélation r
supérieure à 0,8 en valeur absolue. En second lieu, il faut vérifier que le R2 multiple de la
régression (voir plus loin) reste supérieur à n’importe laquelle des corrélations au carré (r2),
calculées pour toutes les paires de variables explicatives. Enfin, la valeur du coefficient de
régression entre une variable X et la variable dépendante Y doit être la même que celle de la
corrélation linéaire simple entre ces deux variables(351).
La tolérance se définit comme la part « unique » de variance de chaque variable explicative, c’est-
à-dire non expliquée par les autres variables explicatives. Si ces dernières sont indépendantes,
alors la part « unique » de variance de chaque variable doit être élevée. La tolérance, dans ce cas,
sera proche de 1. Une part unique de variance faible indique au contraire une forte corrélation entre
les variables explicatives. La tolérance sera alors proche de 0.
Le facteur d’inflation de la variance (FIV ou VIF en anglais) est donné par :

\/|
Ri2 est le coefficient de détermination multiple obtenu en régressant la variable Xi sur toutes les
$|

autres variables X(352).


4$

Le VIF « idéal » est égal à 1. Dans ce cas, Ri2 = 0, ce qui signifie que la variable dépendante ne
By

partage pas d’information avec les autres. Il y a suspicion de multicolinéarité lorsque VIF devient
très supérieur à 1. Il n’y a pas de test statistique formel pour décider objectivement du seuil à ne
pas dépasser. Certains auteurs fixent empiriquement le seuil critique à 4, mais il n’y a pas
consensus(353).
Exemple
Les statistiques de colinéarité pour notre exemple sont données par figure 14.36. Les
valeurs de tolérance sont proches de 1 et les VIF également. Il n’y aucune raison de
suspecter un effet de multicolinéarité pour notre modèle.
Figure 14.36. Diagnostic de multicolinéarité

Statistiques de
Modèle colinéarité
Tolérance VIF
(Constante)
SF recherche de variété 0,866 1,155
1 SF recherche info objective 0,854 1,171
Enfants à charge 0,973 1,028
Nombre de séjours 0,938 1,066
\/|
$|
2. Étape 2 : estimation des coefficients de la régression
4$

Avec plusieurs variables explicatives, trois principales stratégies de modélisation sont possibles.
By

La régression simultanée introduit toutes les variables explicatives ensemble dans le modèle. On
évalue a posteriori le pouvoir explicatif de chaque variable, mais le pouvoir explicatif global de la
régression, exprimé par le R2 multiple (voir fiche technique 14.4.), est calculé une seule fois en
tenant compte de l’ensemble des variables.
La régression hiérarchique introduit les variables explicatives par blocs. Chaque bloc de
variables peut ne contenir qu’une seule variable. Le choix se fait en fonction de la nature des
variables (par exemple comportementales, attitudinales, sociodémographiques...). Cette stratégie
permet d’analyser les différences de R2 générées par l’introduction de tel ou tel bloc de variables.
On peut ainsi analyser le poids explicatif différentiel de tel ou tel type de variable, voire de chaque
variable si les blocs sont composés de variables uniques.
La régression « pas à pas » (stepwise) introduit, en version « ascendante », les variables
explicatives une à une en fonction de la valeur de leur corrélation partielle avec la variable à
expliquer(354). Le seuil d’arrêt d’introduction des variables est déterminé par un test statistique en F.
En version « descendante », les variables explicatives sont introduites en bloc, puis éliminées une
par une sur les mêmes critères.

Exemple
Durée des vacances
La figure 14.37. présente les résultats de la régression pour les trois stratégies
possibles. La signification des bj et des β est donnée dans la fiche technique 14.4.
Figure 14.37. Paramètres de l’équation de régression multiple, méthode simultanée

– Méthode simultanée
Dans ce cas, l’équation de régression s’écrit :
Durée totale des séjours = 6,639 – 0,71 × Recherche de variété +
\/|
0,536 × Recherche d’information + 1,102 × Enfants à charge +
$|
7,477 × Nombre de séjours
4$

Comme les échelles de mesure sont assez différentes, le poids de chaque variable
s’analyse mieux par la version standardisée :
By

Durée totale des séjours = – 0,066 × Recherche de variété +


0,051 × Recherche d’information + 0,106 × Enfants à charge +
0,67 × Nombre de séjours
La durée des séjours dépend donc essentiellement du nombre de séjours et, pour un
poids six fois moindre, du nombre d’enfants. Les deux autres variables jouent un rôle
négligeable.
– Méthode hiérarchique
Pour la méthode hiérarchique, les variables ont été introduites par blocs de deux. Les
variables « psychologiques » dans un premier temps (tendance à la recherche de
variété et tendance à la recherche d’information) puis les variables
sociodémographiques (nombre d’enfants et nombre de séjours).
Figure 14.37. bis. Paramètres de l’équation de régression multiple, méthode hiérarchique

On voit que l’introduction du nombre de séjours et du nombre d’enfants a changé le


poids des deux autres variables. Dans le premier modèle, la tendance à la recherche
d’information avait un poids relativement important et en tout cas significatif
(t = 2,745 ; p = 0,006). Lorsque les deux autres variables sont introduites, cette
\/|
variable voit son poids divisé par 3 (0,177 à 0,051) et devenir non significatif
$|
(t = 1,032 ; p = 0,303).
4$

– Méthode pas à pas


By

L’approche ascendante est retenue.


Figure 14.37 ter. Paramètres de l’équation de régression multiple, méthode pas à pas

On voit cette fois que seules deux variables ont passé le seuil de signification. La
première a été le nombre de séjours. Le coefficient de régression résultant est égal à
0,667. Puis vient le nombre d’enfants, dont le coefficient est égal à 0,111. Cette
variable a donc un poids six fois moindre.
Globalement, les trois stratégies aboutissent au même résultat. La dernière est à conseiller lorsque
l’on a une théorie peu élaborée sur les facteurs explicatifs potentiels du phénomène exploré. On
laisse faire le modèle, en quelque sorte. Lorsque la théorie est un peu plus solide, l’une ou l’autre
des deux stratégies peut convenir. De manière générale, pouvoir analyser l’évolution du R2 en
fonction des variables introduites dans le modèle est intéressant. De ce point de vue, les
régressions hiérarchiques ou pas à pas sont à préférer.

\/|
$|
4$
By
Fiche technique 14.4. Principaux coefficients d’une régression multiple
1 – Coefficient de régression partiel [bi]
Il représente la variation attendue de Y lorsque Xi change d’une unité et que les autres variables X sont
maintenues constantes ou contrôlées. Les effets des variables X sont supposés additifs, c’est-à-dire que lorsque
Xi et Xj sont modifiées d’une unité, le changement attendu sur Y est égal à (bi + bj).
2 – Coefficient de régression standardisé partiel [βi]
C’est le même que le précédent, mais son calcul suppose que toutes les variables prises en compte dans l’analyse
aient été centrées-réduites (i.e. ramenées à une moyenne de 0 et un écart-type de 1). Ces coefficients
apparaissent dans la colonne β de la figure 14.37.

3 – Coefficient de détermination multiple [R2]


C’est un indicateur de qualité du modèle. Il est égal au rapport de la variation « expliquée » par le modèle à la
variation totale. Il ne peut être inférieur au plus élevé des R2 simples, obtenus si l’on régressait individuellement
Y sur chacune des variables X.

Si les variables X sont parfaitement indépendantes entre elles, le R2 multiple sera la somme des R2 simples. Le
R2 multiple augmente mécaniquement avec le nombre de variables indépendantes. Pour pallier cet
inconvénient, on calcule un R2 ajusté qui tient compte du nombre de variables indépendantes utilisées et de la
taille d’échantillon.
Le R2 ajusté est une mesure plus réaliste, donc souvent plus faible, que le R2 « normal ». Son expression générale
\/|
est :
$|
4$

où : k = nombre de variables indépendantes,


By

n = taille d’échantillon.
La valeur de ce coefficient peut être testée par :

Cette statistique suit une loi en F de Fisher à k (numérateur) et n – k – 1 (dénominateur) degrés de liberté (voir
chapitre 12).
On rejette H0 (R2 = 0) si Fcalculé > Ftabulé.
4 – Coefficient de corrélation multiple
Il est égal à la racine carrée du R2 multiple. On peut le considérer comme la corrélation linéaire entre Y et
l’ensemble des variables explicatives. C’est un autre indicateur de qualité du modèle.
5 – Coefficient de corrélation partielle
C’est l’association « résiduelle » de deux variables, une fois éliminé l’effet de toutes les variables qui peuvent leur
être liées. En régression, il permet d’identifier la variable indépendante qui a le plus d’influence « nette » sur la
variable à expliquer.
La corrélation partielle entre x et y, en contrôlant z, notée rxy.z est donnée par :

Où rxz et ryz sont les corrélations simples, respectivement, entre X et Z et Y et Z.


3. Étape 3 : estimation de la qualité du modèle (355)
L’indicateur principal de la qualité d’ajustement d’un modèle de régression multiple est le
coefficient de détermination multiple, analogue au R2 de la régression simple (voir fiche
technique 14.4.).

Exemple
Le R2 de la régression simultanée est :

Modèle R R2 R2 ajusté
1 0,679 0,461 0,453

La tendance à la recherche de variété, la tendance à la recherche d’information, le


nombre d’enfants au foyer et le nombre de séjours effectués dans l’année expliquent
donc ensemble 45,3 % de la variance de la durée totale des vacances. Il y a peu
d’écart entre les deux valeurs de R2 parce que le nombre de variables explicatives
n’est pas très important et qu’elles ne sont pas fortement corrélées entre elles.
\/|
Le modèle est relativement performant. Par contre, il peut être intéressant de connaître
$|
les performances relatives des différentes variables explicatives. On a vu, par
4$

exemple, que le poids des variables « psychologiques » n’était pas significatif. Perd-
on en qualité si on exclut ces deux variables du modèle ?
By

Le tableau correspondant au modèle « pas à pas » est :

R-deux
Modèle R R-deux
ajusté
1 0,667 0,445 0,442
2 0,676 0,457 0,453

Ce tableau est à mettre en parallèle avec la figure 14.37. ter. On voit que le R2 ajusté lié à
l’introduction du nombre de séjours est de 0,442. Le gain lié à l’introduction du nombre d’enfants
est de 0,011. Ensemble, ces deux variables expliquent la même proportion de variance que le
modèle précédent. Les deux autres variables sont donc inutiles. Dans ces situations, le critère de
« parcimonie » doit l’emporter et le modèle le plus simple doit être préféré.
Le test de ce R2 donne un résultat significatif :
La valeur critique du test (table 5 téléchargeable) de F à 4 et 263 degrés de liberté est égale à 2,37.
H0 peut donc être rejetée et R2 considéré comme différent de 0 dans la population.
– Pour l’analyse globale, le test en F est égal à :

La valeur de F est également significative, sur un raisonnement toujours identique : la valeur de


« sig » indique la probabilité que la valeur F calculée avait d’être observée dans l’échantillon si
l’hypothèse nulle est vraie. Lorsque cette probabilité est inférieure au seuil de risque conventionnel
α = 5 %, il faut rejeter l’hypothèse nulle.
Nous pouvons en conclure que ce modèle vaut pour la population et pas seulement pour
l’échantillon. Le nombre d’enfants au foyer et le nombre de séjours effectués influencent donc la
\/|
durée totale des vacances exprimée en nombre de jours annuels.
$|

L’influence respective de chacune des deux variables indépendantes peut être analysée au moyen de
4$

leurs corrélations partielles respectives avec la variable dépendante :


By

Corrélations
Modèle Corrélation
Partielle
simple
Nombre de séjours 0,667 0,673
2 Enfants à charge 0,083 0,148

C’est bien le nombre de séjours qui a le plus fort lien avec la durée totale des vacances puisque la
corrélation entre les deux ne change pratiquement pas lorsque l’on élimine l’effet du nombre
d’enfants. Par contre le lien entre le nombre d’enfants et la durée des vacances est (faiblement)
pénalisé par la présence du nombre de séjours puisque la corrélation partielle est plus élevée que
la corrélation simple.

VII. Analyse discriminante


A. Objectifs et principes
L’objectif est d’identifier une combinaison linéaire de variables indépendantes permettant de
reconstruire au mieux des groupes d’individus constitués au départ en fonction des modalités d’une
variable dépendante nominale.
Les variables indépendantes doivent être mesurées sur une échelle métrique. Le cas usuel est celui
d’une variable dépendante dichotomique : il y a alors deux groupes d’individus et une seule
combinaison linéaire (que l’on nomme fonction discriminante) peut être identifiée. S’il y a plus de
deux groupes, on parle d’analyse discriminante multiple et le nombre de fonctions discriminantes
possibles est égal à k – 1 si k est le nombre de modalités de la variable dépendante.
L’analyse offre des réponses aux questions suivantes :
– Comment identifier les variables qui expliquent le mieux l’appartenance des individus à des
groupes connus ?
– Quelle est la combinaison linéaire de variables indépendantes la plus performante pour affecter
les individus à ces groupes ?
– Quelle est l’importance respective des variables indépendantes dans cette affectation ?
– Cette fonction discriminante prédit-elle bien l’appartenance de nouveaux individus aux groupes ?
\/|
Exemple
$|
4$

Les banques, ou les compagnies d’assurance, utilisent souvent l’analyse discriminante


(appelée scoring dans ce contexte) pour évaluer le risque d’un nouveau client (pour un
By

crédit, une police...). Les renseignements pris lors d’une demande de crédit sont
utilisés, au moyen d’une fonction discriminante, pour affecter la personne à un groupe
« à risque » ou non. La décision finale est prise en fonction de ce résultat.

B. Étapes de l’analyse
Un exemple d’application nous servira pour comprendre les différents paramètres et interpréter les
résultats d’une analyse discriminante.
Exemple
Une agence de voyages souhaite identifier les variables les plus explicatives du
montant dépensé annuellement pour les vacances, de manière à pouvoir mieux prédire
le volume d’affaires potentiellement réalisable avec de futurs prospects. Elle dispose
d’une base de données sur laquelle elle vous demande de « calibrer » le modèle.
En passant en revue les variables disponibles dans la base, il vous semble que la
tendance à la recherche de stimulation, la tendance à la recherche d’information, le
nombre de jours passés hors domicile pour les vacances et le nombre d’enfants au
foyer sont les variables a priori les plus intéressantes.
La variable dépendante étant continue, vous décidez de la rendre binaire, sur la base
de la médiane de la variable, pour obtenir deux groupes de taille équivalente. La
tendance à la recherche de stimulation et la tendance à la recherche d’information sont
des scores factoriels issus d’analyses en composantes principales.

1. Étape 1 : vérification des contraintes d’utilisation


L’analyse discriminante est fondée sur deux contraintes de base : absence de corrélation des
variables explicatives entre elles et égalité des k matrices de variances-covariances de ces
\/|
variables au travers des groupes de la variable dépendante, si k est le nombre de groupes. Par
$|
ailleurs, il est recommandé de vérifier que les variables indépendantes suivent individuellement et
4$

approximativement une loi normale.


Pour la première contrainte, il n’existe pas, comme en régression, d’indicateurs tels que le VIF.
By

L’examen des corrélations se fait donc de manière très empirique


Exemple (suite)
La matrice des corrélations des quatre variables indépendantes montre un ensemble de
corrélations faibles, voire proches de zéro. À une exception près, elles ne dépassent
pas 0,2. On peut considérer que la contrainte est respectée.

Durée Recherche
Stimulation Enfants
des séjours d’information
Durée
séjours hors 1
domicile
Recherche
0,118 1
d’information
Stimulation 0,015 0,255 1
Nombre
0,115 – 0,032 – 0,170 1
d’enfants
\/|
$|
4$

La distribution des variables doit être normale. À nouveau le test unilatéral de Kolmogorov-
Smirnov se montre bien adapté.
By

Exemple (suite)
Deux variables ne respectent pas la condition puisque les tests amènent à rejeter
l’hypothèse nulle de normalité. Il s’agit de la durée des séjours et du nombre d’enfants
à charge.

Durée Recherche
Stimulation Enfants
des séjours d’information
N 302 303 287 301
Z de
Kolmogorov- 3,133 1,329 1,039 5,386
Smirnov
Signification
asymptotique 0,000 0,059 0,231 0,000
(bilatérale)
Dans cette situation, un examen des statistiques descriptives, notamment de forme, montre si l’écart
à la normalité des distributions est important ou non. Si c’est le cas, il faut envisager une
transformation des variables concernées ou les éliminer.

Exemple (suite)
Le tableau ci-dessous montre des coefficients d’asymétrie et d’aplatissement
relativement proches de zéro et des écarts moyenne-médiane modérés. Dans ces
conditions, il paraît raisonnable de continuer l’analyse.

Durée des séjours Enfants à charge


Moyenne 20,95 0,87
Médiane 21,00 0,00
Asymétrie 0,912 0,799
Aplatissement 1,058 – 0,515
\/|
$|
4$

La contrainte d’égalité des matrices de variances-covariances est souvent plus difficile à respecter.
Le test en M de Box pose l’égalité des matrices en hypothèse nulle. En cas de rejet de cette
hypothèse, on ne peut être sûr que la fonction discriminante garantira la plus faible probabilité
By

possible de mauvais classement des individus.


Cela étant, le test est sensible aux grandes tailles d’échantillon. Dans ce cas, le rejet de l’hypothèse
nulle est presque systématique. Il faut donc aborder le respect de cette contrainte avec
discernement.
La statistique du test est très complexe et nous ne la présenterons pas ici(356). Elle est approximée
par une valeur de F et suit les mêmes règles de décision.
Exemple
La valeur approchée de F est égale à 0,796. La probabilité d’observer cette valeur
avec les données de l’échantillon si l’hypothèse nulle est vraie est de 0,633
(« signification »). Il ne faut donc pas rejeter cette hypothèse. Rien ne prouve que les
deux matrices de variances-covariances sont différentes dans la population. On peut
donc admettre leur égalité.

M de Box 8,088
approximativement 0,796
ddl1 10
F
ddl2 277 217,206
signification 0,633

Avant de procéder à l’analyse discriminante proprement dite, on peut s’interroger sur la capacité
des variables indépendantes à classer les individus dans deux groupes bien distincts. Une série de
\/|
tests de différences de moyennes sur chacune des variables indépendantes permet de répondre à
$|
cette question. On peut utiliser des tests de Student ou des tests de Fisher. Les logiciels retiennent
4$

souvent cette dernière solution.


By

Exemple (suite)
Les différences de moyennes entre les deux groupes sont significatives pour trois
critères sur les quatre. Seule la tendance à la recherche d’information ne différencie
pas les individus. Ou plus exactement le test est significatif à 10 % seulement. Le
poids de cette variable dans la fonction discriminante sera donc faible, voire non
significatif. Pour l’instant, il peut être intéressant de la laisser dans l’analyse.

F ddl1 ddl2 Signification


Durée des séjours 42,070 1 276 0,000
Recherche d’information 2,907 1 276 0,089
Stimulation 5,264 1 276 0,023
Enfants à charge 23,488 1 276 0,000

2. Étape 2 : estimation des coefficients de la fonction discriminante


L’expression d’une fonction discriminante est la suivante :
D = a + b1X1 + b2X2 + ... + bkXk
avec : D = score discriminant, différent pour chaque individu,
bi = coefficients discriminants (à estimer).
Bien que similaire dans la forme à une équation de régression, cette expression mathématique
poursuit un objectif très différent. Elle doit servir à calculer des scores, qui permettront d’affecter
des individus à des groupes. Les coefficients bi sont donc choisis de manière à ce que le calcul
aboutisse à la « meilleure » séparation possible des individus. Nous ne rentrerons pas dans le
détail du calcul des coefficients(357).
L’analyse discriminante affecte à chaque objet/individu un score que l’on peut assimiler à une
moyenne pondérée des valeurs prises par cet objet sur les variables indépendantes.

Exemple (suite)
Les coefficients de l’équation discriminante sont les suivants (figure 14.38.).
Ces coefficients représentent les poids des différentes variables dans le calcul des
scores discriminants. La première série donne les coefficients calculés à partir des
\/|
variables centrées-réduites. La seconde série de coefficients est calculée à partir des
$|
variables brutes. C’est elle qui va servir pour le calcul des scores individuels.
4$

Le poids le plus important est affecté à la durée des séjours hors domicile, puis au
nombre d’enfants à charge. Il n’y a pas de variable jouant un rôle totalement
By

négligeable. Comme on le pressentait, toutefois, le poids de la tendance à la recherche


d’information est le moins élevé des quatre.
Figure 14.38. Coefficients de l’équation discriminante

Fonction Fonction
1 1
Durée des séjours 0,750 0,075
Recherche d’information 0,240 0,243
Stimulation – 0,308 – 0,311
Enfants à charge 0,529 0,538
– 2,038
Coefficients non
Coefficients standardisés
standardisés

3. Étape 3 : calcul des scores discriminants


On multiplie la valeur prise par un individu sur une variable indépendante par le coefficient affecté
à celle-ci ; puis on fait la somme de ces opérations sur l’ensemble des variables indépendantes
retenues.

Exemple (suite)
Le score d’un individu i sera égal à :
Di = – 2,038 + 0,075C1b + 0,243SFInf ○ Sub j – 0,311SFOSL + 0,538ENF
Les valeurs prises par l’individu 1 sur les quatre variables indépendantes sont :

Durée Recherche
Stimulation Enfants
des séjours d’information
7 0,73409 – 0,98948 0

Le calcul du score discriminant de cet individu (le principe étant identique pour les autres) est égal
à: \/|
D1 = – 2,038 + 0,075 × 7 + 0,243 × 0,73409 – 0,311 × – 0,98948 + 0,538 × 0 = – 1,02689
$|
4$

Les scores discriminants servent de base à la réaffectation des individus aux groupes. Comme la
By

« vraie » composition des groupes est déjà connue, les scores calculés vont par conséquent
permettre de reconstituer deux groupes. La comparaison des quatre groupes – les deux observés et
les deux reconstitués – sera le critère principal de qualité de l’analyse.
Techniquement, l’affectation aux groupes se fait en fonction des centroïdes de ces derniers, c’est-à-
dire par comparaison avec un score discriminant « moyen » pour chaque groupe. Ce score moyen
est calculé à partir de la fonction discriminante, où l’on remplace les valeurs individuelles par les
moyennes des variables indépendantes pour le groupe dont on s’occupe.

Exemple (suite)
Les scores discriminants moyens pour les deux groupes sont :

Fonction
Budget annuel en €
1
moins de 1 500 – 0,615
1 500 et plus 0,427
Les moyennes des quatre variables indépendantes pour les deux groupes sont égales à :

Budget annuel Moyenne


Durée des séjours 16,3333333
Recherche d’information – 0,1596921
moins de 1 500
Stimulation 0,1670644
Enfants à charge 0,5526316
Durée des séjours 24,2987805
Recherche d’information 0,0454496
1 500 et plus
Stimulation – 0,1106314
Enfants à charge 1,1341463

Le calcul du score discriminant moyen, pour le groupe 1 par exemple, se fait ensuite simplement (la
différence avec le chiffre donné ci-dessus – 0,615 – est due aux arrondis de calcul) :
D1 = – 0,238 + 0,0075 × 16,33 + 0,243 × – 0,16 – 0,311 × 0,167 + 0,538 × 0,553 = – 0,606

\/|
Chaque score discriminant individuel est ensuite comparé aux deux scores moyens et affecté au
groupe dont il est le plus proche. À partir de quel score va-t-on affecter les individus au groupe 2 et
$|
non plus au groupe 1 ? Ce score « frontière » est la moyenne pondérée, par les tailles des groupes,
4$

des scores moyens. Il est égal à(358) :


By

Où : D1 et D2 sont les scores discriminants moyens pour les groupes 1 et 2, et n1 et n2 les tailles des
groupes 1 et 2.

Exemple
Le score frontière, pour notre exemple, est :

4. Étape 4 : interprétation de la fonction discriminante


On examine le caractère significatif et le pouvoir explicatif global de la fonction. Cela permet en
outre, si plusieurs fonctions sont identifiées, de sélectionner les fonctions pertinentes. Trois
indicateurs sont à prendre en compte :
a. Pourcentage de variance reproduite
Chaque fonction discriminante a une valeur propre, qui représente une certaine fraction de
l’information initiale. S’il n’y a qu’une fonction discriminante, ce pourcentage est de 100 %, mais
dès qu’il y en a deux ou plus, le choix se fait comme en ACP, c’est-à-dire par « saut » décroissant
important dans la restitution de variance produite par les fonctions.
b. Corrélation canonique globale
Plus cette mesure d’association globale entre la variable dépendante et la nouvelle variable
constituée des scores discriminants est proche de 1, meilleure est l’adéquation entre les groupes
constitués et les variables ayant servi à construire ces groupes. En l’élevant au carré, on obtient le
coefficient de détermination (R2), interprété comme le pourcentage de variance de la variable
dépendante expliqué globalement par le modèle.
c. Lambda de Wilks
C’est le rapport de la variation intra-groupes à la variation totale. La variation intra-groupes est,
pour chaque groupe, la somme des carrés des différences entre les scores discriminants individuels
et le centroïde du groupe. La variation totale est la somme des carrés entre tous les scores
discriminants individuels et le score discriminant moyen global. Lorsque les centroïdes sont égaux
\/|
pour tous les groupes, λ = 1. Dans ce cas, on ne peut faire aucune distinction entre les groupes et la
fonction discriminante n’a pas d’intérêt. Il faut que le λ de Wilks soit inférieur à 1. Il est
$|

accompagné d’un test, qui transforme le λ en une statistique distribuée selon une loi du χ2, dont
4$

l’hypothèse nulle est que les centroïdes sont égaux.


By

Exemple
La corrélation canonique est moyenne. Les scores discriminants calculés ne sont donc
pas parfaitement associés aux scores sur la variable dépendante, ce qui indique que la
fonction aura probablement du mal à reclasser correctement les individus.

Valeur % de la Corrélation
Fonction Cumulé
propre variance canonique
1 0,265 100,0 100,0 0,457

Le carré de 0,457 est égal à 0,209. Le « modèle » (i.e. les quatre variables constitutives de la
fonction discriminante) ne contribue qu’à 20,9 % de l’information de la variable dépendante.
Le lambda de Wilks est bien inférieur à 1. Le test est significatif et amène à rejeter l’hypothèse
nulle d’égalité des centroïdes. On peut en conclure que l’existence des deux groupes est justifiée, et
que la fonction discriminante explique une partie non négligeable des différences entre ces derniers.
Lambda
Fonctions Khi-deux ddl Signification
de Wilks
1 0,791 64,339 4 0,000

La contribution individuelle des variables indépendantes à la fonction discriminante peut également


être examinée. On calcule alors les corrélations simples entre chaque variable et la variable
« scores discriminants individuels ».

Exemple (suite)
La fonction discriminante est essentiellement interprétable à partir de la durée des
séjours hors domicile. Comme le signe est positif, cela signifie que les individus ayant
des valeurs élevées sur cette variable auront également des scores discriminants
élevés et inversement. À un moindre degré, le nombre d’enfants contribue également à
la fonction discriminante. Les autres coefficients sont négligeables.
\/|
Fonction
$|

1
4$

Durée des séjours 0,759


By

Enfants 0,567
Stimulation – 0,268
Recherche d’information 0,199

5. Étape 5 : évaluation de la qualité de l’analyse


On regarde surtout la capacité de la fonction discriminante à reclasser correctement les individus.
Pour cela, on utilise la matrice de confusion. Il s’agit d’un tableau à double entrée où l’on croise la
composition d’origine, ou « réelle », des groupes (en lignes) et la composition « prédite » (i.e.
recalculée) de ces derniers (en colonnes). Le résultat final est un pourcentage de cas « bien
classés ». Évidemment, plus ce pourcentage est élevé, meilleur est le résultat.
Exemple
La matrice de confusion de notre exemple est présentée dans la figure 14.39.
Figure 14.39. Matrice de confusion

On s’aperçoit, en examinant la matrice, que la fonction discriminante est plus


performante pour les individus du groupe 2 (77,4 % de cas bien classés) que pour les
individus du groupe 1 (59,6 % de bien classés seulement). Globalement,
68 + 127 = 195 individus sont correctement reclassés, soit 70,1 % du total.
\/|
$|
Le pourcentage d’individus correctement reclassés ne peut malheureusement pas être analysé
4$

dans l’absolu. Il doit être comparé au pourcentage que l’on obtiendrait si l’on reclassait les
individus au hasard. Le cas le plus simple est celui où l’on a deux groupes de tailles égales :
By

chaque individu a alors une chance sur deux d’appartenir à un groupe donné. Dans le cas général,
on utilise un critère de référence :
Cpro = p2 + (1 – p)2
Où :Cpro est le critère de référence dit « proportionnel »,
p est la proportion observée d’individus dans le groupe 1,
(1 – p) est la proportion observée d’individus dans le groupe 2.
Exemple
Figure 14.40. Probabilités a priori des groupes

Observations utilisées dans


A l’analyse
Budget annuel
priori
Non pondérées Pondérées
moins de 1 500 0,410 114 114,000
1 500 et plus 0,590 164 164,000
Total 1,000 278 278,000

Le premier groupe compte 114 individus, soit 41 % de l’effectif et le second groupe compte
164 individus, soit 59 % de l’effectif. On a donc p = 0,41 et (1 – p) = 0,59. Le calcul du coefficient
donne :
Cpro = p2 + (1 – p)2 = 0,412 + 0,592 = 0,5162 \/|
$|

Le test Q de Press vérifie ensuite que le pourcentage d’individus correctement classés est bien
4$

significativement plus important que celui donné par un critère aléatoire (quel qu’il soit). Il ajuste
le nombre d’individus correctement classés à la taille d’échantillon et au nombre de groupes. La
By

statistique calculée suit une loi du χ2 à 1 degré de liberté. L’hypothèse nulle pose que le nombre
d’individus bien classés au hasard et le nombre d’individus bien classés par la fonction
discriminante sont égaux. L’expression de ce test est(359) :

où :n = taille d’échantillon,
nc = nombre d’individus correctement classés,
k = nombre de groupes.

Exemple

La valeur critique du χ2 à 1 degré de liberté étant, pour α = 5 %, égale à 3,84,


l’hypothèse nulle doit être rejetée. La fonction discriminante est donc significativement
plus performante que le hasard pour reclasser correctement les individus.
L’analyse peut être considérée comme achevée. Certains détails peuvent néanmoins être précisés.
– On doit en principe « calibrer » et valider la/les fonction(s) discriminantes sur deux échantillons
différents. À défaut, et sous réserve de posséder un échantillon de grande taille, on peut diviser
aléatoirement l’échantillon en deux parties égales : l’une sert au calcul des paramètres, l’autre à la
classification. Ceci permet d’avoir une meilleure idée des capacités prédictives de la fonction pour
des individus totalement nouveaux et extérieurs à l’échantillon.
– Les logiciels statistiques utilisent une procédure d’affectation aux groupes plus sophistiquée que
la comparaison des scores individuels aux centroïdes de groupes, qui reste néanmoins valide. En
général, cette procédure est fondée sur une adaptation du théorème de Bayes et l’utilisation de
probabilités conditionnelles.
– L’interprétation des fonctions discriminantes est naturellement plus délicate en cas d’analyse
discriminante multiple, puisqu’elles sont plusieurs(360).
– Les variables indépendantes peuvent être introduites une à une selon une approche « pas à pas »
(stepwise). Seules celles ayant un réel pouvoir discriminant entre les groupes sont retenues.

Conclusion
\/|
Les méthodes d’analyses multivariées poursuivent des objectifs assez contrastés. Les méthodes
descriptives cherchent simplement à faire une synthèse des informations contenues dans un
$|
ensemble de variables. Pour des données métriques, on utilise l’analyse factorielle. L’analyse des
4$

correspondances (simple ou multiple) sert pour des variables nominales. À partir de variables
choisies a priori, les méthodes d’analyse typologique construisent des groupes d’individus le plus
By

homogènes possible. L’analyse des similarités et des préférences transforme des distances
perceptuelles entre objets, obtenues par exemple par des classements, en distances objectives
projetées sur un plan que l’on nomme « carte perceptuelle ».
Les techniques explicatives isolent une ou plusieurs variables. Les autres servent à expliquer la
manière dont les premières varient. La régression multiple fait appel à plusieurs variables
indépendantes métriques. L’analyse discriminante prédit l’appartenance d’un individu à l’une des
catégories constitutives d’une variable dépendante.
Les méthodes d’analyses multivariées sont complexes, mais en même temps indispensables parce
que riches d’informations que les méthodes univariées et bivariées ne peuvent fournir.
Test de connaissance
(Cochez une seule réponse par question.)
Q1. L’analyse en composantes principales vise à :
(1) synthétiser un ensemble de variables métriques
(2) expliquer des distances entre objets sur des variables ordinales
(3) représenter graphiquement une relation entre plusieurs variables catégorielles
Q2. En AFC, l’interprétation des axes se fait notamment au moyen :
(1) des valeurs propres de ces axes
(2) des contributions des modalités des variables à l’inertie des axes
(3) des tests du χ2 sur les tableaux de contingence de départ
Q3. Dans une typologie, les distances entre objets (variables nominales)
se calculent par :
(1) la distance euclidienne \/|
(2) la corrélation des rangs de Spearman
$|

(3) l’indice de Jaccard


4$

Q4. Le stress, lors d’une analyse des similarités, indique une bonne performance :
By

(1) lorsqu’il est proche de 1


(2) lorsqu’il est proche de 0
(3) lorsqu’il est proche de 0,5
Q5. En analyse discriminante, le lambda de Wilks évalue :
(1) l’égalité des tailles de groupes
(2) l’égalité des scores discriminants moyens des groupes
(3) le rapport de la variation intra-groupes à la variation totale
Réponses : voir annexes téléchargeables sur www.vuibert.fr

Bibliographie
BERENSON M. L., LEVINE D. M. et GOLDSTEIN M., Intermediate Statistical Methods and
Applications. A Computer Package Approach, Prentice-Hall, Englewood Cliffs, 1983.
BERENSON M. L., LEVINE D. M., KREHBIEL T. H. et STEPHAN D. F., Basic Business Statistics,
12e édition, Prentice-Hall, 2011.
DILLON W. R. et GOLDSTEIN M., Multivariate Analysis. Concepts and Applications, John Wiley &
Sons, New York, 1984.
GREEN P. E., CARMONE F. J. Jr. et SMITH S. M., Multidimensional Scaling. Concepts and
Applications, Allyn & Bacon, Boston, 1989.
GREEN P. E., TULL D. S. et ALBAUM G., Research for Marketing Decisions, 5e éd., Prentice-Hall
International, Londres, 1988.
HAIR J. F. Jr., BLACK W. C., Babin B. J. et ANDERSON R. E., Multivariate Data Analysis. A Global
Perspective, 7e éd., Pearson Education, New York, 2013.
JOHNSTON J., Méthodes économétriques, vol. 1, Economica, Paris, 1985.
JOLIBERT A. et JOURDAN P., Marketing Research. Méthodes de recherche et d’études en marketing,
2e édition, Paris, Dunod, 2011.
LAMBIN J.-J., La recherche marketing, McGraw-Hill, Paris, 1990.
MALHOTRA N. K., DÉCAUDIN J. M., BOUGUERRA A. et BORIÈS D., Études marketing avec SPSS,
6e édition, Paris, Pearson Education France, 2014.
WONNACOTT T. H. et WONNACOTT R. J., Statistique, 4e éd., Economica, Paris, 1991.
\/|
$|
4$
By
Chapitre 15

Expérimentation et modélisation en marketing


Expérimenter, c’est imaginer.
NIETZSCHE

Les chapitres précédents ont permis d’introduire un certain nombre de techniques d’analyse de
données et d’illustrer leur fonctionnement au moyen d’exemples concrets. Celui-ci est rédigé dans
le même esprit. Nous y présentons trois méthodes permettant de traiter des données expérimentales.
Le concept d’expérimentation est au cœur de ce chapitre. Nous tenterons de montrer son intérêt
pour la mise en évidence de phénomènes importants en marketing. Il s’agit en effet de mettre au jour
des relations de cause à effet entre variables.
\/|
$|
Les inférences causales sont directement dépendantes de la manière dont les informations sont
collectées et pas du tout de la méthode de traitement des données. Si la méthode de collecte a été
4$

pensée pour faire émerger, le cas échéant, des liens de causalité entre variables, alors les trois
familles de méthodes abordées dans ce chapitre ont une portée explicative et/ou prédictive
By

supérieure à celles étudiées jusqu’à présent.


Ce chapitre est scindé en trois parties. La première est consacrée aux méthodes expérimentales de
collecte de données. La validité de ces dernières dépend de la rigueur avec laquelle le
« protocole » de collecte a été mis en place. La deuxième partie abordera le traitement et l’analyse
de ces informations. L’analyse de variance et l’analyse conjointe sont deux familles de méthodes
permettant de comparer la réponse d’individus à différents types de « traitements » expérimentaux.
Nous terminerons ce chapitre par une introduction à la modélisation par équations structurelles.
Figure 15.1. Plan du chapitre

\/|
$|
I. Collecter des données au moyen d’un plan d’expérience
4$

Le concept de causalité est important pour comprendre la suite de ce chapitre. Il fait l’objet d’un
premier point. Les différents « plans expérimentaux » utilisables en marketing sont présentés
By

ensuite. La validité et les limites des méthodes expérimentales termineront cette première partie.

A. Qu’est-ce qu’un lien de cause à effet ?


La pratique des études marketing conduit très fréquemment à se poser des questions qui obligent, si
l’on veut y répondre, à raisonner en termes de relations causales.

Exemple
Une augmentation de 5 % du prix du produit va-t-elle provoquer une baisse
significative de la demande ? Redessiner le packaging de manière à ce qu’il offre une
meilleure prise en main et attire davantage le regard en linéaire va-t-il permettre de
faire entrer la marque dans l’ensemble évoqué des consommateurs ?

Des recherches descriptives permettent parfois de répondre à ce type de questions. Néanmoins, et


bien qu’ils soient clairement plus complexes à mettre en œuvre, les plans d’expérience sont bien
mieux adaptés au traitement de ces questions. C’est ce que ce chapitre s’efforcera de montrer. Pour
cela, il est nécessaire de bien comprendre les concepts de cause et de causalité. Nous en
proposerons donc tout d’abord quelques explications et définitions générales. Nous décrirons, dans
un second temps, les manifestations empiriques qui permettent de conclure à l’existence d’une
relation de cause à effet.

1. Concepts de cause et de causalité


Définie couramment comme un « événement antécédent, action qui produit un effet »(361), la notion
de cause a, en français, une étymologie latine datant du XIIe siècle qui se réfère au concept de
principe, ou d’origine. Mais dès les premiers philosophes grecs, comprendre l’idée de cause
revient à comprendre l’origine, la constitution et le devenir de ce qui est. Or l’homme ne saisit
directement, par les sens et par l’intelligence, qu’une infime partie du réel. La recherche des causes
va alors apparaître comme le moyen privilégié d’élaborer une stratégie de connaissance qui puisse
permettre à l’esprit d’avancer des hypothèses touchant la nature dans son ensemble. Platon en
résume l’importance par : « car il est impossible que quoi que ce soit puisse naître sans cause »
(Timée, 28 a).
Aristote a inspiré un modèle de causalité en quatre dimensions : la cause formelle, la cause
efficiente, la cause matérielle et la cause téléologique. On parle de cause formelle lorsque certains
attributs d’une chose déterminent d’autres attributs d’une chose. La forme d’une aile d’avion, par
exemple, est une cause directe de la portance qui s’exerce sur elle. La cause efficiente est liée aux
manipulations d’une variable destinées à produire un changement dans un effet observé. Si l’on
\/|
chauffe un fluide (air, eau), la vitesse des molécules qui le composent va s’accélérer. La science
$|
s’intéresse essentiellement à cette forme de causalité, mais les manipulations sont parfois difficiles.
Par exemple, on connaît depuis longtemps l’effet de la force de gravité sur les orbites des planètes.
4$

Pour autant, cette force n’est pas manipulable directement. La cause matérielle consiste à expliquer
l’état de certaines choses par l’existence même des éléments qui les composent. On notera ici une
By

certaine proximité, tout de même, avec l’idée de cause formelle. La cause téléologique, enfin,
revient à essayer d’expliquer certains processus par les buts finaux vers lesquels ils semblent
s’acheminer. La théorie moderne des attracteurs étranges ou certaines idées de la théorie de
l’évolution illustrent cette dimension de la causalité.
Ces fondements sont encore largement à l’œuvre dans la pensée scientifique contemporaine. Cela
étant, ils sont d’une portée opérationnelle moindre, pour le marketing, que l’étude des
manifestations concrètes de la causalité. C’est le point que nous abordons donc maintenant.

2. Manifestations empiriques de la causalité


Le point de vue moderne sur la causalité a beaucoup évolué depuis les positivistes de la fin du
XIXe siècle. En premier lieu, l’idée d’une cause unique à un phénomène a fait son temps. On parle
aujourd’hui, particulièrement en sciences humaines, de faisceaux de causes. En second lieu, on
admet qu’une relation de cause à effet puisse être un phénomène probabiliste plutôt que purement
déterministe.
Exemple
Au lieu de dire : « Pour que X soit une cause de Y, la manifestation de X doit toujours
provoquer l’effet Y », on admet maintenant que « X peut être une cause de Y si
l’occurrence de X rend l’occurrence de Y plus probable ».

Enfin, on ne peut jamais prouver que X est cause de Y. Tout au plus peut-on l’inférer, à partir de
preuves empiriques obtenues par l’expérience. Cela étant, la « vraie » causalité est du domaine
d’un monde « réel » qui nous est inaccessible en raison de l’imperfection de nos sens et de nos
instruments de mesure.
Ceci pose donc la question de la nature de la preuve empirique permettant d’inférer une relation de
cause à effet entre deux variables. On en distingue généralement quatre(362).

a. Variation concomitante
Une relation d’association ou de covariation entre deux variables est une condition nécessaire
(mais non suffisante) à l’existence d’un lien de cause à effet. Cette relation peut être de nature
qualitative ou quantitative. Dans le premier cas, elle est mesurée par un test de contingence du χ2 et
dans le second par un coefficient de corrélation linéaire. Attention, bien entendu, aux phénomènes
\/|
d’association fallacieuse, présentés dans les chapitres précédents.
$|

b. Ordre de manifestation des variables dans le temps


4$

La cause doit précéder chronologiquement l’effet. Selon les phénomènes étudiés, le temps
By

nécessaire à ce que la cause produise son effet peut être plus ou moins long.

Exemple
En physique des particules, les expériences produisent des effets à l’intérieur de
fractions infinitésimales de temps. L’augmentation du taux de gaz carbonique dans
l’atmosphère modifie le climat à l’échelle du siècle au moins.

Parfois, l’ordre chronologique d’apparition des phénomènes est difficile à analyser. L’augmentation
du budget publicitaire augmente-t-elle les ventes, ou est-ce le contraire ?
c. Élimination des autres sources possibles de causes
De très nombreux phénomènes, et particulièrement en sciences humaines, sont « multifactoriels ». Il
importe de pouvoir contrôler ou éliminer l’effet de certains facteurs sur la relation principale
étudiée.

d. Rôle des preuves et de la théorie


Ces trois conditions doivent être réunies pour identifier des relations de cause à effet, mais elles ne
les garantissent pas. Sans théorie sous-jacente ni accumulation de preuves expérimentales au cours
du temps, un effet observé isolément peut être fortuit.
Les plans d’expérience sont fondés sur ces principes. Abordons maintenant leur construction.

B. Comment mettre en place un plan d’expérience ?


Dans la pratique scientifique, le mot « expérience » désigne une « démarche au cours de laquelle
l’expérimentateur manipule et/ou contrôle les valeurs prises par une ou plusieurs variables et
observe les effets concomitants de cette action sur les valeurs prises par une autre variable »(363).
Un plan expérimental (ou plan d’expérience) est par conséquent un dispositif qui définit
précisément l’organisation d’une expérience, de manière à minimiser les sources de biais et à
optimiser la validité de l’information recueillie. Les plans expérimentaux reposent sur un certain
nombre de concepts communs :
– unité expérimentale : c’est un « objet » au sens statistique (individu, entreprise, magasin...) qui
subit un traitement lié à une ou des variable(s) contrôlée(s) ou manipulée(s) et dont les réponses sur
une variable à expliquer sont mesurées. On parle aussi de « sujet », le plus souvent lorsqu’il s’agit
d’individus ; \/|
– facteur : c’est une variable explicative, soit contrôlée (i.e. simplement prise en compte), soit
$|
manipulée pour en mesurer les effets sur une variable à expliquer ;
4$

– niveau : c’est une valeur possible d’un facteur. Généralement, on travaille avec des facteurs à
deux ou trois niveaux. Au-delà, la complexité du plan devient difficile à gérer ;
By

– variable à expliquer : elle exprime la réponse faite par l’unité expérimentale au traitement. Le
plus souvent, on définira comme variable à expliquer un comportement, une attitude, un niveau de
ventes... Elle a le même statut que la variable à expliquer d’une analyse de régression, par
exemple ;
– traitement : c’est l’ensemble des facteurs, contrôlés et/ou manipulés, auxquels une unité
expérimentale est soumise lors de l’expérience. Le nombre de traitements possibles dans une
expérience donnée est le produit du nombre de niveaux de l’ensemble des facteurs pris en compte.

Exemple
Un message publicitaire avec musique et arguments rationnels est un traitement fondé
sur deux facteurs (musique et argumentation). Un autre traitement serait « sans musique
et avec arguments émotionnels ». Dans cette expérience à deux facteurs mesurés à deux
niveaux chacun, il y a quatre traitements possibles (2 × 2).

Il existe plusieurs manières de collecter des données expérimentales. On parle de méthodes


expérimentales au sens strict lorsque l’affectation des unités expérimentales aux traitements est
aléatoire (i.e. par tirage au sort). Dans le cas contraire, on parle de méthodes quasi-
expérimentales.
Il existe une grande variété de plans expérimentaux. On distingue généralement les plans à un
facteur et les plans à deux facteurs ou plus, appelés également plans statistiques.

1. Plans à un facteur
Ils se distinguent selon l’utilisation, ou non, de « groupes de contrôle », qui ne subissent pas le
traitement.
a. Un groupe mesuré après le traitement, sans contrôle
Il s’agit d’appliquer le traitement à un groupe d’unités expérimentales et d’en mesurer les effets.

Exemple
Un message publicitaire en faveur de la lutte anti-tabac est diffusé pendant une
émission dont le sujet est la musique techno sur une chaîne s’adressant à une cible
jeune. Une enquête téléphonique réalisée immédiatement après la diffusion auprès d’un
échantillon de téléspectateurs fumeurs et âgés de 15 à 24 ans montre que 25 % d’entre
\/|
eux expriment leur intention d’arrêter de fumer. Le message a-t-il été efficace ?
$|
4$

Le problème de ce plan est l’absence de base de comparaison. Quelle est l’intention d’arrêter de
fumer chez les jeunes fumeurs n’ayant pas été soumis au message ? Ce plan n’a d’intérêt que
By

lorsqu’il s’agit de comparer l’effet de plusieurs traitements.

Exemple
On teste deux prototypes de message publicitaire anti-tabac. Ils sont strictement
identiques sauf pour la musique : rap pour l’un, techno pour l’autre. On répartit
aléatoirement 80 jeunes âgés entre 15 et 24 ans en deux groupes. Un groupe est exposé
au message rap, l’autre au message techno. Les pourcentages d’individus convaincus
sont respectivement de 26 % pour le message rap et 31 % pour le message techno.

L’effet mis en évidence ne peut être que relatif. On identifie le meilleur traitement sur les deux
testés, sans plus. Dans ce cas, il faudrait bien sûr retenir le message « techno »(364). Mais le faible
taux d’acceptation indique que d’autres éléments entrent en ligne de compte et que c’est peut-être
toute la stratégie de communication qui est à revoir.
Ce type de plan est relativement bien adapté en cas de lancement de nouveau produit ou, plus
généralement, de mise en place d’une nouvelle activité pour laquelle on ne peut pas, techniquement,
faire de mesure « avant ». Il est assez bien adapté à la sélection a priori de différentes solutions de
marketing opérationnel(365).
b. Un groupe, mesuré avant et après le traitement, sans contrôle
Ce plan donne une base de comparaison en mesurant la variable à expliquer avant l’affectation des
unités expérimentales au traitement.

Exemple
On observe les ventes moyennes hebdomadaires d’un produit pendant un certain
temps, dans un magasin. On change la disposition de ce produit (e.g. on le monte à
hauteur des yeux s’il était plus bas). On mesure ensuite ces mêmes ventes
hebdomadaires moyennes, pendant la même période et « toutes choses égales par
ailleurs ».

Une différence entre les deux chiffres moyens de ventes est un indicateur intéressant de l’impact du
changement de position dans le rayon. Il faut néanmoins l’analyser avec prudence. En effet, de
nombreux événements ont pu se produire entre les deux mesures, dont l’effet sur les ventes serait
beaucoup plus important. Par exemple, une vague de chaleur s’il s’agit d’une boisson fraîche ou
d’une crème glacée.
Par ailleurs, l’expression « toutes choses égales par ailleurs » reste assez théorique. Dès lors que
\/|
des jugements et comportements humains sont en jeu, il est impossible de contrôler l’ensemble des
$|
événements susceptibles d’avoir un effet sur la variable à expliquer. C’est une limite à la validité
4$

des résultats.
Toutefois, certaines méthodes statistiques utilisent un terme d’erreur pour tenir compte de tous ces
By

événements incontrôlés. L’analyse de régression ou l’analyse de variance en sont deux exemples.


Ces méthodes doivent être privilégiées pour le traitement des données expérimentales. Par ailleurs,
le soin consacré à la mise en place d’une expérience est un investissement rentable, puisqu’il
accroît la confiance dans les résultats finaux.

c. Deux groupes, mesurés après le traitement, avec groupe de


contrôle
Le groupe de contrôle, ou groupe témoin, ne reçoit pas le traitement. Il est comparable au groupe
expérimental dans sa composition quantitative et qualitative. L’affectation aléatoire du traitement
aux sujets est donc importante, pour limiter le risque de biais de sélection.
Pour le plan « après avec groupe de contrôle », on fait l’hypothèse que les événements extérieurs
influencent les deux groupes de la même manière. Ceci rend la comparaison des deux mesures plus
pertinente que dans le cas précédent, sans toutefois éliminer l’ensemble des effets pervers
potentiels.
Exemple
Le questionnaire sur les effets du tabac est également administré à un échantillon de
jeunes fumeurs de 15 à 24 ans non spectateurs de la chaîne, donc n’ayant pas été
soumis au message. Le pourcentage de répondants manifestant l’intention d’arrêter de
fumer est de 18 %. Il semblerait que le message ait été efficace.

d. Deux groupes, mesurés avant et après traitement, avec groupe de


contrôle
Ce plan produit une information intéressante. Si les traitements ont été affectés aléatoirement aux
groupes expérimentaux, on peut supposer que les événements extérieurs vont affecter les groupes de
la même manière. Les réponses de ces derniers ne différeront que par l’exposition au traitement.
Autrement dit, la différence observée entre les mesures « avant » et « après » dans le groupe de
contrôle est un bon indicateur de l’effet des influences extérieures subies par le groupe
expérimental. Dans ce dernier, en revanche, on aura l’effet combiné des influences extérieures et du
traitement.
e. Plan de Solomon \/|
$|
Il combine un plan « après avec contrôle » et un plan « avant/après avec contrôle ». C’est de loin le
plus complexe à mettre en œuvre, mais c’est aussi celui qui permet le meilleur contrôle des sources
4$

d’invalidité, toujours sous réserve de l’affectation aléatoire des traitements aux groupes
expérimentaux.
By

f. Synthèse
La figure 15.2. récapitule les caractéristiques de ces quatre plans. Ceux-ci doivent être utilisés dans
des situations relativement simples où l’effet d’une seule variable explicative doit être testé. Dans
ce contexte, ils sont performants. Il est bien entendu possible d’envisager la présence de trois
niveaux ou plus dans les plans. Dans ce cas, on s’intéresse à l’efficacité relative de chacun des
niveaux et on se ramène le plus souvent à un plan de type « après avec contrôle ». On parle alors de
« plan complètement aléatoire » (completely randomized design).
Figure 15.2. Synthèse des caractéristiques des plans expérimentaux à un facteur

Dans de nombreuses situations toutefois, le chargé d’études souhaite tester l’effet de deux facteurs,
voire plus. Par exemple, l’effet d’un changement de prix et de conditionnement sur les ventes d’un
produit. Il est alors nécessaire d’avoir recours à d’autres types de plans.

2. Plans à deux facteurs ou plus


Certains plans permettent de tester l’effet d’un facteur manipulé et de contrôler l’effet simultané
d’une ou plusieurs autres variables. D’autres plans permettent de mesurer l’effet conjoint de deux
\/|
(ou plus) facteurs manipulés. L’ensemble des plans à un facteur étudiés plus haut s’appliquent ici.
$|
On peut imaginer des plans avec ou sans groupe de contrôle et/ou avec ou sans mesure « avant ».
4$

a. Plans à variables contrôlées sans effets d’interaction


By

La figure 15.3. résume la situation.


Figure 15.3. Synthèse des plans à un facteur et variables contrôlées

Nombre de variables à contrôler


Une Deux Trois Quatre
Carré hyper gréco-
Type de plan Plan stratifié Carré latin Carré gréco-latin
latin

Plan stratifié (en bloc complet)


La variable dont on veut contrôler l’influence est catégorisée (si besoin) pour créer des strates. On
s’efforce de choisir un découpage minimisant la variance intrastrate et maximisant la variance
interstrates. Les unités expérimentales sont regroupées par strate, de façon à ce que cette variable
affecte l’ensemble des groupes (expérimentaux ou de contrôle) de la même manière. Ce modèle
suppose l’absence d’association entre le facteur manipulé et la variable contrôlée.
Exemple
Supposons une expérience destinée à tester l’effet de l’humour pour un message
publicitaire dans le domaine des cosmétiques féminins. La variable à expliquer est le
score d’agrément et on suppose que celui-ci varie selon le genre du récepteur. La
variable contrôlée sera donc le sexe (masculin/féminin), et la variable manipulée (le
facteur) sera l’humour (présence/absence dans le message). Les unités expérimentales
sont regroupées en fonction de leur sexe et le traitement leur est aléatoirement affecté
(diffusion d’un message sans humour ou diffusion d’un message avec humour).

Carré latin
L’inconvénient du plan stratifié est d’être limité à une seule variable contrôlée. Le carré latin
permet de contrôler deux variables, toujours en supposant une absence d’interaction entre celles-ci,
et sous contrainte d’égalité du nombre de niveaux de chacune d’entre elles (facteur et variables à
contrôler).
Un plan en carré latin se présente sous forme d’un tableau dont les lignes et les colonnes
correspondent aux « blocs » des variables contrôlées. Les niveaux du facteur (i.e. la variable
\/|
manipulée) sont ensuite affectés aux « cellules » du tableau, de manière à ce qu’ils n’apparaissent
$|
qu’une seule fois par ligne et une seule fois par colonne.
4$
By

Exemple
On veut tester l’impact d’une baisse de prix (facteur manipulé) sur les ventes d’un
produit de soin personnel (variable à expliquer). On suppose que la « réponse » du
marché diffère selon le type de magasin (variable de contrôle 1) et selon la « richesse
vive » de la zone (variable de contrôle 2). Si chacune des trois variables explicatives
est mesurée à trois niveaux, on peut construire le tableau suivant :

Type de magasin
Richesse Grand Hard
Hyper/Super
vive magasin discount
Forte
Moyenne
Faible

Il reste maintenant à affecter les niveaux de prix aux neuf cellules du tableau. On le fait selon une
procédure aléatoire simple. Par exemple, le prix 1 (baisse de 5 %) est affecté à la cellule Hard
discount – Richesse forte, le prix 2 (baisse de 10 %) à la cellule Hyper/Super – Richesse moyenne
et le prix 3 (baisse de 20 %) à la cellule Hyper/Super – Richesse forte. On peut compléter la table
en respectant la règle de l’unicité de chaque niveau de prix par ligne et par colonne.

Type de magasin
Grand
Richesse vive Hyper/Super Hard discount
magasin
Forte prix 2 prix 3 prix 1
Moyenne prix 1 prix 2 prix 3
Faible prix 3 prix 1 prix 2

La décision suivante concerne le type de collecte à effectuer. Dans une telle situation, un plan de
type « après avec contrôle » pourrait être utilisé. On pourrait par exemple « affecter
aléatoirement » 5 magasins de chaque type dans chaque zone à chaque niveau de prix(366). Des
échantillons de 5 magasins pour chaque cellule proposeraient le prix normal et serviraient
d’échantillons de contrôle. Cela représente au total 90 magasins. L’information recueillie est la
\/|
différence moyenne de ventes dans chaque cellule. Dans ce cas, on parlerait de plan avec
$|
répétition, car le nombre d’unités expérimentales par traitement est supérieur à 1. Lorsqu’il est égal
à 1, on parle de plan sans répétition.
4$
By

Carrés gréco-latin et hyper gréco-latin


Ces deux plans s’inspirent du carré latin. Les mêmes présupposés s’appliquent, à la nuance près
que trois ou quatre variables externes peuvent, respectivement, être contrôlées.

b. Plans à deux facteurs (ou plus) manipulés


Le plan expérimental « idéal » est le plan factoriel complet. Il s’agit de tester l’effet de deux
facteurs ou plus mesurés chacun à plusieurs niveaux. On le présentera dans un premier temps.
Malheureusement, il est très difficile à mettre en œuvre et oblige bien souvent l’expérimentateur à
opérer une sélection dans le nombre de combinaisons de niveaux des facteurs (i.e. le nombre de
« traitements ») à tester. On parle alors de plan factoriel incomplet, que l’on abordera ensuite.

Plans factoriels complets


Un plan factoriel complet est un plan dans lequel tous les niveaux d’un facteur donné sont combinés
dans l’expérience avec tous les niveaux de tous les autres facteurs. Par conséquent, lorsque deux
facteurs ou plus sont pris en compte, le nombre de traitements différents augmente
exponentiellement.
Exemple
On souhaite tester l’influence de l’humour, de la musique et du type d’argument sur la
compréhension d’un message publicitaire, en contrôlant le sexe et l’âge. L’humour est
mesuré à deux niveaux (présent/absent), la musique à trois niveaux (classique, rock,
techno), le type d’argument à deux niveaux (rationnel/émotionnel). On considère
également 3 classes d’âge (< 25, 25-moins de 45, 45 et plus). Le nombre total de
cellules du plan sera de : 2 × 3 × 2 × 2 ×3 = 72. Si l’on admet que, pour des raisons de
validité statistique, il est nécessaire d’appliquer chaque traitement à au moins
30 personnes, alors la taille de l’échantillon nécessaire est 30 × 72, soit
2 160 personnes.

En outre, à partir de deux facteurs manipulés, des phénomènes d’interaction entre ces derniers
peuvent apparaître. Il faut donc tenir compte, non seulement de l’effet direct de chacun des facteurs,
mais également du « surcroît d’effet » occasionné par la présence simultanée des facteurs.

Exemple \/|
La présence d’humour et de musique techno dans un message publicitaire est
$|
probablement susceptible de renforcer l’acceptation du message auprès des moins de
4$

25 ans. Davantage, en tout cas, que la présence de musique techno seule ou d’humour
seul.
By

L’interaction entre deux facteurs peut être définie comme un effet différent de la somme des effets
des facteurs considérés individuellement. Quand elle est positive, il y a un effet de renforcement ou
de synergie (« 2 + 2 = 5 »). Elle peut également être négative.
Lorsque l’on tient compte des effets d’interaction, la complexité des plans augmente
considérablement. Dans un plan à trois facteurs, par exemple, il faut tenir compte des effets directs
des trois facteurs, puis des trois effets d’interaction entre facteurs pris deux à deux, puis de l’effet
d’interaction des trois facteurs pris ensemble.
Tout ceci incite l’analyste à bien réfléchir à son problème avant de construire son plan et de lancer
sa collecte de données. Si des hypothèses restrictives quant aux effets d’interactions peuvent être
formulées, à partir d’une réflexion théorique approfondie sur le sujet étudié ou d’une expérience
préalable dans le domaine, alors le nombre de traitements à appliquer peut être considérablement
réduit. La collecte et l’analyse des données s’en trouveront par conséquent très simplifiées. Ces
restrictions sur les effets d’interaction conduisent à mettre au point des plans factoriels dits
« incomplets ».

Plans factoriels incomplets


Pour construire des plans factoriels incomplets garantissant l’absence de corrélation entre les
niveaux des facteurs pris deux à deux, il faut que chaque niveau d’un attribut se présente face à
chaque niveau d’un autre attribut avec une fréquence proportionnelle à son apparition individuelle.
C’est la condition dite de « Plackett ». Autrement dit, l’égalité suivante doit être respectée :

où : (AiBj) est la fréquence d’apparition du couple où le facteur A est au niveau i et le facteur B au


niveau j,
Ai est la fréquence d’apparition du niveau i pour le facteur A,
Bj est la fréquence d’apparition du niveau j pour le facteur B,
N est le nombre total de traitements du plan.
Cette condition est systématiquement vérifiée dans les plans de type carré latin, en raison de leur
symétrie (le nombre de niveaux doit être le même pour tous les facteurs). En pratique, il est
possible de construire des plans factoriels asymétriques qui respectent tout de même la condition de
Plackett(367).
Ces quelques pages ont permis de montrer l’immense variété et, parfois, la grande complexité des
plans expérimentaux. La nécessité d’apporter un soin extrême à la construction du plan, dès lors que
l’on souhaite avoir recours à l’expérimentation, a déjà été soulignée. En pratique, il s’agit de
\/|
garantir la validité des informations recueillies. Que signifie validité dans le contexte des plans
$|
expérimentaux et quelles en sont les dimensions ?
4$
By

C. Validité des données expérimentales


Pour être autre chose qu’une dépense inutile, toute expérience doit être interprétable, reproductible
et généralisable. Pour cela il est nécessaire qu’elle soit valide. On distingue une dimension interne
et une dimension externe de la validité. Elles vont être abordées dans cet ordre.

1. Validité interne
La notion de validité interne est relative à la capacité que l’on a d’attribuer l’effet observé au(x)
facteur(s) contrôlé(s) et à rien d’autre.

Exemple
Si l’on teste l’effet d’une baisse de prix sur les ventes d’un produit, on parlera de
validité interne de l’expérience si l’on peut être raisonnablement sûr que
l’augmentation des ventes constatée est bien due à la baisse de prix manipulée, et non,
par exemple, à une campagne promotionnelle, à des sujets à faible pouvoir d’achat
particulièrement sensibles au prix, au type de magasin dans lequel l’expérience a été
réalisée...
La validité interne se préoccupe par conséquent de la solidité de la relation causale testée.
Techniquement, il s’agit de pouvoir mettre en évidence des effets statistiquement discernables au
seuil de confiance fixé. Pour y parvenir, il faut construire soigneusement le plan. On essaiera de
retenir les variables susceptibles a priori de produire les effets offrant le plus de contraste
possible. Autrement dit, il faut se baser sur une théorie et des hypothèses soigneusement élaborées.
En outre, il faut essayer d’éliminer, également, a priori toutes les sources d’erreurs ou de
problèmes susceptibles de masquer ces effets.
Bref, il faut se poser deux questions importantes, l’une d’ordre théorique, l’autre d’ordre pratique.
D’une part « l’effet que j’essaie de mesurer existe-il vraiment (théorie) ? » ; d’autre part « quelles
sont les différentes sources possibles de pollution de cet effet (pratique) ? »
La validité interne peut être mise en défaut par différentes sources de problèmes(368). Chacune de
ces sources de biais doit être prise en compte au moment des différentes prises de décisions lors de
la définition et de la mise en place de l’expérience.

2. Validité externe
On parle de validité externe lorsqu’il est possible de généraliser les résultats de l’expérience ou de
les extrapoler à d’autres situations comparables, par exemple les conditions réelles du marché.
Cette généralisation est à effectuer avec beaucoup de précautions, car les résultats ne sont jamais
intégralement adaptables, en raison du caractère artificiel, par construction, des expériences. La
\/|
validité externe est fonction du réalisme de l’expérience, et sera faible si les conditions
$|
expérimentales s’éloignent trop des conditions réelles du marché. Il s’agit donc de contrôler au
4$

mieux l’ensemble des dimensions de l’expérience sur ce point. Les conditions générales de
l’expérimentation doivent être telles que les variables exogènes prises en compte soient
représentatives de l’ensemble des variables intervenant dans la réalité.
By

D. Limites des méthodes de collecte de données expérimentales


Tout ce qui précède a permis de montrer que les plans d’expérience sont des outils puissants pour
tester l’effet de variables que l’on peut manipuler ou contrôler. À condition d’avoir soigneusement
préparé ces plans, on peut ainsi analyser des relations de cause à effet et accéder à un niveau de
compréhension des phénomènes étudiés que les collectes « en coupe » ne permettent pas.
Toutefois, les plans d’expérience ont également leurs limites, d’ordre technique ou plus général.

1. Limites techniques des plans expérimentaux


Les deux principaux présupposés techniques sous-jacents aux plans d’expérience sont parfois
restrictifs :
– Les plans stratifiés de type carré latin n’autorisent pas le test d’effets d’interaction entre facteurs.
Ainsi, même muni d’une théorie solide, un chargé d’études ne peut pas, en même temps, tester des
effets d’interaction et utiliser un plan factoriel incomplet.
– Toutes les variables non contrôlées ont le même effet sur les unités expérimentales. En effet,
supposer que l’une de ces variables puisse avoir un effet différent (supérieur ou inférieur)
reviendrait à l’identifier, donc à pouvoir l’inclure dans le plan. En inversant le raisonnement, on ne
peut pas laisser une variable identifiée hors du plan, car elle risquerait d’en perturber les résultats.

2. Limites d’ordre plus général


– Le manque de bases théoriques. Beaucoup d’expériences sont menées sans réelle réflexion
théorique a priori. Pourtant, les plans d’expérience impliquent la formulation d’hypothèses de
recherche explicites.
– Le peu de réalisme. C’est une critique assez fréquente des plans d’expérience, notamment de ceux
conduits en laboratoire. Un magasin laboratoire, même reconstitué à l’identique, n’est jamais un
« vrai » magasin. Le sujet n’y fait pas ses courses comme il le ferait dans la « vraie » vie. Il sait
qu’il est observé et sera interrogé, donc il modifie, même inconsciemment, son comportement.
– Le coût. Un plan expérimental est, par nature, plus long et plus complexe à mettre en œuvre
qu’une simple étude ad hoc. L’utilisation des plans d’expérience, dans la pratique professionnelle,
est donc réservée à des problèmes importants. Elle doit être confiée à des praticiens expérimentés.
Une fois les données recueillies, vient le temps de l’analyse.

II. Traiter des données issues de plans d’expérience


Toutes les méthodes statistiques permettent, d’une manière ou d’une autre, de traiter les données
\/|
recueillies au moyen d’un plan d’expérience. Pour un plan à un facteur mesuré à deux niveaux, par
$|
exemple, un simple test de différence de moyennes ou de proportions suffit (chapitre 12). En
4$

revanche, dès lors que le nombre de niveaux est supérieur à deux et, a fortiori, dès lors que le
nombre de facteurs augmente, il faut avoir recours à des méthodes plus sophistiquées.
By

Les deux méthodes les mieux adaptées au traitement des plans d’expérience sont l’analyse de
variance et l’analyse conjointe. La première offre une plus grande souplesse et permet de traiter un
très grand nombre de situations et de plans. La seconde est davantage adaptée à un certain nombre
de cas particuliers. Elles n’en restent pas moins toutes deux des outils précieux pour la pratique
marketing.

A. Analyse de variance
Autour d’un noyau commun, l’analyse de variance présente une grande variété de formes possibles.
Nous présenterons ici le modèle de base et proposerons une bibliographie plus spécialisée lorsque
cela sera nécessaire.
L’analyse de variance a pour objectif d’expliquer les variations d’une variable dépendante mesurée
au niveau métrique au moyen d’une ou plusieurs variables explicatives (i.e. les facteurs des plans)
catégorielles. Il est possible d’utiliser des variables de toute nature, y compris métriques à
condition de les recoder en un nombre de catégories relativement limité. L’analyse de variance
permet également d’analyser les effets d’interaction entre les facteurs.
On peut distinguer deux types d’analyses : celles portant sur des plans de type « après » (qu’il y ait
groupe de contrôle ou non) et celles portant sur des plans de type « avant/après ». Les premières
sont relativement simples et se distinguent par le nombre de facteurs à traiter qui, s’il est supérieur
à un, implique l’analyse des effets d’interaction. Les secondes font intervenir la notion de « mesures
répétées » et sont, de ce fait, plus complexes. Le cas de l’analyse de variance à un facteur, assez
simple, sera d’abord exposé, en guise de présentation générale de la méthode. On passera ensuite à
une analyse à deux facteurs avec effets d’interaction. Cette présentation se terminera par une
évocation rapide de l’analyse de variance sur mesures répétées(369) et de l’analyse de covariance.

1. Analyse de variance à un facteur


L’analyse de variance à un facteur s’applique à des situations extrêmement simples en matière
d’expérimentation. Trois éléments suffisent : une variable à expliquer, une variable explicative à
trois modalités ou plus et une affectation aléatoire des « unités expérimentales » au « traitement ».

\/|
$|
4$
By
Exemple
L’exemple qui va servir de fil rouge aux explications met en relation une croyance et
une variable d’intention de comportement, respectivement variable explicative et
variable à expliquer. La croyance est « Un produit acheté en VPC est plus cher que son
équivalent en grande distribution ». Elle a été mesurée sur une échelle de Likert à cinq
postes, puis recodée en trois catégories : « Pas d’accord » regroupe les deux premiers
échelons, « Neutre » est le troisième échelon resté inchangé et « D’accord » regroupe
les deux derniers échelons. L’intention de comportement (acheter en VPC dans les six
mois à venir) a été mesurée sur une échelle de probabilité à 11 échelons gradués de 0
à 100 par intervalle de 10. Elle peut être considérée comme une échelle de ratio. Les
répondants sont un échantillon de convenance de quarante étudiants Voici les données :

Pas d’accord Neutre D’accord


70 10 10
50 50 50
50 100 30
30 70 \/| 50
100 80 50
$|
40 50 20
4$

50 30 25
By

90 30 30
60 75 55
10 60 25
75 65 45
55 50 40
85 80
65
50

L’analyse de variance repose, comme l’analyse de régression, sur le « modèle linéaire général » et
sur un test statistique. Pour permettre de formuler des conclusions valides pour la population, les
deux supposent le respect d’un certain nombre de contraintes d’ordre technique. Elles seront
présentées un peu plus loin
Plus précisément, il s’agit d’une méthode permettant de conclure objectivement s’il existe dans la
population (dont on a extrait l’échantillon) des différences statistiquement discernables entre les
valeurs moyennes de la variable à expliquer dans les différents groupes que la (ou les) variables
explicatives permet(tent) de constituer.

Exemple
La nature de la croyance (positive, neutre ou négative à l’égard de la VPC) influence-
t-elle de manière statistiquement discernable l’intention d’achat dans la population ?
Pour cela, on calcule les scores d’intention moyens pour chacun des trois groupes. Ce
seront les données d’entrée de l’analyse de variance.

Pas d’accord Neutre D’accord


70 10 10
50 50 50
50 100 30
30 70 50
100 80 50
40 50
\/| 20
50 30 25
$|
90 30 30
4$

60 75 55
10 60 25
By

75 65 45
55 50 40
85 80
65
50
ni 13 15 12
Xi 58,846 57,667 35,833
si 25,096 22,980 14,434

Avant d’analyser ces résultats, revenons sur les contraintes d’utilisation de l’analyse de variance.
a. Contraintes d’utilisation de l’analyse de variance
Trois contraintes sont à respecter dans la population parente : les observations doivent être
indépendantes (les unes des autres), la variable à expliquer doit être distribuée selon une loi
normale dans chacun des groupes et la variable doit avoir la même variance dans chacun des
groupes (homoscédasticité).

Indépendance des observations


Le double recours à l’effet du hasard, à la fois dans la sélection des sujets et dans leur affectation
au(x) traitement(s), est supposé garantir le respect de la première contrainte. Indépendance signifie
que la valeur connue de l’une ne donne aucune information sur la valeur des autres. Dans le cas
contraire, le nombre de degrés de liberté s’en trouverait modifié, et l’on ne pourrait plus appliquer
les propriétés des lois statistiques.

Normalité et homogénéité des variances


Les deux contraintes suivantes permettent de s’assurer que les effets observés sont dus à des
différences dans la tendance centrale et non à des variations dans la dispersion des observations.
La contrainte de normalité est assez difficile à respecter, notamment lorsque l’échantillon est de
petite taille. Si l’on a de bonnes raisons de penser qu’elle ne l’est pas, alors une transformation sur
les données s’impose. Toutefois, l’analyse de variance est réputée robuste, c’est-à-dire que la
validité des résultats n’est pas remise en cause par une violation même modérée de cette contrainte.
Pour tester la normalité des distributions, on peut utiliser le test de Kolmogorov-Smirnov ou l’une
\/|
de ses extensions ou le test de Shapiro-Wilk (fiche technique 15.1.).
$|
4$

Exemple
By

Un test de Kolmogorov-Smirnov a été conduit pour tester la normalité de la


distribution de l’intention d’achat dans la population pour les trois groupes constitués
à partir de l’attitude à l’égard du prix. Voici les résultats :

Kolmogorov-Smirnov
Attitude (correction de Lilliefors) Shapiro-W
prix
Statistique ddl Signification Statistique ddl Si
Pas d’accord 0,131 13 0,200* 0,979 13
Intention Neutre 0,169 15 0,200* 0,971 15
D’accord 0,170 12 0,200* 0,929 12

On constate pour les trois groupes que les tests sont non significatifs, c’est-à-dire que l’hypothèse
de normalité de la distribution ne peut pas être rejetée. En effet, la « signification » (ou « p-value »)
du test, qui peut s’interpréter comme la probabilité de commettre une erreur de type I, dépasse le
seuil de risque conventionnel de 5 % (α).
L’analyse de variance est plus sensible à une violation de la contrainte d’homogénéité des
variances. Elle fausse les conclusions, surtout si les échantillons ne sont pas de même taille. Si les
gros échantillons ont des variances importantes, on peut alors rarement rejeter l’hypothèse nulle. On
en conclut, de manière erronée, à l’absence de relation entre les variables dans la population.

Fiche technique 15.1. Les tests de Lilliefors et de Shapiro-Wilk


1 – Le test de Lilliefors
C’est une variante du test de Kolmogorov-Smirnov qui estime les paramètres de la loi (μ et σ) à partir des
données observées. La statistique du test est calculée de la même manière, mais sa loi est tabulée différemment,
et les valeurs critiques sont modifiées pour un même risque α.
Les avis sont partagés quant à la puissance de ce test. Certains le déconseillent et préfèrent le test de Shapiro-
Wilk.
Source : http://eric.univ-lyon2.fr/~ricco/cours/cours/Test_Normalite.pdf
2 – Le test de Shapiro-Wilk
Il est réputé le plus puissant, notamment pour des petits échantillons (n ≤ 50). Son hypothèse nulle est
également la normalité de la distribution testée. À partir de données classées par ordre croissant, on calcule
toutes les différences :
di = xn-i+1 – xi
Soit : xn – x1 pour i = 1, xn – 1 – x2 pour i = 2 et ainsi de suite jusqu’à n/2, sans prendre en compte la médiane si n
\/|
est impair. On multiplie chaque différence par un coefficient ai lu dans une table (http://sn1.chez-
alice.fr/calculs/normale/norma_shapiro.html). On additionne et on élève au carré.
$|
On calcule également la somme des carrés des écarts à la moyenne (comme pour le calcul d’une variance), soit :
4$
By

La statistique du test s’écrit alors :

La valeur de W est comprise entre 0 et 1. Elle est comparée à une valeur critique, également lue dans la table,
liée à la taille d’échantillon et α. Dans notre exemple, cette valeur critique est égale à 0,94.
La statistique W peut être interprétée comme le coefficient de détermination (le carré du coefficient de
corrélation) entre la série des quantiles générés à partir de la loi normale et les quantiles empiriques obtenus à
partir des données.
Contrairement aux autres tests, plus la valeur calculée de W est élevée, plus la compatibilité avec la loi normale
est crédible. Les règles de décision s’écrivent donc à l’inverse de la plupart des tests : on ne rejette pas H0
(hypothèse de normalité) si la valeur calculée est supérieure à la valeur critique et on la rejette dans le cas
contraire.
Sources : http://www.jybaudot.fr/Tests/testsnormalite.html ;
http://eric.univ-lyon2.fr/~ricco/cours/cours/Test_Normalite.pdf

À l’inverse, si les échantillons de plus petite taille ont des variances élevées, alors le test devient
« libéral » et permet de rejeter l’hypothèse nulle dans la plupart des cas(370).
Lorsque cette contrainte n’est pas respectée, il existe des transformations (racine carrée ou
logarithmique) permettant de revenir à une situation où les variances sont égales(371).
L’interprétation est bien sûr plus délicate.
Le test adéquat est une variante du test de Fisher appelée test de Levene, qui s’interprète également
comme un test en F. La fiche technique 15.2. décrit le fonctionnement de ce test.

Exemple
Les résultats du test d’égalité des variances sont donnés dans le tableau ci-dessous :

Statistique de
ddl1 ddl2 Signification
Levene
1,095 2 37 0,345

L’hypothèse nulle étant l’égalité des variances, et le test s’interprétant comme le F de Fisher, on
constate que la valeur de la statistique est inférieure à la valeur critique de 3,257 (calculée par
interpolation linéaire car la table ne donne pas directement de valeur pour un degré de liberté égal
à 37 au dénominateur). Ou, ce qui revient au même, on constate que la « signification » est
supérieure au seuil α. L’hypothèse nulle ne peut donc pas être rejetée et les trois variances peuvent
\/|
être considérées comme égales dans la population.
$|

Si l’hypothèse de normalité tient mais que celle d’homogénéité des variances n’est pas remplie, il
4$

existe une variante de l’ANOVA, proposée par Welch. Elle sera évoquée plus loin.
By

Fiche technique 15.2. Test d’homogénéité des variances de Levene


Le test repose sur une grandeur Wij qui est la valeur absolue de la différence entre l’observation i du groupe j et
la moyenne X.j de ce même groupe j, soit :
Wij = xij – X.j
Si k est le nombre de groupes (échantillons) et n la taille de l’échantillon, la statistique du test s’écrit :

Où : W2.j est le carré de la somme des Wij pour le groupe j


W2.. est le carré de la « grande somme » de toutes les différences Wij

est la somme des carrés de toutes les différences Wij


nj est la taille du groupe (échantillon) j
Application (données fictives) :
On a une variable mesurée sur trois groupes de tailles respectives 3, 4 et 3 pour une taille d’échantillon totale de
10.
\/|
$|
4$
By

La partie gauche du tableau donne les valeurs observées et les moyennes dans chacun des groupes. La partie
droite donne les valeurs des Wij, des W.j et des Wij2.
Par exemple, 1,6667 = |2 – 3,6667| ; 3,3333 = 0,3333 + 1,6667 + 1,3333 et 4,6667 =
(0,33332+1,66672+1,33332)

De la même manière, W2.. = (3,3333 + 3 + 3,3333) 2 = 93,3156, = (3,33332 + 32 + 3,33332) = 9,6426

et = 4,6667 + 2,75 + 4,6667 = 12,0834


La statistique du test va donc s’écrire :

Cette valeur est comparée à une valeur critique de la loi de Fisher au seuil α et k-1 ; n-k degrés de liberté. Pour α
= 0,05, 2 et 7 degrés de liberté, cette valeur est égale à 4,74. La valeur calculée étant inférieure à la valeur
critique, on ne peut pas rejeter l’hypothèse nulle d’égalité des variances. Quand l’on travaille à partir d’un logiciel
statistique, on se réfère à la « p-value » (« signification » dans SPSS). Pour cet exemple, elle est de 0,654 et
justifie la même conclusion.
Il faut noter, pour terminer, que certains manuels préconisent l’utilisation de la médiane plutôt que la moyenne
pour le calcul des Wij. Le test est alors plus robuste si les distributions ne sont pas normales. Selon les logiciels,
la stratégie de calcul diffère, ce qui peut expliquer des différences de résultats lorsqu’on fait les calculs à la main
sur des exemples simples. SPSS, par exemple, utilise la moyenne.

b. Hypothèses et calculs
Elles se formulent de la même manière, quelle que soit l’analyse. L’hypothèse nulle pose l’égalité
des moyennes dans tous les groupes. L’hypothèse alternative pose qu’il existe au moins un groupe
pour lequel la moyenne sera différente des autres. Soit :
H0 : μ.1 = μ.2 = ... = μ.k
H1 : il existe au moins un couple (i ; j) pour lequel μ.i ≠ μ.j

Exemple
La question qui se pose est ainsi de savoir si les différences observées entre les
\/|
moyennes d’échantillon reflètent l’existence d’un effet systématique dans la population
$|
de la croyance sur l’intention de comportement, ou si elles peuvent être dues au hasard
4$

ou à des facteurs non contrôlés.


By

Si le principe de l’affectation aléatoire des unités expérimentales au traitement est bien respecté,
l’analyse de variance permet de distinguer la part de variation (dans les effets différentiels
observés), due aux facteurs contrôlés, de la part de variation due aux facteurs incontrôlés. On
applique pour cela le théorème dit de « décomposition de la variance », présenté dans la fiche
technique 15.3.

Fiche technique 15.3. Principes de l’analyse de variance à un facteur(372)


1 – Modèle général de l’analyse de variance à un facteur
La valeur prise par une observation xij s’obtient par :
χ ij = μ + αj + εij
avecμ = moyenne générale dans la population,
αj = effet différentiel dû au traitement j,
εij = effet aléatoire des facteurs incontrôlés.
Décomposition de l’information (variation)
La variation totale contenue dans la variable dépendante se décompose en une variation inter-groupes (dite
également factorielle) et une variation intra-groupe (ou résiduelle). On peut écrire la relation :
Variationtotale = Variationinter + Variationintra
Une variation se calcule par une somme d’écarts à la moyenne, élevés au carré.
La variation inter-groupes est la somme des carrés des écarts des moyennes de groupes à la moyenne de la
variable, pondérés par les effectifs des groupes. Si Xi est la moyenne de la variable dépendante pour le groupe i,
X la moyenne de la variable sur l’ensemble des observations, ni l’effectif du groupe i et k le nombre de groupes,
alors :

La variation intra-groupes est la somme des carrés des écarts des observations au sein d’un groupe à la
moyenne de ce groupe. Elle se calcule sur l’ensemble de l’échantillon, groupe par groupe. Si xij est l’observation j
du groupe i, alors :

La variation totale est, en pratique, la première étape du calcul de la variance de la variable dépendante :

2 – Statistique du test
L’analyse de variance cherche à mettre en évidence des différences entre moyennes de groupes dans la
population. Si les données ont été recueillies dans le cadre d’un design expérimental, on cherche à mettre en
évidence l’effet du traitement appliqué au sujet (i.e. l’effet de la manipulation du facteur).
L’analyse sera donc intéressante si l’information générée par les différences entre les moyennes de groupes
(résultant du « traitement ») est plus importante que l’information contenue à l’intérieur de chaque groupe (due à
des erreurs de mesure ou à des facteurs non contrôlés). Potentiellement le rapport de la variation inter-groupes
\/|
à la variation intra-groupe est donc le plus intéressant.
$|
Mais il faut que le comportement de ce rapport en situation de multi-échantillonnage puisse être comparé à celui
4$

d’une grandeur statistique connue et décrite par une loi établie. Parmi les lois connues, la plus proche est la loi de
Fisher qui décrit le comportement d’un rapport de variances. Il faut donc transformer les variations évoquées ci-
dessus en « variances » avant de pouvoir procéder au test proprement dit. L’opération est assez simple et a déjà
By

été rencontrée : il suffit de diviser chacune des deux variations par son degré de liberté. On obtient ce qui
s’appelle le carré moyen dans le contexte de l’analyse de variance. On s’intéresse donc au rapport Carré
moyeninter/Carré moyenintra et la statistique du test s’écrit :

Si F > F1 – α ; k – 1 ; n – k} alors l’hypothèse nulle peut être rejetée.

La variation factorielle mesure directement les effets imputables aux différences de traitement. La
variation résiduelle, en revanche, est mesurée à l’intérieur de chaque groupe et tend donc à mesurer
les différences dues à tous les facteurs ou événements non contrôlés. Le test de l’hypothèse nulle se
fait au moyen d’un outil de comparaison de ces deux variations. La fiche technique 15.3. donne les
notations formelles.
Exemple
Pour l’intention de comportement, les calculs donnent les résultats suivants :

Somme
Moyenne
des ddl F Signification
des carrés
carrés
Inter-groupes 4 217,308 2 2 108,654 4,525 0,017
Intra-groupe 17 242,692 37 466,019
Total 21 460,000 39

Retrouvons les résultats du tableau ci-dessus au moyen des données de l’exemple :

Pas d’accord Neutre D’accord


70 \/| 10 10
50 50 50
$|
50 100 30
4$

30 70 50
100 80 50
By

40 50 20
50 30 25
90 30 30
60 75 55
10 60 25
75 65 45
55 50 40
85 80
65
50
ni 13 15 12
Xi 58,846 57,667 35,833
SCEintra 7 557,692 7 393,333 2 291,667

Pour développer l’exemple, il faut d’abord calculer la moyenne de la variable sur l’ensemble des
observations, soit :
Les moyennes de groupes sont données dans le tableau. Par exemple :

La somme des carrés des écarts au sein des groupes est donnée dans le tableau. Par exemple :

On calcule d’abord la variation inter-groupes, soit :


SCEinter = 13(58,846 – 51,5)2 + 15(57,667 – 51,5)2 + 12(35,833 – 51,5)2 = 4 217,3
Puis la variation intra-groupe :
SCEintra = 7 557,692 + 7 393,333 + 2 291,667 = 17 242,692
Il est facile de vérifier que la somme des deux est égale à la variation totale aux arrondis de calcul
près : \/|
SCEtotale = (70 – 51,5)2 + ... (40 – 51,5)2 = 21 460
$|
Et :
4$

SCEinter+SCEintra = 4 217,3 + 17 242,692 = 21 458,992


By

c. Test statistique
La manière la plus simple de comparer ces deux grandeurs serait de diviser la variation
intergroupes par la variation intragroupe. Si le traitement a un effet significatif, la première doit être
relativement grande, car les moyennes de groupes seront très contrastées. À l’inverse, la seconde
doit être relativement faible car les facteurs non contrôlés doivent d’une part avoir un effet moindre
sur les variations de la variable à expliquer et doivent, d’autre part, s’appliquer de manière
équivalente aux différents groupes, à l’intérieur desquels la dispersion doit par conséquent être
faible.
Comme nous sommes dans un contexte de test d’hypothèse, il faut comparer cette grandeur à un
« étalon » dont les propriétés statistiques sont connues, et qui permet ainsi une conclusion
objective. Or la seule grandeur connue proche de ce calcul est le F de Fisher. Le rapport de la
variation intergroupes à la variation intragroupe doit donc être transformé en rapport de variances.
Il suffit de diviser chaque variation par le nombre de degrés de liberté qui convient. En
l’occurrence, il s’agit de (k – 1) pour la variation factorielle, si k est le nombre de groupes, et de n
– k pour la variation résiduelle(373).
Exemple
Puisque l’on travaille avec trois groupes, le nombre de degrés de liberté pour la
variation factorielle est (3 – 1) = 2 et le nombre de degrés de liberté de la variation
résiduelle est (40 – 3) = 37. Le rapport cherché est donc :

Il suffit de comparer la valeur calculée à la valeur critique de F, au seuil α fixé et pour


le nombre de degrés de liberté correspondant, que l’on va aller lire dans la table
statistique ad hoc.
La table de Fisher permet d’extrapoler, pour α = 5 %, 2 et 37 degrés de liberté, une
valeur de 3,257. La valeur calculée lui est supérieure, ce qui signifie qu’elle se trouve
dans la zone de rejet de l’hypothèse nulle. Il faut en conclure que les moyennes de
groupes sont très probablement différentes dans la population, c’est-à-dire que
l’intention d’achat dépend de la croyance.

Ce résultat permet juste de constater l’existence d’une relation. Il ne donne pas son intensité qui,
\/|
comme pour l’analyse de régression, peut s’exprimer en pourcentage de variance restitué. Il ne dit
$|
pas non plus si toutes les moyennes de groupes sont différentes deux à deux ou si l’effet constaté est
dû à une ou deux modalités atypiques. Il reste maintenant, par conséquent, à aborder les analyses a
4$

posteriori permettant d’étudier les effets du traitement.


By

d. Analyse des effets


Cette analyse a pour objectif de répondre, pragmatiquement, à deux questions. La première est liée
à la décomposition de l’information restituée par l’analyse. Autrement dit, la variation factorielle
« expliquée » par le modèle (i.e. produite par le traitement) représente-t-elle une part importante de
l’information totale ? La seconde est liée à l’analyse fine des sources de variation factorielle, au
sein des groupes. Soit, quels sont les couples de modalités dont les différences sont les plus
productrices d’information ? Ces deux situations sont abordées successivement.

Part d’information restituée par le modèle


On cherche à représenter le pourcentage d’information de la variable dépendante dû au facteur
manipulé. On peut utiliser le « eta carré », qui se calcule comme le rapport de la variation
factorielle à la variation totale :

Il est facile à calculer mais réputé biaisé. Une alternative est appelée « omega carré ». Elle fait
intervenir le carré moyen résiduel et le degré de liberté lié à la variable explicative, soit :
La valeur de ces deux coefficients doit être la plus élevée possible.

Exemple
Avec les données de l’exemple, cela donne :

On peut considérer qu’il s’agit d’un résultat assez médiocre puisque le facteur ne
contribue qu’à 20 % de la variation totale. Autrement dit, 80 % de l’information
contenue dans la variable intention de comportement sont dus à d’autres sources que
les écarts de croyance dans le fait que les produits vendus en VPC soient moins chers
qu’en grande distribution.
Et :
\/|
$|
Le coefficient corrige à la baisse le résultat précédent et le pouvoir explicatif du
4$

facteur tombe à 15 %.
By

Analyse des sources de variation


Elle peut se faire a priori par des tests de contraste, ou a posteriori par des tests post hoc. Les
premiers sont plus puissants mais plus délicats à mettre en œuvre(374). On se contentera ici de
présenter les principaux tests post hoc.
Ils consistent à effectuer des comparaisons par paires des moyennes de groupes entre elles. Les
trois procédures les plus courantes sont celles de Tukey, Scheffé et Dunn-Bonferroni. Cette dernière
est réputée la plus robuste lorsque le nombre de groupes est petit. La procédure de Tukey est
recommandée lorsque le nombre de groupes est important, et celle de Scheffé, plus générale,
lorsque les groupes sont de tailles très différentes(375). La fiche technique 15.4. (voir ci-après)
détaille les deux premières.

Exemple
Le test de Dunn-Bonferroni implique des calculs difficiles à réaliser à la main. Le test
de Tukey peut, lui, être illustré assez facilement. On s’intéresse par exemple à la
comparaison entre les modalités « Pas d’accord » et « D’accord ».
La différence de moyenne est : 58,85 – 35,83 = 23,02.
La moyenne harmonique des tailles d’échantillons est :

Le carré moyen résiduel, calculé supra, est égal à 466,02.


Et la valeur Q lue dans la table de l’étendue studentisée(376) à 3 et 37 ddl est égale à
3,455.
CR peut être calculé :

On a bien |X.j – X.j’| > CR, ce qui permet de rejeter l’hypothèse nulle d’égalité des
moyennes. La différence entre les groupes « pas d’accord » et « d’accord » contribue
significativement à l’impact du facteur sur la variable dépendante.
Pour le test de Dunn-Bonferroni, il faut faire appel à un logiciel statistique :
\/|
$|
4$
By

La colonne « signification » permet de constater que la différence entre « pas


d’accord » et « neutre » n’est pas significative. La valeur 1 indique en effet que le
rejet de l’hypothèse nulle d’égalité des moyennes dans la population implique un
risque d’erreur quasi certain. Par contre, les autres différences sont significatives
puisque les valeurs affichées sont inférieures au seuil α (0,05). Ce sont donc les
différences de scores entre les niveaux de croyance « neutre » et « d’accord » et, a
fortiori, entre « pas d’accord » et « d’accord » qui contribuent le plus aux différences
constatées quant à l’intention d’achat.
Fiche technique 15.4. Tests de Dunn-Bonferroni et de Tukey
1 – Test de Dunn-Bonferroni
Il consiste à comparer les différences entre moyennes à des valeurs théoriques calculées sur la base d’une
distribution de Student, en répartissant le seuil α entre les comparaisons. L’hypothèse nulle est qu’il n’y a pas de
différence. Pour la rejeter, il faut que la différence observée soit supérieure à une valeur théorique dont la valeur
dépend entre autres du nombre de comparaisons à effectuer, du carré moyen résiduel et de coefficients
spécifiques résultant de combinaisons linéaires des moyennes étudiées.

Dα/2 ; C, ddl est une valeur lue dans la table de Dunn.


intra
C est le nombre de comparaisons à effectuer.
ddlintra est le degré de liberté de la somme des carrés résiduelle.
C et C’ sont des coefficients de contraste calculés par combinaison linéaire.
nj et nj’ sont les tailles de groupes correspondantes
CMintra est le carré moyen résiduel.
2 – Test de Tukey
La première étape consiste à calculer toutes les différences de moyennes X.j – X.j’. On obtient ensuite une
« étendue critique » (critical range) par :
\/|
$|
4$

Où : Qα ; k ; n – k est lu dans la table de l’étendue studentisée (studentized range).


n. est la moyenne harmonique des tailles d’échantillons
By

On compare ensuite toutes les paires de différences à CR. Elles sont significatives si leur valeur absolue |X.j –
X.j’| lui est supérieure.

En dépit de son intérêt, un modèle à un facteur est relativement pauvre. On peut souhaiter l’enrichir
en intégrant un second facteur.

2. Analyse de variance à deux facteurs avec effet d’interaction


Lorsqu’une ANOVA à un facteur ne permet pas le rejet de l’hypothèse nulle d’égalité des moyennes
de groupe et que l’on observe une forte variance résiduelle, alors il est probable qu’un ou plusieurs
facteurs n’ont pas été pris en compte.
À partir du moment où l’on introduit au moins deux facteurs dans l’analyse, il faut supposer que
ceux-ci peuvent entrer en interaction, sauf si l’on a de bonnes raisons théoriques de ne pas le faire.
Dans le cas d’une interaction supposée, le modèle de décomposition de la variance se complique
un peu. On va l’illustrer par une version simplifiée de l’exemple.
Exemple
Si on ajoute la variable genre au modèle, le tableau des moyennes est modifié comme
indiqué ci-après.

Attitude Écart-
Sexe Moyenne n
prix type
1 56,25 34,004 4
Pas d’accord 2 60,00 22,500 9
Total 58,85 25,096 13
1 54,17 24,580 6
Neutre 2 60,00 23,049 9
Total 57,67 22,980 15
1 30,00 6,124 5
D’accord 2 40,00 17,559 7
Total 35,83\/| 14,434 12
1 46,67 24,976 15
$|
Total 2 54,40 22,515 25
4$

Total 51,50 23,458 40


By

On voit par exemple que la différence entre « pas d’accord » et « neutre » s’est totalement annulée
chez les femmes (la moyenne d’intention de comportement est de 60 % pour les deux modalités),
alors qu’elle s’est légèrement accentuée chez les hommes (2,08 contre 1,179 précédemment). Même
remarque pour la différence entre « pas d’accord » et « d’accord » : la différence s’est accentuée
chez les hommes et a diminué chez les femmes (respectivement 36,25 et 20 au lieu de 23,01).
L’intention d’achat est plus élevée chez les femmes que chez les hommes, indépendamment de la
croyance, et a tendance à moins baisser lorsque la croyance dans le fait que les produits sont plus
chers en VPC s’affirme. La question est maintenant de savoir si cet effet constaté est significatif.
L’expression mathématique des composantes de la variance n’est pas intrinsèquement plus
complexe que dans les analyses à un facteur mais le volume d’information à présenter est plus
important(377). Les principes de l’analyse vont être illustrés directement au travers de la présentation
des résultats de l’exemple.
Exemple

Les chiffres s’interprètent de la même manière que pour l’analyse de variance à un


facteur. La première colonne donne la variation, la deuxième le nombre de degrés de
liberté correspondant et la troisième la variance qui en résulte. Les tests F et leur
niveau de signification sont donnés ensuite. \/|
Ce tableau montre que la croyance a toujours un effet significatif (p = 0,025) tandis
$|
que le genre n’en a pas (p = 0,38). L’effet d’interaction entre les deux n’est pas non
plus significatif (p = 0,943). Autrement dit, hommes et femmes ne diffèrent pas
4$

significativement en termes d’intention de comportement d’achat en VPC et la variable


genre n’influence pas (on peut dire également ne « modère » pas) la relation existante
By

entre la croyance et l’intention. L’influence de la croyance sur l’intention reste la


même quel que soit le genre des répondants.

Le cas de l’analyse de variance à deux facteurs avec effet d’interaction vient donc d’être présenté.
D’autres possibilités peuvent être envisagées, tant le modèle mathématique de base est
potentiellement riche. En particulier, l’analyse de variance peut être appliquée à des données
mesurées à plusieurs reprises sur les mêmes personnes.

3. Analyse de variance avec mesures répétées


L’intérêt de ces plans est de pouvoir évaluer la part de variation « intra-sujets », information
fondamentale dans de nombreuses applications marketing. La notion de mesure répétée doit être
prise au sens large. Il peut s’agit de mesures prises dans un plan « avant/après ». Dans ce cas, on
interroge les répondants sur la même variable avant et après un traitement. Le laps de temps
écoulé peut être assez long mais il peut également s’agir de mesures simultanées ou presque, dans
le cas, par exemple, où l’on demande à des répondants de subir plusieurs « traitements » et de tous
les évaluer (e.g. d’évaluer toutes les marques d’un ensemble donné). De fait, l’analyse de variance
sur mesures répétées (within-subject ANOVA) est une extension du test en t sur échantillons
appariés.
Dans le cas de mesures répétées sur un seul facteur, la variation totale peut être scindée en deux
composantes :
SCEtotale = SCEinter-individus + SCEintra-individus
La variation intra-individus peut à son tour être séparée en deux sources de variation. L’une est liée
aux différences entre les moyennes des traitements et l’autre est la variation résiduelle, soit :
SCEintra-individus = SCEfacteur + SCErésidu
D’où :
SCEtotale = SCEinter-individus + SCEfacteur + SCErésidu
Les degrés de liberté sont respectivement nk – 1, n – 1, k – 1 et (k – 1)(n – 1) et l’on vérifie bien
que n – 1 + k – 1 + (k – 1)(n – 1) = nk – 1.
Le test associé est construit d’une manière identique à ce que l’on a déjà rencontré, à savoir :

4. Analyse de covariance
On peut ajouter des « covariables » à n’importe quel modèle d’analyse de variance, qui devient
\/|
alors une analyse de covariance (ANCOVA). Les covariables sont des variables (de nature
$|
métrique) dont on pense qu’elles exercent un effet sur la variable dépendante, sans qu’elles soient
4$

suffisamment intéressantes pour être incluses dans le modèle. Cet effet peut masquer l’influence du
(des) facteur(s) sur la variable dépendante et on souhaite par conséquent l’éliminer.
By

La procédure consiste donc à estimer l’effet des covariables sur la variable dépendante, à le
contrôler, puis à conduire l’analyse de variance. Une partie de l’information « inutile » ou
potentiellement liée à des biais de mesure ayant été éliminée, il est ainsi possible d’analyser plus
finement l’effet du (des) facteur(s) sur la variable dépendante.
Dans le cadre des plans d’expérience, on peut contrôler les principales sources de biais. Dans les
collectes de données en coupe (cross-sectional) un tel contrôle est généralement impossible. Par
exemple, les réponses à un questionnaire peuvent être influencées par un grand nombre de variables
d’environnement (e.g. heure, bruit environnant, etc.) et des informations sur ces conditions de
recueil peuvent constituer des covariables intéressantes.
Les covariables pertinentes sont corrélées à la variable dépendante mais sont indépendantes des
variables explicatives (facteurs). Si c’est le cas, on ajuste la moyenne de la variable dépendante
pour chaque groupe de la variable indépendante, en fonction de la valeur de la moyenne de la
covariable. Ce qui reste produit par conséquent une variation résiduelle plus faible, d’où un test F
plus « puissant » pour évaluer l’effet du/des facteurs.
Pour des raisons techniques, le nombre de covariables doit être relativement restreint. Une règle
généralement recommandée est que le nombre de covariables ne doit pas dépasser 10 % de la taille
d’échantillon moins le degré de liberté de la variation inter-groupes. Si l’on désigne le nombre de
covariables par NbCov, et par k le nombre de groupes/modalités du facteur, on doit donc
respecter :
NbCov < 0,1 n – (k – 1)

Exemple
Dans le cas VPC, avec un facteur à trois modalités, ce nombre limite serait égal à
0,1 × 40 – 2 = 2.
On peut chercher, par exemple, à éliminer l’effet du montant des achats passés, dont on
sait qu’il est un facteur important de l’intention, pour se concentrer sur l’effet de la
croyance sur le prix. En introduisant cette variable dans le modèle, les résultats
deviennent :

\/|
$|
4$

a. R deux =,197 (R deux ajusté =,153)


By

a. R2 = 0,282 (R2 ajusté = 0,222)


En comparant les deux tableaux, on voit que l’introduction de la covariable « achats »
a considérablement modifié le modèle. D’une part, l’effet de « achats » pris isolément
est significatif (p = 0,045). D’autre part, l’effet de la croyance ne l’est plus (p = 0,325
au lieu de p = 0,017).
Le tableau ci-après montre par ailleurs que l’introduction de la variable « achats » a
nivelé les moyennes de groupes (voir tableau en début de partie). Pour donner une
idée de l’interprétation que l’on peut en faire, il s’agit des intentions moyennes
d’achat, selon la croyance, si tous les répondants avaient un montant d’achats passés
identique, en l’occurrence égal à la moyenne de la variable (i.e. 89,95 euros).

Intervalle de confiance
Attitude Erreur à 95 %
Moyenne
prix standard Borne Limite
inférieure supérieure
Pas d’accord 52,821a 6,432 39,777 65,866
Neutre 56,903a 5,354 46,045 67,761
D’accord 43,315a 6,978 29,163 57,467

a. Covariables évaluées pour : Montant annuel des achats en euros = 89,9449.

On se trouve ici dans la situation où la covariable partageait initialement plus d’information avec la
\/|
variable dépendante que le facteur retenu. Une fois son effet contrôlé, il ne reste plus assez
d’information pour que la relation entre la croyance et l’intention reste significative. Pour éviter ce
$|
type de situation, il faut explorer les données de manière approfondie (à la manière du data mining)
4$

pour repérer les relations potentielles entre variables ou disposer d’une base théorique solide qui
permette un choix raisonné des « bonnes » variables.
By

Bien que riche, l’analyse de variance est impossible à utiliser dans certains cas de figure, en
particulier lorsque la variable à expliquer n’est pas métrique. L’analyse conjointe entre alors en
jeu. Elle s’utilise principalement pour identifier les attributs les plus explicatifs du choix d’une
offre, exprimé en termes de préférences.

B. Analyse conjointe
Dans un premier temps, nous donnerons un aperçu général de la méthode. Les particularités de sa
mise en œuvre seront abordées dans un second temps. Puis, nous balaierons rapidement
les méthodes de calcul et d’analyse des résultats. Une réflexion sur l’évaluation de la qualité
d’une analyse conjointe suivra. Cet exposé se terminera par quelques exemples d’applications
managériales.

1. Présentation générale de la méthode


L’un des objectifs fréquemment assignés aux études de marché est d’identifier les caractéristiques
les plus importantes d’un produit pour les consommateurs(378). Le produit idéal devrait posséder
l’intégralité des caractéristiques préférées par les consommateurs. En réalité, ceux-ci doivent
souvent réaliser des arbitrages. Dans une catégorie et une gamme de produits données, qualité très
élevée et prix très bas vont, par exemple, rarement ensemble.
L’analyse conjointe est une famille de techniques permettant de mesurer les préférences des
consommateurs relatives aux caractéristiques d’un produit. Elle permet de répondre, entre autres,
aux questions suivantes. Pour ce produit, quels sont les attributs importants pour le consommateur ?
À quel niveau ou valeur doit-on fixer ces attributs pour provoquer le choix ? En termes de
préférences, comment nous situons-nous par rapport aux produits des principaux concurrents sur le
marché ? Elle en facilite ainsi le développement et la mise au point. Un petit exemple brossé à
grands traits va permettre de mieux saisir l’intérêt de la méthode.

Exemple
Supposons que vous souhaitiez réserver un billet de train et qu’on vous donne le choix
entre un espace restreint pour vos jambes (2e classe pour faire simple) et un espace
confortable (lre classe). Supposons à nouveau que, pour un trajet donné, vous ayez le
choix du prix : 100 ou 150 euros. Toutes choses égales par ailleurs, sur ce seul critère
prix, vous choisirez le billet à 100 euros. Supposons, pour finir, que vous ayez le
choix entre un trajet direct d’une durée de trois heures et un trajet impliquant un
changement, d’une durée de 4 heures 30. À nouveau, sur ce seul critère, vous choisirez
\/|
probablement le trajet direct. Malheureusement, la réalité n’est jamais aussi simple !
$|
Le « produit » déplacement par le train présente simultanément ces trois
4$

caractéristiques (et même bien d’autres), entre lesquelles vous devez arbitrer(379). Il est
probable que le trajet direct en 1re classe à 100 euros aura votre préférence. Mais la
By

SNCF n’étant pas une société philanthropique, il est peu probable que cette offre vous
soit proposée(380)... Cela étant, chaque caractéristique ayant deux modalités, il existe
« techniquement » huit offres possibles :

Chaque consommateur choisira, dans cette palette d’offres, celle qui conviendra le
mieux à ses préférences. Celles-ci sont bien sûr la résultante d’une multitude de
facteurs individuels ou environnementaux. On peut supposer que, globalement, l’offre
no 1 sera la plus souvent choisie, et que la no 8 sera la moins souvent choisie.

Le traitement de cet exemple par l’analyse conjointe vous permettrait de déterminer à la fois
l’importance relative et le niveau préféré de chaque attribut dans le choix des individus. Si le
produit préféré n’est pas réalisable par l’entreprise, pour des raisons de coût par exemple, celui
classé immédiatement après pourrait être retenu pour un éventuel lancement. Si vous possédez
d’autres informations sur vos répondants, de type sociodémographique par exemple, vous pourrez
éventuellement identifier différents segments de marché, pour lesquels des offres adaptées
pourraient être conçues.

Exemple
On peut imaginer ainsi que le cadre supérieur se déplaçant pour affaires et l’étudiant
faisant le trajet entre le domicile parental et son université n’auront pas tout à fait les
mêmes préférences en matière de voyages ferroviaires.

De manière plus générale, l’information obtenue au moyen d’une analyse conjointe peut être utilisée
à de nombreuses fins : analyser des parts de marché, mettre au point des nouveaux produits,
segmenter des marchés, tester des campagnes publicitaires.
La bonne compréhension de ces principes généraux permet d’aborder maintenant les aspects
techniques de la mise en œuvre d’une analyse conjointe.

2. Mise en œuvre d’une analyse conjointe \/|


a. Objectifs techniques de l’analyse conjointe
$|

L’analyse conjointe est une forme particulière d’analyse de variance. Les préférences globales du
4$

répondant, par exemple son classement des huit produits « voyage en train » listés dans l’exemple
décrit précédemment, servent de variable à expliquer. Selon la nature de la mesure, métrique ou
By

ordinale, on parlera d’analyse conjointe métrique ou non métrique. Dans ce dernier cas, on la
qualifie de MONANOVA (MONotonous ANalysis Of Variance). Les variables explicatives sont les
attributs des produits et leurs différents niveaux, mesurés au niveau catégoriel.
L’objectif de l’analyse est alors de mesurer l’effet conjoint de ces derniers sur le classement de
préférences établi par les répondants. Plus précisément, on évalue l’effet simultané de différentes
combinaisons de niveaux des attributs des produits. Le principe de l’analyse repose alors sur la
décomposition de la préférence en « utilités » partielles associées à chaque niveau de chaque
attribut. Cette décomposition est rendue possible par le fait que l’ordre de préférence entre
différentes combinaisons de niveaux des attributs révèle les compromis que le sujet est prêt à faire.

b. Choix des stimuli à présenter

Principes de base
On appelle stimulus une combinaison particulière de niveaux des variables explicatives. On peut
assimiler un stimulus à un traitement expérimental. Dans l’exemple « voyage en train », on a ainsi
huit stimuli possibles.
Le nombre de stimuli à présenter va clairement dépendre du nombre d’attributs considérés comme
pertinents. De fait, il importe de bien connaître les critères de choix utilisés par les consommateurs
pour la catégorie de produit étudiée. L’identification des critères de choix peut se faire de diverses
manières, généralement en combinant des techniques qualitatives (e.g. méthode de citation directe)
et des approches plus structurées (e.g. méthode du questionnaire dual)(381). Pour qu’ils puissent être
utilisés dans une analyse conjointe, il importe que ces critères soient réellement déterminants du
choix des consommateurs (et pas uniquement importants), qu’ils soient non corrélés entre eux,
qu’ils permettent de décrire le plus fidèlement possible le stimulus et, enfin, qu’ils soient
facilement manipulables aussi bien par le chargé d’études que par le répondant. Ce dernier point
implique en pratique l’utilisation d’attributs aussi objectifs que possible. Ainsi, on peut les décrire
facilement et en fixer des niveaux clairement distincts (e.g. des niveaux de prix). De plus,
l’interprétation est sensiblement la même d’un individu à l’autre.
Le choix du nombre de niveaux par attribut répond également à quelques règles de bon sens. D’une
part, il faut en limiter le nombre au maximum sous peine d’augmenter exponentiellement le nombre
de stimuli à présenter aux répondants. D’autre part, il est préférable d’équilibrer autant que
possible le nombre de niveaux d’un attribut à l’autre. Il semblerait en effet que les répondants
accordent artificiellement plus de poids aux attributs présentant davantage de niveaux que les
autres(382). En pratique, le nombre de niveaux par attribut est donc très souvent compris entre deux et
quatre.
Les phénomènes de corrélation entre les attributs (multicolinéarité) posent également un problème,
principalement parce qu’ils créent des stimuli irréalistes, souvent susceptibles de gêner les
\/|
répondants. Par exemple, les attributs prix et qualité sont généralement corrélés positivement. Dans
$|
ce cas, une solution consiste à créer des « méta-attributs », combinant les attributs corrélés, à
condition de respecter au mieux les contraintes énoncées ci-dessus. Par exemple, on utilisera
4$

« rapport qualité-prix » plutôt que « qualité » et « prix ». On peut également réduire la corrélation
inter-attributs par un artifice technique consistant à fixer les valeurs minimum et maximum des
By

niveaux présentés légèrement en dessous et au-dessus des valeurs « réelles », tout en restant réaliste
bien entendu(383).

Utilisation des plans factoriels


Lorsque la totalité des stimuli possibles est présentée aux répondants pour évaluation, on parle de
plan factoriel complet (factorial design). Cette approche est préférable mais peut très vite
apparaître irréaliste. Par exemple, une étude fondée sur cinq attributs, présentant respectivement 3,
2, 4, 3 et 3 niveaux, oblige à travailler avec 216 stimuli différents (3×2×4×3×3). Dans ce cas, on
doit opter pour un plan factoriel incomplet (fractional factorial design) qui consiste à présenter aux
répondants un sous-ensemble des stimuli possibles.
Lorsque le nombre de niveaux est le même pour tous les attributs, on parle de plan symétrique. On
peut alors recourir aux plans en carré latin, gréco-latin ou hyper gréco-latin pour, respectivement,
trois, quatre ou cinq niveaux par attribut.
Exemple
On suppose une étude (fictive) sur le lancement d’un produit, pour lequel on aurait
retenu trois attributs A, B et C, mesurés à quatre niveaux chacun. La mise en place
d’un plan factoriel complet impliquerait 64 stimuli distincts. On pourrait recourir dans
ce cas à un carré latin, qui se présenterait ainsi :

B1 B2 B3 B4
A1 C1 C2 C3 C4
A2 C2 C3 C4 C1
A3 C3 C4 C1 C2
A4 C4 C1 C2 C3

Le nombre de stimuli est réduit à 16, et le plan vérifie la condition de Plackett.


Lorsque le nombre de niveaux n’est pas identique pour tous les attributs, on a le choix entre deux
solutions. Si la condition d’orthogonalité peut être respectée, alors il est préférable de modifier
légèrement le plan pour le rendre symétrique. On peut, par exemple, dédoubler un ou deux niveaux
\/|
pour en rendre le nombre identique aux autres. Dans les autres cas, il est préférable de conserver un
$|
plan asymétrique. Cela étant, la plupart des logiciels de traitement statistique intègrent des
4$

procédures de construction automatique de plans factoriels incomplets asymétriques.


By

c. Collecte des informations


Il y a deux manières de collecter les informations nécessaires à l’analyse conjointe : la méthode
dite du profil complet (full profile) et la méthode des comparaisons par paires (trade off matrices).
Cette dernière présente de nombreux inconvénients, notamment d’être peu réaliste, puisque le
répondant ne peut jamais raisonner sur l’intégralité des attributs des produits qui lui sont présentés.
Elle n’est donc plus utilisée aujourd’hui. La première peut encore se décliner de deux manières,
selon que l’on propose au répondant un classement exhaustif ou un classement par paires des
stimuli. Le classement exhaustif est à préférer lorsque le nombre de stimuli est relativement limité,
disons jusqu’à 20 pour donner un ordre de grandeur. Au-delà, la comparaison par paires est
préférable.
Le plus souvent, ces combinaisons sont imprimées sur des fiches que les répondants doivent classer
par ordre de préférence (analyse conjointe non métrique) ou évaluer sur des échelles (on donne soit
une note, par exemple de 0 à 10, soit un jugement de probabilité de choix). La plupart du temps, on
s’en tient à des descriptions littéraires des stimuli. Quand c’est possible, toutefois, il est préférable
d’utiliser des montages photos ou des images de synthèse numérique.
Exemple
Le voyage en train
– Méthode dite du trade off

Prix
100 € 150 €
Classe 1re classe 1 3

2e classe 2 4

Dans ce premier cas, on demande au répondant de classer l’ensemble des combinaisons de niveaux
possibles entre les deux attributs. La préférence de cet individu (fictif) va donc à un billet de
1re classe à 100 €. La combinaison suivante est un billet de 2e classe à 100 €, puis un billet de
1re classe à 150 € et, enfin, un billet de 2e classe à 150 €. On constate que cet individu a arbitré en
faveur du critère « prix », plutôt qu’en fonction du critère « confort ».
\/|
– Méthode du profil complet, classement par rang (rank ordering)
$|
Classe : 1re
4$

Prix : 100 €
By

Trajet : indirect
Classement : 5

Ici, huit cartes de ce type sont présentées au répondant qui indique, pour chaque combinaison, son
classement par ordre de préférence. Ici, l’individu a classé cette combinaison en 5e position sur
les 8 possibles.
– Méthode du profil complet, évaluation sur une échelle (rating)
Deux types d’échelles sont utilisables. Soit une échelle d’intervalle à supports sémantiques
(1er tableau), soit une échelle de probabilité de choix (2e tableau) :
Dans les deux cas, on a affaire à une échelle de mesure de niveau métrique, qui permet des calculs
plus « puissants » mathématiquement parlant, mais qui complique la tâche du répondant.
\/|
Une fois cette préparation achevée, et les données collectées, on peut procéder à l’analyse
$|
conjointe proprement dit.
4$
By
Exemple (suite)
Les huit scénarios « voyage en train » ont été présentés de la manière suivante à deux
répondants :

Carte 1 Carte 2
Classe : 1 Classe : 1
Prix : 100 € Prix : 100 €
Trajet : Direct 3 heures Trajet : Indirect 4 heures 30
Carte 3 Carte 4
Classe : 1 Classe : 1
Prix : 150 € Prix : 150 €
Trajet : Direct 3 heures Trajet : Indirect 4 heures 30
Carte 5 Carte 6
Classe : 2 Classe : 2
Prix : 150 € Prix : 100 €
Trajet : Direct 3 heures Trajet : Indirect 4 heures 30
Carte 7 Carte 8
\/|
Classe : 2 Classe : 2
$|
Prix : 150 € Prix : 100 €
4$

Trajet : Indirect 4 heures 30 Trajet : Direct 3 heures


By

Leurs classements ont été les suivants :

Les deux individus (totalement fictifs) ont classé la carte 1 en premier. La carte 3 a été classée au
deuxième rang par l’individu 1, et au cinquième rang par l’individu 2. L’individu 1 privilégie
systématiquement le confort, puis la rapidité et enfin le prix, alors que l’individu 2 privilégie
d’abord le prix, puis la rapidité et enfin le confort.
Une fois cette étape franchie, on soumet les données au traitement, puis on analyse les résultats.

3. Analyse des informations recueillies


La fiche technique 15.5. décrit succinctement la procédure à l’œuvre.
Fiche technique 15.5. Principes de calcul d’une analyse conjointe
1 – Principe
L’analyse conjointe « standard » s’appuie sur l’hypothèse d’une simple relation linéaire additive entre des
variables explicatives supposées indépendantes entre elles. Formellement, on peut l’écrire :

Où :
– U(X) est l’utilité globale d’un scénario

– αij est l’utilité associée au jème niveau de l’attribut i


– m est le nombre d’attributs
– xi = 1 si le jème niveau de l’attribut i est présent, 0 sinon
L’importance Ii d’un attribut i est définie selon l’étendue des utilités αij pour l’ensemble des niveaux de cet
attribut :
Ii = {max(αij) – min(αij)} pour chaque i
L’importance Ii est ensuite réduite pour identifier Wi, son poids relatif comparé aux autres attributs :

\/|
2 – Variable dépendante métrique
$|
Quand la variable dépendante est métrique (e.g. évaluation de chaque scénario sur une échelle), chaque attribut
4$

est transformé en ki – 1 variables dichotomiques codées [0 ; 1] puis on effectue une régression sur variables
binaires. Les coefficients de l’équation de régression sont ensuite utilisés pour calculer les utilités αij.
By

3 – Variable dépendante ordinale


Quand la variable dépendante est ordinale, la méthode d’analyse est une transformation monotone qui vise à
expliquer le plus fort pourcentage de variance possible de la variable dépendante par les effets principaux
(additivité). Cette transformation s’effectue de manière itérative par un algorithme qui cherche à réduire le plus
possible un indice analogue au stress de l’analyse des similarités (rapport entre la variance résiduelle et la
variance totale).
Un stress égal à zéro indique que les valeurs trouvées par l’algorithme, une fois additionnées pour former la
valeur totale des combinaisons, correspondent, à une transformation de proportionnalité près, aux rangs des
préférences initiales. Un stress élevé (20 % ou plus) indique un mauvais ajustement entre les utilités obtenues
et les préférences initiales. Cette situation peut résulter :
– de variables explicatives corrélées ;
– d’erreurs volontaires ou non commises par les répondants.

Une analyse conjointe produit les valeurs des utilités de chaque niveau de chaque attribut,
l’importance relative de chaque variable indépendante, mesurée sur une même échelle métrique,
dans la contribution à la préférence globale, ainsi que l’indice global permettant d’apprécier la
qualité des calculs effectués.
Exemple (suite)

Les utilités partielles de chaque niveau de chaque variable explicative, ainsi que la
constante, sont données dans la première moitié du tableau ; la seconde moitié du
tableau fournit les utilités de chaque stimulus pour chaque individu.
L’utilité du stimulus 1, par exemple, est le résultat de :
U1 = U (1re classe) + U (100 euros) + U (direct) + Constante = 2 + 0,5 + 1 + 4,5 = 8
Si l’on ne tient pas compte de cette offre peu réaliste, on constate que l’utilité la plus
\/|
forte pour l’individu 1 est l’offre numéro 3 (trajet direct de 3 heures en classe 1 à
$|
150 euros), tandis que pour l’individu 2, il s’agit de l’offre 8 (trajet direct de 3 heures
en classe 2 à 100 euros).
4$
By

Ces résultats sont généralement présentés sous forme visuelle, ce qui les rend plus parlants, sans
toutefois apporter davantage d’information que les chiffres. Voici un exemple du type de graphique
généralement proposé par une analyse conjointe (voir page suivante).
Les utilités partielles peuvent donc être lues directement et l’on constate, par exemple, que, pour
l’individu 1, la 1re classe a la plus grande utilité, suivie de la rapidité du trajet, puis du prix.
Lorsque l’on travaille avec plus de deux niveaux par attribut, ce type de graphique permet
également de déceler une éventuelle relation entre les niveaux de cet attribut. L’intérêt de l’analyse
conjointe, à ce niveau, est de ne pas se limiter à une simple relation linéaire(384).
Il reste ensuite à calculer, pour chaque individu, l’importance de chaque attribut dans la formation
de son utilité totale. Ce calcul est relativement simple à effectuer à la main :

Autrement dit, pour un attribut i donné, on divise l’étendue des utilités partielles de cet attribut par
la somme des étendues des utilités partielles pour tous les attributs.
Figure 15.4. Graphe des utilités partielles d’une analyse conjointe

\/|
$|
4$

Exemple (suite)
By

L’importance de l’attribut « Classe » pour l’individu 1 est ainsi de :

Les autres scores d’importance sont donnés (sous forme de pourcentages) dans le
tableau ci-dessous :

Individu Classe Prix Rapidité


1 57,14 14,29 28,57
2 14,29 57,14 28,57

Ces résultats illustrent une particularité très importante de l’analyse conjointe. On constate en effet
que, d’un individu à l’autre, les attributs n’ont pas la même importance. L’un privilégie le confort,
l’autre le prix, tandis que la rapidité ne permet pas de différencier les deux. Si l’on essaie d’oublier
un instant que les données ont été construites pour produire ce résultat, on se rend compte de
l’intérêt de la méthode : on connaît, pour chaque individu, l’utilité de chaque stimulus, l’utilité
partielle de chacun des niveaux de chaque attribut, ainsi que l’importance de chaque attribut. En
d’autres termes, l’analyse conjointe donne des informations clés pour mettre au point des stratégies
et/ou actions marketing pertinentes, et ceci au niveau individuel.
Cela étant une telle analyse est peu réaliste. Le nombre de clients est généralement trop important
pour que l’on puisse envisager une individualisation intégrale de l’offre. Or l’analyse conjointe n’a
pas été conçue pour un traitement global des informations ! Considérer un individu « moyen » aurait
en effet peu de sens, pour deux raisons, l’une conceptuelle et l’autre technique.

Exemple (suite)
Les attentes de nos deux individus sont très différentes, et les traiter ensemble aurait
pour effet de masquer l’intérêt porté au prix par l’un et au confort par l’autre.

Plus fondamentalement, un traitement conjoint reviendrait à partir du principe que les attributs ont
tous la même importance dans le choix des individus, c’est-à-dire reviendrait à nier les bases du
concept de segmentation !
La raison technique est liée à la manière dont les stimuli sont évalués. Si l’on a des données
ordinales, il est très difficile d’aboutir à un classement « moyen » qui ait un sens, par définition
\/|
même de la moyenne. Si l’on a recueilli les évaluations sur des échelles, on peut calculer des
$|
évaluations moyennes pour les stimuli, certes, mais dont la pertinence diminuerait en fonction
4$

strictement inverse des dispersions existant autour de ces moyennes. En d’autres termes, un écart-
type élevé pour un stimulus indiquerait que celui-ci est évalué de manière très différente selon les
By

individus, et remettrait donc en cause les paramètres « moyens » calculés par l’analyse conjointe.
L’analyste n’a donc d’autre solution que de procéder à une analyse typologique avant l’analyse
conjointe. Elle aura pour objectif de regrouper les répondants ayant les mêmes profils d’évaluation
des stimuli présentés.

4. Évaluation de la qualité de l’analyse


Il n’existe pas vraiment de méthode scientifiquement structurée pour évaluer la qualité des résultats
d’une analyse conjointe. L’analyste doit se contenter de calculs empiriques et/ou de règles de bon
sens. Green, Tull et Albaum proposent trois types de démarches(385).
La première s’effectue a priori et consiste à faire refaire les classements ou évaluations des mêmes
stimuli par les mêmes répondants. Une forte corrélation entre les deux séries indique la pertinence
des stimuli servant de base à l’analyse.
La deuxième s’effectue a posteriori et consiste à calculer les paramètres (utilités, utilités
partielles...) à partir de classements aléatoires de stimuli. Sur un grand nombre « d’individus », on
peut s’attendre à des utilités partielles qui vont, globalement, s’équilibrer. En revanche, il existera
une variabilité « naturelle » qui fera que chaque individu fictif s’écartera de cette moyenne. On peut
ainsi calculer une sorte d’intervalle de confiance très grossier auquel comparer les résultats
obtenus pour les vrais répondants.
La troisième est un contrôle de validité interne qui peut être mené lorsque l’on utilise un plan
fractionné. Les stimuli non utilisés peuvent alors servir d’échantillon de contrôle (holdout stimuli) :
leur classement « théorique » doit être prédit grâce aux utilités partielles calculées à partir de
l’échantillon de stimuli réellement utilisé. Le classement prédit peut alors être comparé au
classement réel, soit par un cœfficient r de Pearson si l’on a utilisé des échelles métriques, soit par
un tau de Kendall si l’on a utilisé un classement au sens strict des stimuli. On peut également
calculer ces coefficients sans utiliser de stimuli de contrôle. Le classement des stimuli effectué à
partir des utilités calculées est comparé au classement réellement effectué par le répondant.
Comme on l’a déjà évoqué, l’analyse conjointe est un outil puissant en recherche marketing, et
notamment pour les études de marché. Quelques exemples d’applications pratiques vont maintenant
être présentés.

5. Applications pratiques
L’analyse conjointe fait partie des outils les plus utilisés dans un contexte professionnel et
commercial en marketing. Le flash-étude 15.1. illustre la manière dont un grand cabinet d’études
présente ce produit.

Flash-Étude 15.1. \/|


Utilisation de l’analyse conjointe par une société d’études(386)
$|

« Les logiciels Optimizer de GfK sont des outils d’optimisation des mix produits assistés par
4$

ordinateur. Ils peuvent notamment déterminer les élasticités-prix, les positionnements prix
optimaux, et effectuer des simulations de marchés. »
By

Les mesures conjointes (trade off)


« À partir de différents modèles, les réponses à un grand nombre de problématiques marketing »
– Optimisation de produit
– Développement de concepts
– Recherche de prix optimal
– Assortiment optimal
– Typologies de consommateurs
– Simulation d’actions potentielles de la concurrence

Logiciels Optimizer de GfK


Contexte
Le produit idéal n’existe pas ! Confronté à une offre la plupart du temps dense, le consommateur
effectue des compromis pour aboutir à son choix final.
Objectifs
– Déterminer le processus de décision de chaque consommateur.
– Simuler différentes offres en fonction de ce processus.
Les informations apportées relatives au processus de décision
– Le poids relatif de chaque variable dans la décision de choix.
– L’attrait de chaque modalité pour les consommateurs.
La typologie des consommateurs selon leurs attentes
Fondée sur les utilités, cette typologie décrit le marché global en fonction des attentes
des individus.
Elle permet l’obtention de groupes de consommateurs homogènes qui peuvent être traités
différemment au niveau de la stratégie marketing.
Ces groupes sont décrits en termes d’attentes mais sont aussi qualifiés à partir de leurs
comportements et attitudes vis-à-vis de la catégorie de produit.
Des profils sociodémographiques viennent compléter l’analyse afin de la rendre encore plus
opérationnelle.
Les simulations
– Le processus de décision de chaque individu est modélisé.
\/|
– Différentes situations d’offre sont simulées.
$|
– Les résultats sont présentés sous la forme de parts de choix.
4$

– La simulation de référence est celle du marché.


By

– Le modèle produit une part de choix pour chaque produit simulé :


• modification d’un élément du mix (e.g. niveau de prix),
• substitution d’un produit par un autre,
• extension de gamme (adjonction d’un ou de plusieurs produits),
• réactions de la concurrence.
– Les nouvelles parts de choix sont analysées devant la situation d’origine.
Source : extraits de la brochure « Études et conseil marketing », études ad hoc, GfK.

L’analyse conjointe est encore fréquemment utilisée dans les études marketing, principalement pour
l’identification de nouveaux concepts de produits, l’analyse concurrentielle, la fixation du prix, la
segmentation et le repositionnement de produit.
D’autres formes de modélisation sont apparues dans le courant des années soixante-dix. Elles
avaient pour objectif avoué de pallier les limites des méthodes d’analyse multivariée existantes.
Plus qu’un substitut à ces méthodes, elles en sont aujourd’hui un véritable complément destiné à
aborder des problématiques qu’aucune des méthodes présentées jusqu’ici ne peut traiter seule. Il
s’agit de la modélisation par équations structurelles.
III. Modéliser par équations structurelles
Nous allons tout d’abord présenter rapidement les caractéristiques générales de cette forme de
modélisation, ses objectifs et ses contraintes. Nous montrerons dans un deuxième temps que la
spécification du modèle est une étape importante dans le processus de modélisation. Le test du
modèle sera abordé en troisième lieu. Nous terminerons cette partie par quelques prolongements
liés à l’extension du modèle de base.

A. Caractéristiques générales, objectifs, contraintes


1. Caractéristiques générales
La modélisation par équations structurelles fusionne les perspectives économétrique de l’analyse
de régression et psychométrique de l’analyse factorielle. Elle permet de régresser des variables
latentes les unes sur les autres à l’issue d’une étape préalable d’estimation de ces variables par
analyse factorielle. Une variable latente prend des valeurs différentes selon les individus mais n’est
pas mesurable directement.
À cet avantage majeur s’ajoutent l’estimation chiffrée de la composante d’erreur incluse dans toute
équation de régression (revoir à ce sujet les chapitres 13 et 14) et la modélisation de relations
\/|
directes et indirectes entre variables. De ce point de vue, la modélisation par équations
structurelles est une extension de méthodes qui, jusque-là, ne présentaient que l’une ou l’autre de
$|
ces caractéristiques :
4$

– l’analyse factorielle permet d’estimer des variables latentes (facteurs) à partir de variables
observées et de les corréler entre elles mais pas de les régresser les unes sur les autres ;
By

– l’analyse de régression permet de régresser des variables les unes sur les autres, mais se limite à
une seule variable dépendante et ne permet pas l’analyse de relations de régression entre les
variables explicatives, par ailleurs supposées indépendantes les unes des autres ;
– l’analyse canonique généralisée (non traitée dans cet ouvrage) est une passerelle entre les deux,
mais se limite à régresser une variable latente dépendante sur une variable latente indépendante ;
– la path analysis (non traitée ici) est une méthode qui permet de modéliser des relations de
régression directes et indirectes et d’estimer l’erreur de mesure de manière chiffrée, mais elle ne
gère pas les variables latentes.
Exemple
La figure 15.5. représente un modèle « classique » tel qu’on peut le tester par des
équations structurelles. Il servira de fil rouge pour l’illustration des concepts et outils
présentés dans cette partie du chapitre.
Les symboles utilisés sont des conventions de notation qui seront explicitées tout au
long de l’exemple.
Figure 15.5. Représentation schématique d’un modèle d’équations structurelles

\/|
$|
4$
By

2. Objectifs
L’objectif de la modélisation par équations structurelles est de tester des modèles comme celui de
la figure 15.5. Tester un modèle permet d’estimer la valeur des paramètres représentés par les
symboles grecs et de formuler une conclusion quant à la plausibilité de la théorie sous-jacente.
Celle-ci est visualisée directement au moyen de la figure. Elle se matérialise par les relations entre
les variables, représentées par des flèches. Cette figure doit résulter d’une réflexion approfondie,
fondée sur une analyse de la littérature scientifique et/ou de pré-tests empiriques exploratoires. Une
fois cette théorie élaborée, il s’agit de la confronter à la réalité empirique. Celle-ci résulte de
données collectées auprès de répondants, de manière expérimentale ou non. La modélisation par
équations structurelles est parfaitement adaptée au test de données expérimentales mais on l’utilise
essentiellement avec des données d’enquête « en coupe ».

Exemple
Le contexte empirique de l’exemple est la recherche d’information préalable à un
choix de destination touristique. La thèse défendue est que le risque va médiatiser la
relation entre la tendance générale à la recherche de stimulation (OSL) et la recherche
d’information (Info). Le risque est conceptualisé à deux niveaux : un attrait général
pour la prise de risque lors de ses vacances (AtR), et les conséquences négatives
perçues d’un mauvais choix de séjour touristique (IRK).
La thèse se décompose en hypothèses. Celles-ci sont matérialisées par les flèches
joignant les variables latentes les unes aux autres. Les variables latentes sont
représentées par des cercles. Par exemple, on postule que OSL influence positivement
AtR(387). Le modèle de la figure 15.5 repose sur cinq hypothèses. Une hypothèse donne
le sens et le signe d’une relation entre deux variables. Dans la représentation du
modèle, le sens des flèches a par conséquent une grande importance.
Dans un modèle de ce type, les relations sont directes et indirectes. Il y a une relation
directe supposée entre OSL et les deux concepts de risque (γ12 et γ13). De même, il y a
une relation directe supposée entre les deux facettes de risque et Info (β24 et β34), ainsi
qu’entre les deux facettes de risque (β23). Par contre, il n’y a pas de relation directe
supposée entre OSL et Info. Cette relation est supposée être indirecte, au travers des
deux facettes de risque. Cette façon de modéliser impose de partir du principe que les
variables explicatives de la recherche d’information sont elles-mêmes en relation les
\/|
unes avec les autres.
$|
La figure 15.6. visualise le même modèle si l’on avait souhaité le tester au moyen
4$

d’une régression multiple.


Les relations sont conceptualisées au niveau empirique. On ne présuppose pas
By

l’existence de construits tels que tendance à la recherche de stimulation ou attrait pour


le risque. On se contente de faire la synthèse (somme, moyenne ou, au mieux, score
factoriel résultant d’une ACP) des mesures disponibles, voire de n’en utiliser qu’une,
réputée être mesurée parfaitement (i.e. sans erreur de mesure).
Figure 15.6. Représentation schématique d’un modèle de régression multiple

Aucune relation ne peut être modélisée entre les variables explicatives. Elles sont
explicitement indépendantes les unes des autres. Par ailleurs, les relations entre les
variables explicatives et la variable dépendante ne peuvent être que directes. Par
conséquent, si l’on imagine un effet entre OSL et Info, il faut le modéliser
explicitement. Ce n’est pas la théorie soutenue dans la figure 15.5., fondée sur une
relation uniquement indirecte.

3. Contraintes
La modélisation par équations structurelles peut prendre des formes très diverses. Nous présentons
ici les contraintes d’utilisation de l’analyse des structures de covariances. Ce sont les plus
exigeantes. Elles sont liées à la nature de la relation entre les variables, à leur mesure, à leur
distribution et à la taille de l’échantillon.
Les relations entre variables doivent être linéaires, au niveau empirique et au niveau théorique. Les
relations empiriques sont représentées par les lettres λ (lambda) ou ε (epsilon) et les relations
théoriques sont représentées par les lettres γ (gamma) ou β (bêta). Il existe aujourd’hui des
algorithmes non linéaires, mais ils sont complexes à manipuler.
Comme en analyse de régression, les variables de mesure (matérialisées dans les rectangles de la
figure 15.5) doivent être métriques. Il existe également des variantes permettant de traiter des
variables ordinales, voire catégorielles.
La contrainte de distribution est comparable à celle de la corrélation bivariée r de Pearson
(chapitre 12) qui, rappelons-le, est fondée sur une distribution binormale des variables. Il s’agit ici
\/|
de satisfaire à une contrainte de multinormalité, c’est-à-dire une distribution normale conjointe de
$|
l’ensemble des variables de mesure. C’est une condition très difficile à satisfaire en pratique.
4$

Certains algorithmes utilisés sont robustes à une certaine violation de la contrainte. Au-delà, on se
fonde soit sur une correction directe des paramètres du modèle, disponible dans certains logiciels,
By

soit sur une stratégie de bootstrapping. Nous reviendrons sur ces aspects un peu plus loin.
La taille d’échantillon doit être largement supérieure au nombre de paramètres à estimer. On
assimile généralement la complexité d’un modèle à ce nombre. Les paramètres sont représentés par
les symboles grecs de la figure 15.5. Selon les auteurs, un ratio de 5 à 20 observations par
paramètre serait un minimum.

Exemple
Un modèle comme celui de la figure 15.5. implique l’estimation de 27 paramètres. La
taille d’échantillon minimale devrait donc être comprise entre 135 et 540
observations.

À l’inverse, l’estimation du modèle repose sur un test statistique pénalisé par une grande taille
d’échantillon. « Pénalisé » signifie que l’on est amené à rejeter le modèle, autrement dit à conclure
qu’il ne correspond pas aux données et que la théorie doit être revue. L’algorithme le plus
couramment utilisé a une plage de fonctionnement optimal pour une taille d’échantillon comprise
entre 200 et 250 observations.
B. Spécification d’un modèle
Spécifier un modèle d’équations structurelles implique de s’intéresser au type de variables
utilisées, à la nature des relations qui les relient et à son identification. Nous abordons ces trois
aspects en précisant au passage quelques éléments de terminologie couramment employés dans cette
forme de modélisation.

1. Types de variables
On distingue variables de mesure et variables latentes. Le cœur du modèle, ou modèle structurel,
est composé des variables latentes et de leurs relations. Les variables latentes sont représentées par
des formes arrondies. Elles sont par nature inobservables mais néanmoins supposées exister dans
un « monde vrai » auquel les limites de notre intellect et de nos outils ne nous permettent pas
d’accéder. Par analogie à la régression, les variables latentes peuvent être explicatives ou à
expliquer. Dans le vocabulaire spécifique à cette modélisation, on dira plutôt respectivement
exogènes et endogènes. Contrairement à la régression, par contre, certaines variables latentes
peuvent avoir un statut mixte, à la fois exogène et endogène. Dans le cas général, les variables
latentes exogènes sont notées ξ (xi) et les variables latentes endogènes sont notées η (êta). Pour
cette notation, on ne fait pas de différence entre les deux statuts (endogène « pur » ou endogène
« mixte »).
\/|
$|
Exemple
4$

Le modèle de la figure 15.5. contient une variable latente exogène (OSL), deux
variables latentes endogènes mixtes (AtR et IRK) et une variable latente endogène
By

pure (Info).

Pour tester un modèle structurel, il faut le mettre en correspondance avec un modèle de mesure,
constitué de l’ensemble des variables observées. Celles-ci sont supposées être la meilleure mesure
possible des variables latentes correspondantes. Les variables de mesure sont représentées par des
formes rectangulaires. Chaque variable latente est reliée à un ensemble de variables de mesure, au
sein d’un bloc homogène. Les liens de correspondance sont nommés loadings. Dans leur version
standardisée, ils s’interprètent comme des coefficients de corrélation. Ils sont notés λ (lambda). Les
variables de mesure des variables latentes exogènes sont notées x et les variables de mesure des
variables latentes endogènes sont notées y.
Exemple
Le modèle de la figure 15.5. contient quatre blocs. Le premier est exogène. Il est
construit autour de quatre variables de mesure (OSL2 à OSL7). L’échelle d’origine
comporte sept items, mais trois d’entre eux ont dû être éliminés en raison de
propriétés psychométriques insatisfaisantes. Dans le même esprit, AtR et IRK sont
mesurés chacun par deux variables, et Info est mesuré par trois variables. Au total, le
modèle de mesure comporte donc onze variables reliées, via les loadings, à quatre
variables latentes.

Lorsqu’il y a plusieurs variables de même nature dans le modèle (ξ, η, λ, ζ...), on leur donne un
indice qui, par convention, respecte l’ordre d’apparition dans le modèle. La lecture se fait
classiquement de gauche à droite et de haut en bas si nécessaire.

2. Nature des relations entre variables


Dans un modèle d’équations structurelles, toutes les relations entre variables sont spécifiées. Par
convention, on ne les représente pas visuellement lorsqu’elles sont contraintes à 0. Dans un modèle,
des relations d’association et de dépendance coexistent. Les premières sont assimilables à des
coefficients de corrélation, les secondes à des coefficients de régression. Rappelons que lorsque
\/|
les variables sont centrées-réduites, un coefficient de régression standardisé partiel est assimilable
$|
à un coefficient de corrélation. Le schéma de la figure 15.7. permet d’illustrer ces différents types
4$

de relations.
By

Figure 15.7. Types de relations existant dans un modèle d’équations structurelles

Les relations matérialisées par des flèches droites sont des relations de dépendance, comme dans
une analyse de régression ou une analyse factorielle. Le modèle de la figure 15.7. est un modèle
d’analyse factorielle qui postule que la covariance observée entre les cinq variables de mesure est
due à deux facteurs latents. Le premier facteur est lié à deux variables de mesure, et le second
facteur aux trois autres. Autrement dit, chaque variable de mesure est le résultat d’une équation
semblable à x1 = λ1ξ1 + ε1.
Les relations matérialisées par des lignes courbes, sans flèches, sont de simples relations de
corrélation. Ici, on postule l’existence d’une corrélation entre les deux facteurs. Elle est à estimer
par le modèle. Notons que l’existence de ces relations est postulée a priori. L’analyse consiste
ensuite à vérifier que cette structure est plausible, par comparaison aux données observées. Par
opposition à une forme exploratoire, vue au chapitre 14, ce type d’analyse factorielle est dit
confirmatoire.
Dans cette figure, les liens entre ξ1 et les variables y sont fixés à 0, de même que les liens entre ξ2
et les variables x. Les termes d’erreur ε sont également supposés non corrélés entre eux. Cela étant,
si l’on a une bonne raison (généralement théorique) de le faire, toutes ces contraintes peuvent être
libérées et le paramètre correspondant doit alors être estimé. Pour conclure sur ce point, on peut
remarquer que le modèle structurel de la figure 15.7. se limite à une relation d’association. Si l’on
avait postulé une relation de dépendance, le modèle aurait été comparable à celui de la figure 15.5.,
avec une flèche directionnelle entre ξ1 et ξ2. Enfin, sous certaines conditions, ce type de modèle
permet également de traiter des relations de dépendance bidirectionnelles. Dans ce cas, on a affaire
à un modèle qualifié de non récursif. Ce type de modèle est complexe à gérer et nous ne
l’aborderons pas ici.
\/|
$|
4$

Exemple
By

Dans le modèle de la figure 15.5., on pourrait argumenter au plan théorique en faveur


d’une relation bidirectionnelle entre IRK et Info. Le risque perçu accroît le besoin de
rechercher de l’information, pour se sécuriser, mais une meilleure information peut
rendre plus sensible aux conséquences négatives engendrées par un mauvais choix.

Lorsqu’une relation de dépendance entre variables latentes est postulée, l’équation résultante sera
de forme générale η = γξ + ζ. γ et ξ seront respectivement remplacés par β et η lorsque l’équation
reliera deux variables endogènes. On voit apparaître un nouveau symbole, qui matérialise le terme
d’erreur associé à une variable latente. Il s’agit de ζ (zêta).

3. Identification d’un modèle d’équations structurelles


Tester un modèle d’équations structurelles revient à résoudre des systèmes d’équations linéaires
emboîtés les uns dans les autres. De tels systèmes ne peuvent être résolus que si l’on a autant
d’équations que de paramètres à identifier. Autrement dit, identifier des paramètres nécessite une
certaine quantité d’information.
Dans le contexte de ces modèles l’information disponible est donnée par le nombre d’éléments dans
la matrice de variances-covariances. Dans le cas général, celui-ci se calcule comme le nombre de
paires d’objets dans un ensemble de taille m, lorsque l’ordre n’a pas d’importance(388). Ce nombre

se calcule comme suit : .


Par convention, m désigne souvent le nombre total de variables de mesure dans le modèle.
Attention, certains manuels ou articles distinguent p et q. p est alors le nombre de variables de
mesure des variables latentes exogènes et q est le nombre de variables de mesure des variables

latentes endogènes. L’expression ci-dessus devient donc mais le principe de


base ne change pas.

Exemple
Si on reprend le modèle de la figure 15.5., il y a m =11 variables de mesure. Le
nombre d’éléments dans la matrice de variances-covariances des 11 variables sera

donc égal à . \/|


$|
Ce nombre doit être supérieur au nombre de paramètres à estimer. S’il est égal, le modèle est dit
4$

« juste identifié ». S’il est inférieur, le modèle est « sous-identifié ». Dans les deux cas, les
estimations produites ne peuvent pas être interprétées, voire pas calculées.
By

Exemple de modèle sous-identifié


x+y = 8
Il y a un élément d’information, 8, et deux paramètres à estimer. Il y a moins
d’information que de paramètres à estimer, et un grand nombre (une infinité en théorie)
de valeurs de x et y satisfont la condition. Par exemple (0 ; 8), (– 4 ; + 4) ou (2,83 ;
5,17) sont solutions de l’équation.
Un exemple de modèle juste-identifié est donné par :
x+y=8
2x + y = 12
Il y a deux éléments d’information et deux paramètres. On se situe dans le cas
classique d’un système de deux équations à deux inconnues, qui peut se résoudre de
différentes manières. Ici (4 ; 4) est une solution évidente. Paradoxalement, ce n’est pas
intéressant en termes de modélisation, car la solution (4 ; 4) permet de reproduire
parfaitement l’information observée (8 ; 12).
D’un point de vue épistémologique on part du principe qu’une réalité complexe ne peut pas être
parfaitement modélisée. Autrement dit, une réalité donnée (i.e. une matrice de variances-
covariances observées) ne peut pas correspondre à un modèle unique. Un tel modèle serait jugé
« trop beau pour être vrai ».
Dans un modèle suridentifié, il ne s’agit pas de trouver un couple (x ; y) qui résoudrait un système
de trois équations (trois informations, deux paramètres). C’est impossible. Par contre, le but est de
chercher une estimation unique des paramètres qui satisfasse une contrainte donnée et permette de
reproduire la réalité du mieux possible.

Exemple
Soit le système :
x+y=6
2x + y = 10
3x + y = 12
La contrainte est, par exemple, de chercher des valeurs positives de x et y produisant
un total tel que la somme du carré des écarts entre ces totaux et les valeurs observées
soit minimale.
\/|
$|
On aboutit à une solution (3 ; 3,3). La somme :
4$

[(3 + 3,3) – 6]2 + [(2 × 3 + 3,3) – 10]2 + [(3 × 3 + 3,3) – 12]2 = 0,67
La solution « reproduite » par le modèle est (6,3 ; 10,3 ; 12,3).
By

Les procédures d’estimation des modèles d’équations structurelles fonctionnent sur ce principe. Les
paramètres à calculer sont :
– les variances des termes d’erreur des variables de mesure et des variables latentes (ε et ζ) ;
– les variances des variables latentes exogènes (ne sont pas désignées par un symbole particulier) ;
– les loadings entre variables de mesure et les variables latentes (λ) ;
– les corrélations entre variables latentes exogènes (Ψ) ;
– les relations structurelles entre variables latentes exogènes et variables latentes endogènes (γ, β).
Pour des raisons techniques, certains de ces paramètres doivent être contraints par l’analyste. Les
variances des variables latentes posent un problème. Comme elles ne sont pas observées
directement, on ne dispose pas d’unité de mesure. Il faut donc, artificiellement, en créer une. Par
convention et pour chaque variable latente, on fixe à 1 l’un des loadings la reliant à ses mesures, ce
qui a pour effet de calquer son unité de mesure sur celle de la variable retenue. Pour les variables
latentes exogènes uniquement, une autre solution consiste à fixer à 1 la variance de la variable
latente.
Dans le premier cas, l’échelle affectée au facteur est liée à la part de variance expliquée (par le
facteur) de la variable de mesure concernée. Celle-ci doit représenter au mieux la variable latente
concernée, et aucune autre variable latente dans le modèle. Si les mesures ont fait l’objet d’une
construction soignée et que la condition de validité discriminante est respectée, alors ce critère est
généralement satisfait par toutes les variables d’un même bloc et le choix est relativement
arbitraire.
Dans le second cas, la variable latente est standardisée et tous les loadings sont des paramètres à
estimer. C’est une solution intéressante si la valeur de ces derniers a un intérêt particulier pour
l’analyste.
La règle du loading contraint à 1 vaut également pour les liens entre les termes d’erreur et la
variable à laquelle ils sont rattachés. L’échelle affectée au terme d’erreur est alors liée à la part de
variance non expliquée de la variable à laquelle il est rattaché.
Le modèle de la figure 15.7. peut maintenant être représenté un peu différemment. Les étoiles
indiquent les paramètres à estimer par le modèle :

\/|
$|
4$
By

Pour ce modèle, il y a 11 étoiles, soit 11 paramètres à estimer. Comme il y a 5 variables de mesure,


la matrice de variances-covariances contient 15 éléments. La différence entre les deux est le degré
de liberté du modèle. Un modèle avec beaucoup de degrés de liberté est un modèle simple. C’est
aussi un modèle qui parvient plus difficilement à reproduire la réalité, comme on l’a évoqué ci-
dessus. En cas de choix entre modèles de qualité équivalente, il est généralement recommandé de
retenir celui ayant le degré de liberté le plus élevé.
Avant de tester un modèle, il faut s’assurer qu’il est suridentifié, c’est-à-dire que son degré de
liberté est strictement supérieur à 0. Le choix du nombre de variables de mesure est crucial et se
fait en relation avec la configuration du modèle. En pratique, il faut raisonner globalement et non
pas par facteur. C’est ce qu’illustre la figure 15.8.
Figure 15.8. Degré de liberté de deux modèles à quatre variables de mesure

Chacun de ces deux modèles a un degré de liberté égal à 2 (10 éléments d’information moins
8 paramètres à estimer). Ils sont suridentifiés et peuvent produire une solution interprétable.
Néanmoins :
– pour un modèle « congénérique » (un bloc à un seul facteur, illustré à gauche), le nombre
minimum de variables de mesure est quatre. À trois, le modèle est juste-identifié ;
– pour un modèle à plusieurs facteurs, le nombre d’items minimum par facteur est de deux. Certains
auteurs recommandent un minimum de trois, voire de quatre items par facteur. Des simulations ont
en effet montré qu’un modèle construit autour d’un nombre important de variables latentes limitées
\/|
à deux variables de mesure chacune posait des problèmes d’estimation. Par ailleurs, une mesure de
$|
construit à deux items est rarement fiable et valide ;
4$

– il n’y a pas de nombre maximal de variables de mesure par facteur, mais il faut garder en tête le
problème de la complexité du modèle et les contraintes de taille d’échantillon qui en découlent.
By

Avec ces bases, abstraites mais indispensables, nous abordons la problématique du test d’un
modèle d’équations structurelles.

C. Test d’un modèle d’équations structurelles


Le test d’un modèle d’équations structurelles se fait en deux étapes : on analyse sa « qualité » au
travers d’indicateurs d’ajustement puis, si le résultat est probant, on en interprète les résultats.

1. Ajustement du modèle
La notion d’ajustement est complexe en elle-même. Le test d’un modèle débute par une phase
d’estimation des paramètres dont le but est de parvenir à la meilleure solution possible. Puis, la
qualité globale de cette solution est estimée au moyen d’un ensemble de paramètres que l’on
appelle indicateurs d’ajustement.
a. Estimation des paramètres
Il s’agit d’une étape complexe, décrite dans la fiche technique 15.6. Le principe est de reconstituer
une matrice de variances-covariances « théorique » ∑ à partir des équations induites par le modèle.
Cette matrice est comparée à la matrice de variances-covariances observée dans l’échantillon S. La
démarche est itérative. On part de valeurs de coefficients fixées arbitrairement dans un premier
temps et affinées d’étape en étape. Le but est de minimiser une fonction d’ajustement (fit function)
dont le choix est lié aux contraintes et aux objectifs de l’analyste. La plus utilisée est la fonction du
maximum de vraisemblance, réputée optimale si les contraintes évoquées plus haut sont respectées.
Il existe d’autres fonctions d’ajustement, généralement moins contraignantes quant aux données,
mais également moins performantes.
Le choix des valeurs de départ des paramètres est crucial. Les logiciels fixent ces valeurs
automatiquement, ce qui convient pour la plupart des modèles simples. La convergence, c’est-à-
dire le fait d’aboutir à la plus petite valeur possible de F pour le modèle concerné, est obtenue au
bout de quelques itérations. Pour les modèles complexes, par contre, la convergence ne va pas de
soi, elle peut dépendre de valeurs initiales habilement choisies par l’analyste. Le problème est
notamment sensible quand :
– beaucoup de variables latentes sont mesurées avec deux indicateurs seulement ;
– les échelles de mesure sont hétérogènes ;
– il y a des individus « aberrants » (outliers) ;
– la contrainte de multinormalité est sévèrement violée.
Dans ce cas, le modèle ne converge pas ou produit des estimations aberrantes (e.g. des variances
négatives). \/|
Quand une valeur minimale est obtenue pour F, avec un jeu de coefficients associés, et que la
$|
convergence a été rapide, on passe à l’évaluation de la qualité du modèle.
4$
By
Fiche technique 15.6. Estimation de paramètres
et ajustement global d’un modèle d’équations structurelles
La spécification d’un modèle génère un jeu d’équations. Pour un modèle congénérique comme celui de la figure
15.8. (partie gauche), l’équation générale s’écrirait, après centrage des variables :
X = ˄X ξ + ε
Soit, sous forme développée :

On fixe ensuite des valeurs arbitraires aux paramètres λ et ε pour calculer une matrice de variances-covariances
∑ induite par les relations spécifiées dans le modèle. Pour cela, on utilise les équations suivantes (389) :

La matrice ∑ obtenue est ensuite comparée à la matrice des variances-covariances observées dans l’échantillon
S. La procédure est itérative. Un premier calcul est effectué avec des valeurs arbitraires de λ et σ2ε. Puis un
deuxième, un troisième... La procédure s’arrête quand la différence S – ∑ est la plus petite possible compte tenu
du modèle et de la réalité observée.
En pratique, on cherche à minimiser une grandeur plus complexe que S – ∑. Il s’agit d’une fonction d’ajustement
\/|
dite du maximum de vraisemblance qui possède la propriété d’aboutir à des estimations optimales des
$|
paramètres si les contraintes évoquées plus haut sont respectées. Cette fonction s’écrit :
F = log |∑| + tr (S ×∑– 1) – log (S) – m
4$

où m est le nombre de variables de mesure du modèle, et tr (S × ∑– 1) est la trace de la matrice construite en


By

faisant le produit de S et de l’inverse de ∑. Rappelons que la trace d’une matrice est la somme des éléments de sa
diagonale.

b. Indicateurs d’ajustement
L’un des avantages de la fonction du maximum de vraisemblance est que sa distribution est connue.
Autrement dit, on dispose d’un test statistique construit à partir de F, dont l’hypothèse nulle est S =
∑. Sa statistique s’écrit :
χ2 = (n – 1)Fmin
Si les contraintes évoquées plus haut sont respectées, cette statistique suit une distribution du χ2 à

degrés de liberté, où k est le nombre de paramètres à estimer par le


modèle. Contrairement à beaucoup de tests, on ne cherche pas à rejeter H0. Un bon résultat est une
valeur de χ2 faible et une signification associée élevée (voir chapitre 12).
Malheureusement, le facteur (n – 1) rend le test directement dépendant de la taille d’échantillon.
Les petits échantillons sont favorisés. On aura du mal à rejeter H0, donc les modèles paraîtront
toujours adaptés aux données. À l’inverse, un gros échantillon aboutira presque toujours au rejet de
H0.

Exemple
Nous allons illustrer les calculs d’estimation à partir d’un modèle congénérique à
4 variables (figure 15.8. partie gauche) pour les données de l’exemple « tourisme ».
La variable retenue est Info. La figure 15.9. montre le modèle correspondant, après
traitement des données. Pour simplifier les calculs, la variance du facteur a été fixée à
1 et les loadings laissés libres.
Figure 15.9. Analyse factorielle confirmatoire de la variable « Tendance à la recherche
d’information »

\/|
$|
4$
By

Les valeurs des loadings et des variances des termes d’erreur sont données dans la
figure. Dans un premier temps, nous allons reconstituer le mode d’estimation. Pour
cela, la figure 15.10. montre les deux matrices de variances-covariances. S est à
gauche, ∑ est à droite.
Figure 15.10. Matrices S et ∑ pour le modèle « recherche d’information »

On peut aisément reconstituer le calcul de ∑ à partir des équations de la fiche


technique 15.6. Par exemple :
σ2info6 = λ2iσ2ξ + σ2si = 1,0482 × 1 + 0,965 = 2,063
Et :
covinfov 6 ; info 7 = λiσ2ξλj = 1,048 × 1 × 2,282 = 2,3915
Pour aboutir à ce résultat, le logiciel a procédé par étapes, en partant d’un jeu de
valeurs arbitraires pour λ et ε, affinées au fur et à mesure des calculs. Les différentes
matrices ∑ obtenues ont été combinées à S dans la fonction F présentée dans la fiche
technique 15.6. Lorsque le plus petit résultat possible pour F a été obtenu, le calcul
\/|
s’est arrêté. La matrice ∑ finale est celle présentée ci-dessus. Voici le résultat fourni
par le logiciel :
$|
4$
By

On voit que la solution a convergé en sept itérations. On a Fmin = 0,01035, et la valeur


du test peut être calculée :
χ2 = (n – 1)Fmin = (304 – 1) × 0,01035 = 3,136
Voici le résultat renvoyé par le logiciel :

Le degré de liberté est bien égal à 2 (10 éléments dans la matrice moins 8 paramètres
à estimer. Aidez-vous des figures 15.9. et 15.10.) La valeur p = 0,20857 est la
probabilité d’apparition du χ2 calculé si H0 est vraie. Comme elle est supérieure au
seuil de risque maximum conventionnel α = 0,05, on ne prend pas le risque de rejeter
cette hypothèse. On en conclut que le modèle est plausible dans la population. Plus
pragmatiquement, on dit que le modèle s’ajuste bien aux données.

Pour pallier les inconvénients liés à ce test, des indicateurs d’ajustement destinés à aider l’analyste
dans sa décision ont été développés. Ces indicateurs sont très nombreux. Ils peuvent être classés en
trois grandes familles :
– indices absolus (absolute fit indices). Ils traduisent le pourcentage de covariance de la matrice de
données S que la matrice ∑ induite par le modèle est capable de reproduire. On peut les assimiler à
une sorte de coefficient de détermination fondé sur le rapport entre l’information (i.e. variation ou
somme des écarts au carré) contenue dans la matrice des covariances résiduelles et l’information
contenue dans la matrice S initiale ;
– indices incrémentaux ou relatifs (incremental/relative fit indices). Ils mesurent la proportion
d’amélioration du modèle testé quand on le compare à un modèle de base choisi a priori. Ce
modèle de base est généralement le modèle nul, c’est-à-dire le modèle où toutes les variables ont
une variance mais où toutes les covariances sont contraintes à zéro ;
– indices de comparaison (comparative fit indices). Ce sont des indices absolus qui ont été
construits dans le but de comparer des modèles entre eux.
De manière transversale à ces familles, on va trouver des indices qui tiennent compte de la
\/|
complexité des modèles en pénalisant ceux qui auraient un trop faible nombre de degrés de liberté.
$|
On les appelle indices de parcimonie (parsimony indices).
4$

Aucun de ces indices ne peut être considéré comme idéal, et beaucoup d’entre eux sont redondants.
Selon la littérature spécialisée, le meilleur compromis pour analyser la qualité de l’ajustement d’un
By

modèle consiste à se fonder sur le test du χ2, son degré de liberté, la valeur de p correspondante et
trois indices (CFI, SRMR et RMSEA, voir fiche technique 15.7).

Fiche technique 15.7. Indices d’ajustement recommandés


1 – CFI
Le Comparative Fit Index est un indice incrémental qui mesure l’amélioration relative de l’ajustement du modèle
étudié comparativement à un modèle de base fondé sur des covariances fixées à 0. Contrairement à d’autres, il
est fondé sur la notion de non-centralité. Cette notion complexe se traduit concrètement par le fait de
retrancher le degré de liberté du modèle à la valeur du χ 2.

Lorsque le degré de liberté du modèle est supérieur à la valeur du χ 2, le numérateur est égal à 0 et CFI = 1. De
même, compte tenu de la structure du modèle de base, il est rarissime que χ 2M – ddlM > χ 2B – ddlB. De fait,
cette expression peut se réduire à :

où χ 2M et χ 2B sont respectivement les valeurs du test pour le modèle étudié et le modèle de base. Rappel : χ 2 =
(n – 1)Fmin.
ddlM et ddlB sont, respectivement, les degrés de liberté du modèle étudié et du modèle de base.
Le CFI est normé. Sa valeur ne peut pas être inférieure à 0 ou supérieure à 1. Plus on s’approche de 1 mieux c’est.
La valeur de CFI traduit approximativement le pourcentage d’amélioration de l’ajustement en passant du modèle
de base au modèle étudié.
Un modèle ayant un CFI inférieur à 0,9 est considéré inacceptable. Il est acceptable avec une valeur comprise
entre 0,9 et 0,95. Au-delà de 0,95 l’ajustement est excellent.
2 – SRMR
Le Standardized Root Mean-square Residual est un indice absolu qui traduit l’idée de corrélation résiduelle
moyenne. Autrement dit, il renvoie la racine carrée de la moyenne des corrélations résiduelles obtenues en
soustrayant la matrice reproduite par le modèle ∑ à la matrice des corrélations observées S.

Il existe une version non standardisée (RMR). Elle se calcule de la même manière mais avant standardisation,
c’est-à-dire à partir des covariances. Le RMR est difficilement interprétable quand toutes les variables du
modèle n’ont pas la même échelle de mesure.
Le SRMR doit être le plus faible possible. Un modèle dont le SRMR est supérieur à 0,08 est inacceptable. Il est
acceptable entre 0,05 et 0,08. Il est excellent en dessous de 0,05.
3 – RMSEA
Le Root Mean Square Error of Approximation est un indice absolu qui favorise la parcimonie. Autrement dit, il
pénalise les modèles complexes au degré de liberté proportionnellement faible. Il est également fondé sur la
notion de non-centralité. \/|
$|

La formule montre que lorsque la taille d’échantillon augmente, la pénalisation des modèles complexes s’atténue.
4$

Le RMSEA doit être le plus faible possible. Les valeurs seuils sont les mêmes que pour le SRMR.
Le RMSEA a une distribution statistique partiellement connue qui permet de calculer un intervalle de confiance
By

à 90 % pour sa valeur dans la population. La précision de cet intervalle augmente avec la taille d’échantillon. La
borne supérieure de l’intervalle ne devrait pas dépasser 0,1. Au-delà, on considère que l’ajustement du modèle
est inacceptable.
L’expérience montre que cet indicateur est conservateur pour les petits modèles au degré de liberté
intrinsèquement faible. La pénalité semble s’accroître si, en plus, les covariances entre les variables de mesure
sont élevées.
Exemple
Si on reprend le modèle congénérique Info, les trois indices présentés dans la fiche
technique 15.6 ont pour valeur :

Le calcul du SRMR est long mais nous pouvons facilement reconstituer les deux
autres :

Au dénominateur figurent le χ2 et le degré de liberté du modèle d’indépendance,


fournis par le logiciel.
\/|
Tous les indicateurs convergent. Le modèle est satisfaisant. Le seul bémol est la borne
$|
supérieure de l’intervalle de confiance de RMSEA, qui dépasse le seuil de 0,1. On
4$

sait que le RMSEA pénalise les modèles avec très peu de degrés de liberté. Cette
valeur n’est donc pas inquiétante.
By

Si ces indicateurs sont satisfaisants, alors les résultats peuvent être interprétés.

2. Interprétation des résultats


La démarche classique comporte trois étapes. Chaque bloc est testé comme nous venons de le faire.
Puis l’ensemble des blocs est intégré dans un modèle global sans relations structurelles entre les
variables latentes. Celles-ci sont néanmoins laissées libres de se corréler. C’est ce qu’on appelle le
modèle de mesure. À chacune de ces deux étapes on élimine les variables de mesure qui
contribuent le plus à la dégradation de l’ajustement, selon des critères illustrés ultérieurement.
Attention, toutefois, à ne pas éliminer de variables uniquement sur des critères statistiques. La
validité de contenu doit être maintenue. C’est pour cette raison que la construction des mesures est,
paradoxalement, l’étape essentielle de la modélisation par équations structurelles.
Une fois le meilleur modèle de mesure obtenu, on spécifie les relations structurelles sans rien
changer d’autre. C’est ce qu’on appelle le modèle de structure. En procédant ainsi, on peut isoler
les sources de dégradation de l’ajustement. Si une dégradation sensible se produit entre le modèle
de mesure et le modèle de structure, on parle de défaut de spécification. La théorie, matérialisée
par les relations structurelles, ne correspond pas aux relations d’association qu’entretiennent les
variables latentes entre elles. Il faut alors revoir cette théorie et respécifier le modèle. En principe,
il faut utiliser un nouveau jeu de données.

\/|
$|
4$
By
Exemple
La figure 15.11. présente les résultats pour le modèle de la figure 15.5.
Figure 15.11. Analyse des structures de covariances pour le modèle de la figure 15.5

\/|
Les indicateurs d’ajustement pour ce modèle sont :
$|
4$
By

Le test du χ2 est significatif mais compte tenu de la taille d’échantillon (n = 304) et de


la (relative) complexité du modèle (27 paramètres à estimer), on pouvait s’y attendre.
Par ailleurs, l’ajustement ne s’est pas dégradé entre le test du modèle de mesure et le
test du modèle structurel. Cela indique que les problèmes viennent des mesures, qui
peuvent être améliorées, et pas de la partie théorique. Enfin, les trois autres indices
présentés ici sont au-delà des seuils minimum recommandés. Ils traduisent, eux, un
ajustement satisfaisant du modèle. Celui-ci peut, par conséquent, être interprété avec
confiance.
Au-dessus des flèches entre variables latentes et leurs mesures figurent les loadings. À
gauche, en dessous ou au-dessus des variables de mesure ont été reportées les
variances partagées entre ces dernières et leurs termes d’erreur. La part de variance
non expliquée des variables latentes endogènes est matérialisée à côté d’une flèche
(e.g. 0,916 pour Info). Les coefficients structurels, enfin, figurent au-dessus ou à droite
de la flèche correspondante, au cœur du modèle. Avant de les interpréter, il faut
d’abord analyser la validité du modèle.
a. Fiabilité et validité du modèle
Quelques éléments ont été présentés dans la fiche technique 3.2. Nous donnons ici les formules de
calcul appropriées aux modèles d’équations structurelles.

Fiabilité
C’est la capacité d’une mesure et par extension d’un modèle à donner des résultats statistiquement
« consistants », c’est-à-dire stables et cohérents dans le temps. Pour cela, ils doivent être exempts
d’erreur aléatoire. On utilise couramment le coefficient α (alpha) de Cronbach et le coefficient ρ
(rho) de Jöreskog (quelquefois aussi appelé improprement de Dillon-Goldstein). Le α s’analyse
exclusivement au niveau de chaque bloc de mesure :

• k est le nombre de variables de mesure dans le bloc concerné


• σ2i est la variance de la variable i
• σij est la covariance entre les variables i et j
\/|
Ce calcul est intégré dans la très grande majorité des logiciels.
$|
Le ρ s’analyse également au niveau de chaque bloc, mais tient compte des relations entre les
4$

variables latentes et leurs mesures et de l’erreur de mesure. Pour cette raison, il est considéré plus
précis que α, mais l’on reporte couramment les deux.
By

Où λi et σ2si sont, respectivement, le loading et la variance du terme d’erreur de la variable i. k est


toujours le nombre de variables dans le bloc.
Ces deux coefficients doivent être le plus proche de 1 possible. Cependant, une valeur supérieure à
0,95 indique une redondance excessive entre les mesures (e.g. des propositions presque identiques)
peu satisfaisante en termes de validité de contenu.
Exemple
Calculons α et ρ pour le bloc OSL.
La matrice de variances-covariances est :

On a :

Et :

\/|
$|
Les deux coefficients sont supérieurs à 0,8, ce qui indique une très bonne cohérence
4$

interne entre les mesures, donc une très bonne fiabilité de cette dernière.
Il faut faire les mêmes calculs pour les autres blocs du modèle :
By

α ρ
AtR 0,626 0,615
IRK 0,738 0,743
Info 0,760 0,818

Toutes les valeurs sont satisfaisantes et permettent de continuer à travailler. Les deux mesures de
risques sont à améliorer, notamment celle d’attrait pour le risque dans un contexte de vacances.

Validité
Les notions de validité convergente, discriminante et nomologique s’appliquent d’une manière un
peu différente de celle préconisée en psychométrie classique. Pour la première, il est d’ailleurs
préférable de parler de variance moyenne extraite plutôt que de validité convergente, notion
erronée dans ce contexte. Il s’agit d’estimer la communauté moyenne entre une variable latente et
ses mesures, en tenant compte du poids de l’erreur de mesure. L’indicateur correspondant s’appelle
néanmoins « ρ de validité convergente ».
Lorsque cette valeur est inférieure à 0,5 on peut douter de l’existence d’une variable latente source
de l’information partagée entre les variables de mesure, telle qu’elle est postulée dans le modèle.
Dans ce cas, il faut soit revoir les mesures, soit repenser la théorie.
La validité discriminante s’analyse comme la différence de substance théorique entre les variables
latentes. Pour satisfaire cette exigence, il est nécessaire que chaque variable latente partage plus
d’information (exprimée en corrélation au carré) avec ses mesures qu’avec n’importe laquelle des
autres variables latentes du modèle. Formellement, cela s’écrit :

Au niveau global, on dit que le modèle a une validité discriminante satisfaisante si la plus petite
des variances moyenne extraites est supérieure à la plus grande des corrélations au carré entre
variables latentes.

\/|
La validité nomologique s’analyse au niveau du modèle comme la capacité à construire un réseau
$|
structurel conforme à la théorie. Il n’y a pas d’indicateur spécifique. On s’intéresse au coefficient
de détermination moyen entre les variables latentes endogènes, sous réserve que le modèle s’ajuste
4$

bien aux données.


By

Exemple
La variance moyenne extraite pour la variable OSL est :

Pour les autres blocs, on a

ρvc
AtR 0,447
IRK 0,593
Info 0,605

Ces valeurs sont acceptables, voire bonne pour Info, car il est assez rare de dépasser 60 % pour ce
type de mesure. Par contre, la faiblesse de la mesure de AtR se confirme.
Pour la validité discriminante, il est pratique de construire une matrice qui contient les variances
moyennes extraites en première colonne et les corrélations au carré entre variables latentes sous la
diagonale. Les valeurs reportées pour ces dernières sont celles fournies par le logiciel lors du test
du modèle de mesure global.

ρvc OSL AtR IRK Info


OSL 0,536 –
AtR 0,447 0,542 –
IRK 0,593 0,000 0,020 –
Info 0,605 0,084 0,037 0,012 –

La partie supérieure du triangle montre un défaut de validité discriminante entre OSL et AtR. Au
plan théorique, il n’y a pas d’ambiguïté entre les deux concepts. L’un est lié à un trait général
poussant les individus à une recherche permanente de sensations et de stimulation. L’autre est un
trait contingent lié à l’attrait pour le risque sur son lieu de vacances. Le problème est purement
empirique. Il vient probablement de ce que les items de mesure du risque sont en fait des
propositions qui se limitent à la recherche de sensations (notamment physiques) sur le lieu de
vacances. Cette mesure est donc à revoir. \/|
Le coefficient de détermination d’une variable latente dépendante est le complément à 1 du
$|
pourcentage d’information non expliqué de cette variable. Pour AtR, par exemple, il est de 1 –
0,419 = 0581. C’est excellent, mais doit être analysé en tenant compte de ce qui vient d’être dit
4$

pour la validité discriminante de cette variable. Les autres valeurs sont 0,061 pour IRK et 0,084
pour Info.
By

Globalement, la validité nomologique du modèle doit être questionnée. Le risque (recherché ou


perçu), en effet, explique une part marginale de la recherche d’information. La tendance à la
recherche de stimulation (OSL) n’a d’effet que sur l’attrait pour le risque (attention, à nouveau, au
problème de mesure) et n’a pas d’influence indirecte sur la recherche d’information.

b. Effets directs, indirects et totaux


Les effets directs sont les plus faciles à analyser. Un coefficient structurel est un coefficient de
régression partiel. Dans sa version standardisée, il s’interprète comme le gain de prédiction
exprimé en écart-type par rapport à la moyenne sur la variable endogène pour une augmentation
d’un écart-type au-dessus de la moyenne sur la variable exogène.

Exemple (suite)
Le coefficient de 0,762 entre OSL et AtR signifie qu’un niveau d’OSL à un écart-type
au-dessus de la moyenne prédit un niveau d’AtR à 0,762 écart-type au-dessus de la
moyenne de cette variable.
Lorsqu’une même variable endogène est reliée à deux (ou plus) variables exogènes, l’interprétation
pour un coefficient donné est la même, sachant que le niveau de l’autre variable exogène est
maintenu constant.
Les effets indirects sont le produit des effets directs entre les variables concernées. Lorsqu’une
variable intermédiaire existe entre deux autres variables, elle ne transmet à la variable endogène
qu’une partie de l’effet de la variable exogène. Pour une augmentation d’un écart-type au-dessus de
la moyenne de la variable exogène, le gain sur la variable dépendante sera exprimé en nombre
d’écarts-types au-dessus de la moyenne sur la variable dépendante, via son effet préliminaire sur la
variable intermédiaire.

Exemple (suite)
Dans la figure 15.11., l’effet indirect entre OSL et IRK est égal au produit de l’effet de
OSL sur AtR et de l’effet de AtR sur IRK, soit 0,762 × – 0,383 = – 0,292. Une
augmentation d’un écart-type sur OSL s’accompagne donc d’une diminution de 0,292
écart-type sur IRK, via son effet préalable sur AtR.

Les valeurs non standardisées des coefficients s’accompagnent d’un test qui permet de conclure à
\/|
leur valeur non nulle dans la population. Pour un effet indirect limité à une seule variable
intermédiaire, le test de Sobel donne la même information. Il consiste à calculer une erreur
$|

standard pour le produit des deux coefficients concernés :


4$
By

Où SEi est l’erreur standard du coefficient βi. Elle est donnée par le logiciel. Dans le cas général,

l’erreur standard d’un paramètre est l’écart-type de sa distribution d’échantillonnage, soit


pour un test en t (voir chapitre 12 et guide statistique téléchargeable sur la page de l’ouvrage de
Vuibert.fr).
Le test de Sobel est le ratio :

L’hypothèse nulle de ce test est que l’effet n’existe pas dans la population (i.e. ≤ 0). Pour les grands
échantillons, cette statistique se compare à une valeur de la loi normale centrée-réduite.
Il n’existe pas de test pour les petits échantillons, pour des valeurs standardisées et/ou pour des
effets indirects comportant plus d’une variable intermédiaire.
Exemple (suite)
Effectuons le test pour les trois mêmes variables. Les valeurs non standardisées des
coefficients et leurs erreurs standard sont données par le logiciel :

La relation entre OSL et AtR est, par exemple de 0,575 en valeur brute et son erreur
standard est égale à 0,075.
L’erreur standard du test est égale à :

\/|
Et la statistique du test à :
$|
4$
By

Au seuil de risque de 5 %, la valeur critique pour un test en z unilatéral est égale à


1,645. Le rejet de l’hypothèse nulle s’impose et l’effet indirect est significatif au seuil
de risque de 5 %.

L’effet total est la somme de l’effet direct et de l’effet indirect d’une variable sur une autre. Cet
effet se calcule pour les valeurs brutes comme pour les valeurs standardisées.
Exemple (suite)
L’effet total de OSL sur Info est :
0 + 0,762 × 0,273 + 0,302 × 0,152 + 0,762 × – 0,383 × 0,152 = 0,210
Le 0 initial indique l’absence d’effet direct, volontairement non postulé dans ce
modèle.
Une augmentation d’un écart-type sur OSL s’accompagne donc d’une augmentation de
0,21 écart-type sur Info en dépit de l’absence d’effet direct entre les deux variables.
L’effet est entièrement indirect, au travers des deux variables de risque. On dira dans
ce cas que l’effet de la tendance à la recherche de stimulation sur la recherche
d’information est médiatisé par l’attrait pour le risque et les conséquences négatives
d’un mauvais choix(390).
En termes de variance expliquée, cela ne représente toutefois que 0,212 = 0,044. La
tendance à la recherche de stimulation, l’attrait pour le risque et les conséquences
négatives d’un mauvais choix n’expliquent, ensemble, que 4,4 % de la recherche
d’information. Les déterminants de cette dernière sont par conséquent à chercher
ailleurs.
\/|
$|
La découverte de la modélisation par équations structurelles va se terminer par quelques
prolongements.
4$
By

D. Prolongements
Une modélisation par équations structurelles peut s’arrêter là. L’analyste peut néanmoins souhaiter
améliorer son modèle. Les outils nécessaires sont présentés dans un premier temps. Une autre
stratégie de modélisation est possible. Elle permet de passer outre certaines des contraintes liées à
l’analyse des structures de covariances. Cette forme alternative de modélisation sera abordée dans
un second temps.

1. Amélioration des modèles


Il est souvent intéressant d’analyser les problèmes rencontrés lors d’une modélisation et de tenter
de les résoudre. Deux stratégies peuvent être utilisées de manière complémentaire. Il s’agit de
l’analyse des résidus et des indices de modification proposés par les logiciels. Elles peuvent être
utilisées à tous les stades, de l’analyse factorielle confirmatoire au modèle structurel complet.

a. Analyse des résidus


La plupart des logiciels fournissent la matrice des variances-covariances résiduelles. Il s’agit de la
part de covariance entre les variables mesurées dont le modèle n’a pas été capable de rendre
compte. Les couples de variables pour lesquelles le résidu dépasse 0,1, par exemple, méritent
réflexion.
Lorsqu’il s’agit de variables du même bloc, cela indique généralement qu’elles ont une source de
variance autre que le facteur présumé. Cela peut être un autre facteur latent, auquel cas l’échelle est
en réalité bidimensionnelle. Cela peut être également un facteur de « méthode », ce qui se produit
par exemple lorsque deux variables ont une rédaction presque identique ou lorsqu’elles sont
rédigées dans le sens inverse des autres.
Lorsqu’il s’agit de variables appartenant à des blocs différents, cela peut indiquer un problème de
validité discriminante des deux facteurs concernés. Si elles sont fortement corrélées, le fait d’en
affecter une à un facteur et l’autre à un autre facteur va aboutir à un calcul de la covariance induite
par le modèle très éloigné de sa valeur observée. Dans ce cas, le problème est soit empirique (deux
concepts distincts mais des mesures qui se rapprochent), soit théorique (deux concepts dont les
définitions sont proches).
Dans tous les cas, il est souhaitable d’éliminer l’une ou l’autre des variables, sous réserve que
d’autres indicateurs fassent converger le diagnostic.

Exemple
Voici la matrice des résidus standardisés pour l’échelle de mesure de l’OSL dans sa
version à sept items. \/|
$|
4$
By

Trois résidus dépassent ou approchent 0,1. Deux concernent OSL 6 qui, par ailleurs, a
deux autres résidus supérieurs à 0,05. Cette variable est manifestement relativement
éloignée des autres. C’est l’une des deux dont la rédaction est inversée par rapport aux
autres. OSL 3 a également quatre résidus supérieurs à 0,05.
Le loading d’OSL 6 est le plus faible :

Il ne partage que 30,3 % d’information avec le facteur (0,552 = 0,303). Autrement dit,
70 % de sa variance est due à un ou plusieurs facteurs non modélisés. Il ne s’agit pas
d’un défaut de spécification puisque le concept sous-jacent (OSL) est par définition
unidimensionnel. C’est donc un problème de mesure qui doit pouvoir être résolu par
une rédaction différente de l’item. En attendant, il est préférable de l’enlever de
l’analyse.
b. Indices de modification
Ces indices peuvent être utilisés dans une stratégie d’amélioration progressive de modèles
emboîtés (on dit également « nichés »). On peut partir d’un modèle juste-identifié où toutes les
relations possibles sont spécifiées pour aboutir à un degré de liberté nul. Des relations sont ensuite
contraintes à 0 pour libérer des degrés de liberté. On parle de model trimming. À l’inverse, on peut
partir d’un modèle sur-identifié avec toutes les relations possibles fixées à 0 et libérer ces
dernières progressivement (model building).
Dans les deux cas, on compare l’évolution des indices d’ajustement, notamment du χ2, et l’on
s’arrête lorsque le meilleur résultat possible est obtenu. On dispose du test de différence du χ2 pour
vérifier que la différence entre deux modèles est significative. Soit deux modèles M et N.
La statistique :
χ2d = χ2M - χ2N
suit une loi du χ2 à ddld = ddlM – ddlN degrés de liberté. Le test est optimal quand ddld = 1, c’est-à-
dire quand les deux modèles ne diffèrent que d’un seul paramètre. Autrement, on ne peut pas
analyser précisément la source de l’évolution du χ2.
Cette stratégie doit être adoptée avec prudence. Il y a en effet risque de capitaliser sur le hasard
\/|
(capitalization on chance). Les particularités de l’échantillon font que les effets des différentes
modifications interagissent pour produire un modèle acceptable. Il s’agit alors d’un artefact qui n’a
$|
aucune existence dans la population. Il n’y a aucun moyen empirique de déceler ce problème. Toute
4$

modification apportée à un modèle doit par conséquent avoir un fondement théorique.


Dans ce contexte, les indices de modification sont un outil intéressant. Ils sont proposés par la
By

plupart des logiciels sous ce terme. Il s’agit en pratique de tests de Lagrange univariés. Ces tests
évaluent, dans un algorithme d’estimation, le taux de changement dans la valeur optimale d’une
fonction d’ajustement lorsque les contraintes pesant sur l’estimation évoluent. Le test s’exprime
sous la forme d’un test du χ2 à 1 degré de liberté. Pour un paramètre donné, la valeur calculée de ce
test estime la modification que subirait le χ2 du modèle étudié si on libérait le paramètre concerné.
On dispose également du test de Wald, qui fonctionne exactement à l’inverse. Il s’agit de
contraindre des paramètres à 0 et de voir quel impact cela aurait sur le χ2 du modèle étudié.
Exemple
Les 5 premiers tests de Lagrange pour le modèle de la figure 15.9 sont donnés ci-
dessous :

Dans la terminologie du logiciel utilisé, E désigne un terme d’erreur, V une variable


de mesure et F une variable latente. Les trois premières modifications proposées
concernent des corrélations de termes d’erreur. Les deux suivantes suggèrent
l’affectation de variables de mesure à des facteurs auxquels elles ne sont pas liées
pour l’instant. \/|
Sauf si l’on a une bonne raison (théorique) de le faire, corréler des termes d’erreur
$|
devrait être évité(391). Examinons le premier, qui représente un gain de 10,614 sur la
valeur du χ2. Pour le modèle de la figure 15.9, cette valeur est de 64,853. Le χ2
4$

résultant serait donc égal à 54,239 pour 38 degrés de liberté. Statistiquement, il s’agit
d’une option intéressante bien que probablement insuffisante pour que le χ2 devienne
By

non significatif.
E13 et E15 correspondent à OSL5 et OSL7. Ces deux items sont libellés,
respectivement :
– « Un emploi qui offre changement, variété et déplacements me convient bien, même
si cela implique un certain risque »
– « Lorsque quelque chose commence à m’ennuyer, j’aime trouver autre chose qui ne
m’est pas familier »
D’une part le concept d’OSL est théoriquement unidimensionnel. D’autre part, il n’y a
rien de commun ou de redondant dans la rédaction qui pourrait expliquer cet artefact.
Nous prenons donc la décision de ne pas modifier le modèle dans le sens suggéré.

2. Approche PLS
La modélisation par équations structurelles par les moindres carrés partiels (Partial Least Squares
Path Modeling – PLS PM) est une alternative à l’analyse des structures de covariances. Elle permet
d’évaluer le même type de modèles. Sur certains aspects, PLS PM est plus souple. Sur d’autres,
elle est plus limitée. Historiquement, les deux méthodes sont apparues sensiblement en même
temps. Mais PLS PM a souffert d’un défaut d’offre en matière de logiciels de traitement, tandis que
l’analyse des structures de covariances bénéficiait d’une saine concurrence à ce niveau (LISREL,
EQS puis SEPATH, AMOS, MPlus...). Ce problème est résolu depuis la fin des années 90 et PLS
PM a récemment fait l’objet de nombreux développements (PLS-Graph, Visual PLS, SmartPLS,
XLSTAT PLS PM)(392).
Les caractéristiques de la modélisation PLS n’imposent pas de contraintes particulières quant au
nombre d’observations et à la qualité des données. On peut donc évaluer des modèles complexes
avec de petits échantillons et des données de toute nature, dont la distribution est également
indifférente. On peut également tester des modèles contenant, partiellement ou exclusivement, des
blocs formatifs. Un bloc formatif renverse la direction des relations entre la variable latente et ses
mesures. Ce sont ces dernières qui sont source de la variable latente. Les implications statistiques
sont nombreuses, et l’utilisation de ce type de mesure ne fait pas l’unanimité même si, au plan
théorique, l’idée est séduisante(393). Contrairement à l’analyse des structures de covariances, où elle
est source d’estimations de paramètres parfois aberrantes, PLS n’est pas sensible à la
multicolinéarité des variables latentes.
En contrepartie, PLS ne dispose pas d’un test d’adéquation globale équivalent au test du χ2 et ne
fournit pas d’estimations de paramètres réputées optimales au plan statistique. Plus généralement, la
validation d’une théorie (matérialisée par un modèle) est formellement impossible avec PLS. De ce
point de vue, la méthode n’est pas entièrement confirmatoire. PLS ne permet pas non plus de
modéliser des relations bidirectionnelles. \/|
On montre néanmoins que les deux approches ont des résultats relativement convergents dès lors
$|
que l’on travaille sur des gros échantillons et que l’on dispose d’un nombre élevé d’indicateurs par
4$

variable latente. Quand les données respectent la contrainte de normalité, les résultats sont
également similaires même si les estimations des paramètres sont réputées plus précises dans
By

l’analyse des structures de covariances. De manière générale, PLS est ainsi une bonne
approximation de l’analyse des structures de covariances quand les conditions d’application de
cette dernière ne sont pas remplies.
Plus qu’opposées, les deux approches sont complémentaires. Quand faut-il choisir l’une ou
l’autre ? La figure 15.12. propose quelques éléments de réflexion(394).
Figure 15.12. Critères de choix entre PLS PM et CB SEM (Covariance Based Structural Equation Modeling)

PLS PM CB SEM
Prédiction de construits,
développement théorique, Test ou validation d’une théorie,
Objectifs de recherche
exploration d’alternatives comparaison de théories
théoriques
Spécification du modèle de Nécessité de modéliser des Nécessité de modéliser des
mesure construits formatifs liens entre termes d’erreur
Modèle complexe (nombreux Relations structurelles
Modèle structurel indicateurs, nombreuses bidirectionnelles (modèles non
relations structurelles) récursifs)
Faible (au moins 10 fois le
nombre le plus élevé
d’indicateurs formatifs dans un
Élevée (5 à 20 fois le nombre
Taille d’échantillon bloc ou 10 fois le nombre le
de paramètres à estimer)
plus élevé de relations
structurelles en direction d’une
variable latente donnée)
\/|
Distribution des variables de Contraintes de normalité
$|
Données non normales
mesure respectées
4$

Nécessité de tester
statistiquement la plausibilité du
By

modèle dans la population ;


Évaluation du modèle Pas de besoin particulier
nécessité de tester l’invariance
du modèle de mesure sur
plusieurs populations
Nécessité d’utiliser les scores
Analyses complémentaires
latents dans d’autres analyses
Gratuits : Visual PLS, Smart Gratuits : Mx
PLS Payants : LISREL, EQS, AMOS
Logiciels
Payants : PLS Graph, XLSTAT (SPSS), MPlus, SEPATH
PLSPM (Statistica)

Conclusion
Bien que complexe à mettre en œuvre, l’expérimentation peut apporter des informations précieuses
pour la décision marketing. Son champ d’application est principalement opérationnel, notamment la
mise au point du marketing-mix, sans toutefois exclure une portée plus stratégique.
Ce chapitre a tout d’abord passé en revue les aspects conceptuel et pratique de la mise en place des
plans d’expérience. À cet effet, rigueur, précision et prudence sont des mots clés pour le chargé
d’études. Différents types de plans ont été présentés, du plus simple (plan aléatoire à un facteur, de
type « après, sans contrôle ») au plus complexe (plan factoriel complet de type « avant-après »
avec contrôle, plan de Solomon). Tous ont le même objectif : permettre d’identifier des relations de
cause à effet entre variables.
Deux méthodes de traitement des données expérimentales ont ensuite été présentées. L’analyse de
variance est particulièrement adaptée à cet objectif. Si ses contraintes d’application sont
respectées, elle permet de mettre en évidence les effets différentiels des traitements expérimentaux
sur la tendance centrale des variables.
L’analyse conjointe est une forme particulière d’analyse de variance, très précieuse pour expliquer
les choix de consommation des individus. Elle offre l’avantage de traiter des classements de
produits effectués par des individus et d’être ainsi proche de la réalité des comportements. Elle
permet également de mieux comprendre les arbitrages entre produits que réalisent parfois les
consommateurs. Les réponses marketing tenant compte de ces éléments n’en sont que plus
pertinentes.
La troisième partie a présenté une approche de la modélisation qui généralise la plupart des
méthodes présentées dans ce chapitre et le précédent. Plutôt utilisée pour traiter des données
d’enquêtes, la modélisation par équations structurelles est également adaptée au traitement de
données expérimentales. Elle marie l’analyse factorielle et l’analyse de régression et permet ainsi
de tester formellement l’existence de relations de dépendance (voire de causalité) entre variables
\/|
latentes. L’utilisation de cette forme de modélisation est adaptée au traitement de problèmes
$|
rencontrés dans de nombreux domaines du marketing et au-delà (comportement du consommateur,
4$

marketing international, marketing stratégique, marketing opérationnel). En contrepartie, elle est


relativement difficile à maîtriser dans ses aspects les plus techniques.
By
Test de connaissance
(Cochez une seule réponse par question.)
Q1. Pour mettre en évidence des relations de cause à effet, le plus important est :
(1) la collecte des informations
(2) le traitement des données
(3) la présentation du questionnaire
Q1. Dans quel type de plan expérimental peut-on mesurer un effet d’interaction ?
(1) Plan à 1 facteur, avant/après sans contrôle
(2) Plan à 1 facteur, avant/après avec contrôle
(3) Plan à 2 facteurs, après avec contrôle
Q1. L’analyse de variance teste :
(1) des différences de moyennes
(2) des différences de variances
\/|
(3) des différences de fréquences
$|
4$

Q1. L’analyse conjointe mesure :


(1) l’implication des consommateurs
By

(2) les préférences des consommateurs


(3) les attitudes des consommateurs
Q1. Quel est le degré de liberté du modèle de la figure 15.5. ?
(1) 24
(2) 39
(3) 48
Réponses : voir annexes téléchargeables sur www.vuibert.fr

Bibliographie
BERENSON M. L., LEVINE D. M. et GOLDSTEIN M., Intermediate Statistical Methods and
Applications. A Computer Package Approach, Prentice-Hall, 1983, pp. 51-202.
GIRDEN E., ANOVA. Repeated Measures, Quantitative Applications in the Social Sciences, Sage,
Newbury Park, 1992.
HAIR J. F. Jr., ANDERSON R. E., TATHAM R. L. et BLACK W. C., Multivariate Data Analysis, with
Readings, 7e éd., Pearson Education, 2013.
JOURDAN P. et JOLIBERT A., Marketing research. Méthodes de recherche et d’études en marketing,
2e édition, Paris, Dunod, 2011.
KEPPEL G. et WICKENS T. D., Design and Analysis : A Researcher’s Handbook, 4e édition, Pearson
Education, 2004.
KLINE R. B., Principles and Practice of Structural Equation Modeling, 3e édition, The Guilford
Press, New York, 2011.
LIQUET J.-C., « L’analyse conjointe », Décisions Marketing, 4, 1995, pp. 101-110.
WINER B. J., BROWN D. et MICHELS K. M., Statistical Principles in Experimental Design, 3e édition,
McGraw-Hill, 1991.
WRIGHT D. B., Understanding Statistics. An Introduction for the Social Sciences, Sage Publications,
1997.

Webographie
http://www.fsa.ulaval.ca/personnel/rigauxbb/manuels/analyse_conjointe
\/|
http://www.coryent.com/planex.html
$|
4$

http://faculty.chass.ncsu.edu/garson/PA765/index.htm
http://davidakenny.net/kenny.htm
By

http://www.upa.pdx.edu/IOA/newsom/
Conclusions et recommandations

\/|
$|
4$
By
Présentation du rapport d’étude et mise en œuvre
Il faut avoir beaucoup étudié pour savoir peu.
MONTESQUIEU

Au cours des chapitres précédents, nous avons parcouru les trois premières phases de la réalisation
de l’étude de marché : préparation, collecte et traitement des informations. La présentation et la
mise en œuvre du rapport d’étude se subdivisent en quatre points, présentés dans la figure 1, qui
serviront de trame à ce chapitre.
Le rapport d’étude se décline en deux versions : une version allégée, appelée « fond de rapport » et
une version traditionnelle, complète et détaillée.
Sa rédaction exige des qualités, parfois contradictoires, telles qu’esprit de synthèse et intuition,
rigueur et pragmatisme.
Les conclusions doivent répondre clairement aux questions initiales du client, listées dans le projet
\/|
d’étude.
$|

Si les dispositions du contrat d’étude le prévoient, le rapport est présenté oralement. C’est un face-
4$

à-face crucial entre le client, demandeur de l’étude, et le chargé d’études, réalisateur de la


mission : en effet, c’est souvent à ce moment-là que le client évalue l’efficacité réelle de l’étude.
By

En fonction de cette perception, il prendra ou ne prendra pas les décisions qui découlent des
conseils ou des recommandations formulés par le chargé d’études.
Figure 1. Plan du chapitre
I. Rédaction du rapport d’étude
Les résultats sont regroupés dans un support écrit, appelé rapport d’étude, rédigé par le chargé
d’études. Ce document est remis au commanditaire du travail, client extérieur ou service interne de
l’entreprise.

A. Présentation matérielle
Il existe deux formats. Le rapport complet est le format « long » traditionnel. Le « fond de
rapport », correspond au format réduit ; il est essentiellement composé d’une série de messages et
tableaux de résultats brièvement commentés.
Ces dernières années, les instituts d’études proposent, dans leurs devis, le rapport complet sous la
forme d’une option payante. Ceci permet de « serrer » le devis initial, en offrant une possibilité de
réduire le budget consacré à l’étude.

1. Format traditionnel
a. Nombre de pages
La longueur dépend bien sûr de la complexité de l’étude et de la finesse des analyses effectuées.
\/|
Pour fixer un ordre de grandeur, 40 à 80 pages (hors annexes) constituent un volume usuel. Les
$|
commentaires sont élaborés avec soin et rédigés dans un style soutenu.
4$

b. Présentation générale
By

Le format A4 (ou « pleine page » de 21 × 29,7 cm) est la règle. Pour faciliter la lecture du rapport,
une bonne solution consiste à mettre le texte en page de droite, et les schémas, tableaux ou figures
en regard sur la page de gauche.
Pour un document de moins de 80 pages (annexes comprises), une reliure en plastique amovible
convient : peu coûteuse, elle donne un confort de lecture satisfaisant. Il faut éviter les documents
agrafés, présentation qui ne convient qu’aux notes internes. La couverture du rapport demande un
papier d’un grammage épais de 200 ou 250 grammes. Une feuille en plastique transparent, placée
en première et en dernière page, protège efficacement la couverture contre les traces de doigts
disgracieuses et confère à l’ensemble du document une note plus professionnelle.
La reliure cartonnée, de préférence en dos carré cousu-collé, est plus prestigieuse, mais impose un
façonnage relativement onéreux. La nécessité d’une diffusion électronique, puis le développement
des tablettes numériques rendent cette présentation quasi obsolète, sinon inutile. Elle est réservée à
l’édition de rapports volumineux ou aux études de haut de gamme. L’avantage réside dans la
possibilité d’inscrire sur la tranche le titre de l’étude, ce qui facilitera le classement et le repérage
ultérieur du rapport dans une bibliothèque. Si on opte pour un dos carré collé simple, il convient
d’être vigilant sur la qualité du collage, pour éviter de voir le rapport se transformer rapidement en
feuilles volantes.
Si une diffusion au grand public est envisagée, la possibilité d’une édition au format livre
électronique (e-book) existe. Amazon offre ainsi une plate-forme pour éditer gratuitement une
publication au format de son lecteur de livre électronique, le Kindle(395).

2. Format « fond de rapport »


Pour accroître la productivité des chargés d’études, certains instituts ont conçu des modèles
standardisés pour la présentation de résultats d’études ad hoc simples. C’est un rapport très allégé,
souvent édité à partir d’un Powerpoint, puis converti et édité au format pdf. C’est un document
court et facile à lire. Les commentaires des résultats sont brefs, souvent présentés sous une forme
standardisée. L’ensemble représente un volume équivalent à 20 à 40 diapositives.
Le fond de rapport expose sur chaque diapositive les résultats d’une ou deux questions, souvent
illustrés par des chiffres simples (tris à plats, tris croisés, moyennes) présentés sous forme de
tableaux ou graphiques ; une cartouche située en bas de page ajoute quelques lignes de
commentaires sur ces résultats (voir figure 2).
Figure 2. Exemple d’un « fond de rapport »

\/|
$|
4$
By

B. Rubriques usuelles (rapport traditionnel)


Le plan type d’un rapport d’étude complet comporte sept rubriques, listées dans la figure 3 ; le
nombre de pages mentionné est indicatif. Nous allons les présenter rapidement.
Figure 3. Grandes rubriques d’un rapport

1. Page de couverture et sommaire


La couverture reprend le titre de l’étude, le nom et l’adresse de l’organisation, ou le service
responsable de l’étude, le(s) auteur(s) et la date d’achèvement du rapport.
Le sommaire, paginé, récapitule les grandes divisions et sous-parties du document. Table
d’orientation indispensable, il permet au lecteur pressé d’identifier la logique du raisonnement,
puis de se reporter à l’un ou l’autre des points. Si le rapport est volumineux, il est utile d’ajouter
une liste des tableaux ou figures, ainsi qu’une table des annexes.

2. Résumé managérial (une à trois pages)


\/|
Parfois considéré, à tort, comme facultatif, ce résumé est pourtant indispensable, car les
$|

responsables d’entreprise ne lisent fréquemment, faute de temps, que cette seule partie. Les points
4$

essentiels sont le rappel des objectifs, les trois ou quatre résultats majeurs obtenus et les
principales conclusions.
By

3. Introduction et préliminaires (deux à cinq pages)


Les objectifs de l’étude sont brièvement rappelés, ainsi que le contexte et les éventuelles
hypothèses de travail. Les hypothèses renvoient à diverses éventualités qui, si elles se réalisent,
conduisent à des conclusions différentes. Par exemple, les conclusions seront différentes, selon le
taux de croissance du marché retenu ou selon le niveau de concurrence.
Les contraintes correspondent à des conditions pré-requises pour que les conclusions figurant dans
le rapport soient valides ; il s’agit en quelque sorte de réserves qu’émet le rédacteur.

Exemple
« Nous avons considéré que l’entreprise sera capable de mobiliser un budget de
1 million d’euros pour le lancement du produit et aura assuré une disponibilité
numérique minimale de 50 % en hypermarché lors du démarrage des ventes. »

Si une étude documentaire ou des résultats d’un travail antérieur a été utilisé, ils sont brièvement
présentés car ils orientent la démarche ultérieure.
Certains chargés d’études précisent à ce niveau les limites de leurs investigations, c’est-à-dire les
éléments susceptibles de modifier les conclusions, qui ont été volontairement exclus, généralement
pour des raisons de budget ou de temps.
Enfin, si des termes particuliers ont été utilisés (mots techniques, concepts marketing...), une
définition claire et simple doit être fournie. Par exemple, on indiquera ce que l’on entend par
prescripteur, cœur de cible, score d’impact, marché potentiel...

4. Méthodologie (une à trois pages)


L’exposé de la méthodologie est rapide et se limite aux points majeurs. Si la présentation
d’éléments complexes ou relativement longs est requise (collecte des données, traitements
statistiques), on utilise une annexe méthodologique. Seuls les principaux points figurent dans le
corps du document, sous forme de « fiche méthodologique ».
Figure 4. Exemple de fiche méthodologique récapitulative

– Nature de l’étude (qualitative, quantitative, marché-test...)


– Taille et mode de tirage de l’échantillon
– Taux de réponse, pourcentage de questionnaires exploitables
– Dates des enquêtes, nombre d’enquêteurs
– Problèmes particuliers (synthèse du débriefing des enquêteurs)
\/|
– Procédure de contrôle des enquêtes
$|
– Procédures éventuelles de validation ou de redressement des résultats, seuil de confiance des
résultats
4$

– Type d’analyses réalisées


By

5. Analyse des résultats (trente à soixante pages)


La première erreur, classique, est de viser l’exhaustivité : le rapport devient une litanie de chiffres
et de graphiques sans fin. D’une façon générale, les résultats doivent être hiérarchisés : en premier
lieu, les deux ou trois faits les plus marquants, suivis par trois ou quatre points de moindre
importance. Les analyses complémentaires sont renvoyées en annexe, avec une simple mention dans
le corps du rapport.
Un deuxième défaut du chargé d’études débutant est la tendance à recopier le questionnaire et à
fournir les réponses (souvent sous forme de tris à plat ou de moyennes) question par question. Le
lecteur est rapidement noyé par les chiffres et les commentaires parcellaires. Une bonne approche
consiste à construire le rapport par grands thèmes, sur la base des différentes questions posées au
départ. Les questions traitant d’un même thème sont regroupées afin de dégager une synthèse. Seuls
les chiffres bruts correspondant à quelques questions jugées fondamentales sont fournis dans le
corps du rapport. Il est préférable de renvoyer dans une annexe spécifique les résultats complets de
chaque question.
Les tableaux et graphiques (attention ni trop, ni pas assez !) facilitent la compréhension et la
mémorisation. Nous consacrons le paragraphe D à une présentation des principales techniques
graphiques. Chaque tableau ou graphique est accompagné de son titre, d’une légende et d’un numéro
de référence. N’oublions pas que, si les illustrations permettent d’alléger le texte, elles ne le
suppriment pas : il est indispensable de commenter les tableaux et figures (ou les plus importants
d’entre eux) et de préciser les informations ou les conclusions majeures.
Il est utile de produire, sous forme d’encadré à chaque fin de page, ou toutes les deux ou trois
pages, un résumé des résultats et des conclusions partiels tirés de l’analyse des informations. La
figure 5 donne un exemple : la partie de gauche est réservée aux graphiques, le texte et l’encadré
récapitulatif sont en page de droite.
En résumé, les cinq questions suivantes guident la construction de cette partie du rapport :
1 – Quelles étaient les questions prioritaires auxquelles l’étude devait apporter des réponses ? La
présentation des résultats doit impérativement apporter des informations précises à chacune de ces
interrogations.
2 – Quels sont, parmi les résultats, ceux qui donnent les réponses les plus claires, les plus solides ?
Cette sélection donnera un dynamisme et une concision naturels au rapport d’étude.
3 – Existe-t-il des résultats contradictoires ? Comment peut-on les expliquer ? Ces nuances doivent
être indiquées dans le document ; les explications sont étayées par des faits et résultats vérifiables,
plutôt que par des suppositions.
Figure 5. Présentation des résultats de l’étude

\/|
$|
4$
By

4 – Quels sont les résultats inattendus qui suggèrent des nouvelles pistes ? Insérée de manière
adroite, cette ouverture pourra justifier une investigation complémentaire.
5 – Qui lira en priorité le rapport ? Quel est son degré de familiarité avec le sujet et la
méthodologie employée ? Le vocabulaire doit être adapté au public visé. Un glossaire, expliquant
sommairement les concepts et le vocabulaire technique, est souvent apprécié ; il sera situé en début
ou fin de rapport.

6. Conclusions (deux à dix pages)


Cette partie, très importante, fournit au client les éléments de synthèse nécessaires à la prise de
décision. Les conclusions répondent, point par point, aux différentes questions qui ont motivé
l’étude. Elles s’appuient, soit sur les seuls faits observés, soit sur des scénarios (réactions des
concurrents, état de la demande, etc.) jugés plausibles. Le chargé d’études n’interprète pas le sens
des résultats et ne fournit pas d’informations sur la nature de la décision que le client peut prendre
au vu des résultats, du type : « Comme c’est un excellent résultat, il est logique de lancer le
produit. » Tout au plus, il indique s’il s’agit d’un bon ou d’un mauvais résultat. Nous développerons
dans la figure 6 un exemple illustratif.

7. Annexes
Les annexes allègent le corps du rapport et servent à l’exposé des aspects techniques d’une méthode
ou à la présentation d’analyses ou de tableaux secondaires. Lues par un petit nombre de personnes,
mais souvent spécialistes du thème développé, elles ne sont pas un moyen commode d’étoffer un
rapport succinct, mais plutôt des éléments destinés à renforcer la crédibilité du travail entrepris. En
cas d’annexes volumineuses, il convient de prévoir un document distinct du rapport principal.

C. Recommandations et conseil
Les rubriques précédentes se suffisent à elles-mêmes. En d’autres termes, la mission du chargé
d’études s’achève dès que les conclusions ont été présentées. Pourtant, dans bon nombre de cas, le
demandeur souhaite que le réalisateur s’engage plus en avant. Puisque ce dernier dispose d’une
grande quantité d’informations pour résoudre le problème, l’entreprise attend des suggestions sur
la, ou les solution(s) préférable(s). Cet engagement peut se limiter à un premier stade, la
recommandation, ou aller plus loin : on parle alors de conseil.
\/|
1. Recommandations
$|
4$

Les recommandations sont une traduction des conclusions en termes de choix marketing, plus ou
moins élaborées selon l’ampleur de l’étude. Elles se justifient par l’expérience accumulée : grâce
By

aux études antérieures similaires ou comparables, l’analyste est capable de dégager des « normes »
pour apprécier les résultats. Par exemple, l’expérience montre que, pour les tests de concept d’un
nouveau produit, en moyenne 60 à 80 % des personnes enquêtées se déclarent systématiquement
intéressées par l’idée : donc, si pour un produit donné, le score n’est que de 70 %, l’analyste
émettra des doutes sur les chances de succès du produit et recommandera de modifier telle ou telle
caractéristique.
Lors d’une recommandation, le chargé d’études précise à son client les informations jugées les plus
solides, c’est-à-dire les données « dures » qui conduisent à des décisions sans risques, et celles qui
sont plus délicates à interpréter, peut-être à cause de biais dans les réponses ou d’autres facteurs
explicatifs non contrôlés dans l’étude. La valeur ajoutée d’une bonne recommandation est forte,
parce qu’elle permet au décideur de hiérarchiser la qualité des informations fournies, et parce
qu’elle oblige le chargé d’études à « faire parler les résultats ».

2. Conseil
Le conseil suppose une implication plus grande encore : c’est le « service après-vente » du rapport
d’étude. Il indique quels types d’actions marketing doivent être mis en œuvre. L’homme d’études se
substitue au manager (acheteur de l’étude) en indiquant quelle stratégie, quel plan ou quelle tactique
marketing il pratiquerait, s’il était à sa place.
Pour produire des conseils de bonne qualité, il est impératif de disposer d’une vue globale des
forces et des faiblesses de l’entreprise sur les plans financier, humain et technologique. La culture
des managers, leur autonomie dans la prise de décision et le degré de risque jugé tolérable sont
autant d’éléments à considérer. Ainsi, on ne donnera pas les mêmes conseils à une filiale d’un
groupe multinational qu’à une PME, quand bien même leurs résultats seraient identiques.
La figure 6 illustre les principales distinctions entre la conclusion, la recommandation et le conseil.
Figure 6. Option d’un rapport d’étude

\/|
3. Jusqu’où faut-il aller ?
$|
La distinction entre les différentes prestations offertes par les instituts d’études, les sociétés de
4$

conseils et les consultants devient de plus en plus délicate. En effet, les sociétés d’études de marché
intègrent leur activité vers l’aval (le conseil), les consultants réagissent en s’associant avec des
By

cabinets d’études, c’est-à-dire en s’intégrant vers l’amont.


Les avis restent globalement partagés sur les limites de l’intervention du chargé d’études : la
figure 7 montre que la moitié des managers souhaitent que la mission du chargé d’études se borne à
la seule présentation des conclusions, l’autre moitié attendant des recommandations ou du conseil ;
de leur côté, les chargés d’études préfèrent assez nettement étendre leurs activités dans la seconde
direction(396).
Figure 7. Limites des missions du chargé d’études

Tout à fait ou
Tout à fait ou
plutôt
Jugement proposé plutôt d’accord
en désaccord
Managers Études Managers Études
« Les hommes d’études doivent
limiter leur intervention à la simple 46 % 35 % 48 % 60 %
présentation des faits. »
Source : adapté de NICHOLSON P., « Réconcilier les hommes d’études et les décideurs »,
Revue française de gestion, no 61, janvier-février 1987, pp. 22-32.

Cependant, bon nombre de sociétés d’études soulignent que la demande des acheteurs d’études est
de plus en plus pressante pour que le conseil complète la prestation d’étude et soit intégré dans le
rapport. Le flash-étude 1 donne les points de vue de deux praticiens de ces métiers.

Flash-Étude 1
\/|
$|
Société d’études de marché ou société de conseil ?
4$

Le point de vue d’un consultant(397)


By

« La mission d’un consultant se résume en une phrase : identifier le véritable problème derrière
celui posé par le client en lui donnant les moyens de se le reposer de manière créative et lui
apporter une recommandation opérationnelle. Il doit aussi forcer l’entreprise à changer ses
règles du jeu, à casser son cloisonnement vertical et centralisé. Les études, malgré leur
importance, ne sont qu’un outil destiné à la prise de décision. Que les cabinets d’études
apportent une valeur ajoutée dans le cadre de leur expertise technique me semble positif, qu’ils
débordent de cette expertise sous prétexte de valeur ajoutée est dangereux à la fois pour le
cabinet et pour le client. »

Le point de vue d’une société d’études(398)


« Nous travaillons désormais également en amont avec une activité d’information et de
surveillance des marchés et en aval dans l’assistance et le conseil marketing, stratégique,
recherche de partenaires [...] On ne s’improvise pas conseil du jour au lendemain sans
connaissance approfondie des secteurs économiques sur lesquels nous travaillons [...] Il s’agit
d’un investissement très lourd qui peut mettre notre entreprise en difficulté. Mais il est justifié
parce que le marché des études va inéluctablement se réduire, tandis que les activités en amont et
en aval vont se développer. »
D. Illustrations graphiques et schémas
Les graphiques et les schémas remplissent deux fonctions principales :
– synthétiser. C’est présenter de manière simplifiée les informations initiales brutes ou les résultats
des analyses effectuées sur ces données ;
– communiquer. C’est hiérarchiser les informations et faire preuve d’un sens pédagogique pour
choisir l’illustration la plus « parlante ». Les illustrations conduisent parfois à une perte
d’information : mais, même si elles ne transmettent qu’une partie d’un message, elles permettent de
comprendre plus vite « ce qui émerge, ce qui est essentiel ».
Si les différentes formes de graphiques sont assez faciles à répertorier, les possibilités offertes
par les schémas sont pratiquement illimitées(399). Nous allons sommairement décrire les deux
catégories.

1. Graphiques classiques
Il existe trois grands types de représentations graphiques :
– l’histogramme : illustration de la distribution d’une variable continue (intervalle ou rapport) ;
– le diagramme : comparaison des données brutes ou résultant de traitements statistiques. La seule
exigence porte sur la nécessité de fractionner la variable (nominale, ordinale, métrique) en
\/|
modalités ou classes ;
$|
– le graphique géométrique : suivi des évolutions d’une même variable (continue) dans le temps, ou
4$

représentation d’une ou de plusieurs relation(s) (association, lien de dépendance) entre plusieurs


variables ; les informations, brutes ou traitées, sont reportées dans un repère (généralement)
By

orthonormé.
La fiche technique 1 présente les principaux types de graphiques. Nous avons volontairement
sélectionné les plus courants ; ils sont facilement reproductibles avec la plupart des tableurs et
grapheurs.

Fiche technique 1. Construction et choix d’un graphique


1 – Histogrammes
– Conditions
La variable utilisée doit être continue (i.e. mesurée sur une échelle d’intervalle).
– Principes de construction
Par souci de commodité, les données sont d’abord réparties dans des classes. Pour une question ouverte, le
chargé d’études fixe, a posteriori, la largeur de chaque classe ; dans le cas d’une question fermée, le nombre de
classes est égal au nombre de postes de l’échelle sur laquelle la variable a été mesurée.
Si l’intervalle entre les classes est identique, les calculs sont simples. On reporte d’abord sur l’axe des abscisses
(axe horizontal) les extrémités de chaque classe, puis en ordonnée (axe vertical) les effectifs (fréquences
absolues) ou les pourcentages (fréquences relatives). Lorsque la largeur des classes n’est pas identique, on
divise l’effectif de chaque classe par la largeur de l’intervalle. Par exemple, si une classe a une largeur double ou
triple des précédentes, l’effectif réel est divisé par deux ou trois dans la représentation graphique.
– Exemple
La société « Perfume SA » vend deux sortes de parfums. Une étude de marché a permis de répartir les ventes
annuelles des marques A et B en fonction de l’âge de la consommatrice. Le tableau ci-dessous récapitule les
résultats.

\/|
$|
4$
By
By
4$
$|
\/|
\/|
$|
4$
By

Le tableau de chiffres précédent exige une concentration minimale pour constater que la cible du parfum A est
nettement plus jeune que celle de B, alors que la comparaison des histogrammes 1 et 2 ci-dessous met ce fait en
évidence sans effort.
– Usages types
L’histogramme est très utile pour apprécier visuellement la loi de distribution d’une variable et sa symétrie
autour de la moyenne. Mais l’information fournie est limitée à une variable, et impose une mesure métrique. Pour
ces diffé rentes raisons, les rapports d’étude privilégient les diagrammes.
2 – Diagrammes
– Conditions
Elles sont pratiquement inexistantes : toutes les échelles de mesure conviennent, il suffit de pouvoir répartir les
observations en classes. De plus, on peut représenter sur le même schéma des croisements de modalités de deux
variables (tris croisés).
– Catégories et principes de construction
Différentes représentations existent ; le choix dépend essentiellement des préférences artistiques du chargé
d’études :
(a) Diagrammes en secteurs, appelés familièrement « camemberts ». La surface de chaque secteur est
proportionnelle au poids de la modalité de la variable(400). Les schémas 3 et 4 montrent les diagrammes en
secteurs issus des ventes respectives des parfums A et B. La plupart des logiciels graphiques actuels offrent la
possibilité d’une représentation en trois dimensions. Cette option enrichit le graphique, comme le montre le
schéma 3 bis, mais elle doit être utilisée avec prudence, car elle nuit parfois à la clarté du graphique.
(b) Diagrammes à colonnes (horizontales ou verticales). Chaque modalité des variables prend la forme d’un
rectangle dont la hauteur est proportionnelle au poids de la modalité. On reporte indistinctement sur l’axe
horizontal (ou vertical) leurs fréquences absolues des modalités (effectifs) ou leurs fréquences relatives
(pourcentages). L’avantage majeur, par rapport aux diagrammes en secteurs, est la possibilité d’une
représentation de tris croisés des modalités de deux variables.

\/|
$|
4$
By
By
4$
$|
\/|
\/|
$|
4$

Le diagramme 5 permet ainsi la comparaison directe des ventes des marques A et B selon les tranches d’âge : les
By

ventes des parfums sont exprimées en millions d’euros pour chaque tranche d’âge. Deux informations
apparaissent clairement : les ventes globales de parfums A et B sont à peu près comparables, mais la cible de A
est nettement plus jeune que celle de B.
Le graphique 5 bis exprime la même information à partir d’une vue plongeante en trois dimensions. Cette
représentation doit être évitée, car elle tend à surcharger le graphique et finit par faire perdre de vue
l’essentiel : le parfum B touche une cible plus âgée que A.
By
4$
$|
\/|
\/|
$|
4$
By

Le diagramme 6 indique sur l’axe des ordonnées le pourcentage des ventes des marques A et B réalisées sur
chaque catégorie d’âge. Par exemple, on constate que 83 % des 31-40 ans consomment le parfum A (= 86/104)
et seulement 17 % d’entre eux utilisent la marque B (= 18/104) : la pénétration de la marque B est très faible
auprès de la population jeune.
\/|
$|
4$
By

– Usages types
Ces graphiques sont particulièrement adaptés à la représentation des analyses descriptives simples (tris à plat
et croisés), telles que la répartition des ventes par pays, par canal de distribution, par segment de marché... Ils
sont très utilisés pour illustrer les résultats de questions à choix multiple.
\/|
$|
4$
By

3 – Séries chronologiques
– Conditions
Lorsque l’on étudie les valeurs prises par une même variable sur plusieurs années, on obtient une série
chronologique. En marketing, on parlera d’étude longitudinale, terme traduit en anglais par « tracking studies ».
– Principes de construction
Ces graphiques ne présentent aucune difficulté de construction. On utilise un repère orthonormé, avec la
variable observée en ordonnée et le temps en abscisse. Les cordonnées des différentes mesures sont portées
sur le graphique géométrique, puis les différents points sont reliés entre eux.
– Exemple

Année
Ventes Année 2013 Année 2014 Année 2015
2016
Parfum A 189 170 150 100
Parfum B 154 180 210 300
Représentation en deux dimensions...

\/|
$|
4$
By

... ou en trois dimensions


Le choix nous semble ici plus délicat à opérer. L’essentiel est que les deux graphiques transmettent
le message de base : les ventes du parfum A s’effondrent, celles de B explosent.
– Usage types
Ces graphiques sont très employés pour illustrer les résultats des panels, les baromètres et autres
études longitudinales. En un coup d’œil, on observe les mouvements passés et on peut prolonger
ces tendances pour le futur. Par rapport aux diagrammes, l’utilisateur a la possibilité de reporter sur
un même graphique un plus grand nombre d’observations et de variables. En revanche, si le nombre
d’observations est faible, et si l’on ne travaille qu’avec une ou deux variables, les diagrammes sont
préférables, compte tenu de leur caractère plus pédagogique.

2. Schémas et dessins
Poursuivant avant tout un but pédagogique, ils contribuent à clarifier une situation complexe, en
montrant par exemple les relations existant entre deux variables ; ou encore, ils cherchent à capter
l’attention du lecteur ou de l’auditeur, grâce à la présence d’une figure originale soulignant
l’évolution d’une variable. Une bonne créativité, l’utilisation de la couleur et une mise en page
soignée conditionnent la force d’impact des schémas ou des dessins.
a. Graphiques dérivés
Pour représenter une variation de chiffre d’affaires, on peut se contenter d’utiliser un graphique
géométrique simple. Les dessins de la figure 8 remplacent ce mode traditionnel par une approche
plus créative.
Figure 8. Graphiques et créativité
Évolution du chiffre d’affaires en volume
Montres SA\/|
$|
4$
By

Attention : pour la construction d’un tel graphique, c’est la croissance de la surface des différents
dessins qui correspond au taux de croissance du chiffre d’affaires, et non pas la hauteur.

b. Figures et autres schémas graphiques


Il existe bien d’autres possibilités d’illustrations de données quantitatives ou qualitatives. Parmi les
plus connues, citons :
• Représentations matricielles : le célèbre portefeuille des produits de l’entreprise (vedettes,
vaches à lait, dilemmes et poids morts) du Boston Consulting Group en est un bon exemple.
• Cartes de styles de vie, popularisées par le CCA ou la Cofremca.
• Plannings, diagrammes (type PERT), organigrammes.
• Cartographie : les résultats commerciaux, les flux logistiques ou une action de marketing
territorial deviennent ainsi très parlants. De nombreux logiciels commerciaux de cartographie
existent sur le marché. L’application Google Maps permet d’importer gratuitement des fonds de
cartes routiers et d’y ajouter toutes les informations désirées

II. Présentation orale du rapport

A. Objectifs
Complément indispensable du rapport écrit, la présentation orale poursuit un triple objectif :
– Sélectionner. La présentation orale n’est, en aucun cas, une lecture linéaire du rapport d’étude. Le
premier travail du chargé d’études consiste à sélectionner les conclusions majeures qui doivent être
transmises au client. En effet, toutes les informations n’ont pas la même importance. Une fois cette
hiérarchie établie, il est facile de sélectionner les résultats clés qui étayeront les conclusions. On
peut succinctement préciser, à ce stade, la manière dont ils ont été obtenus, c’est-à-dire rappeler
quelques éléments méthodologiques. Il ne faut pas hésiter à renvoyer les auditeurs au rapport écrit,
s’ils souhaitent approfondir un point particulier.
– Expliquer. C’est souvent à ce moment-là que le client prend connaissance du rapport. Le chargé
\/|
d’études doit, de façon pédagogique, dégager et analyser les principaux résultats et conclusions
$|
tirés de l’étude, puis répondre de manière claire aux interrogations de son client. L’utilisation
judicieuse de graphiques, diapositives et vidéos facilite cette tâche : elle sera détaillée dans le
4$

paragraphe 3.
By

– Convaincre. L’interactivité offerte par l’exposé oral est nécessaire au chargé d’études, car c’est
une occasion majeure de convaincre son client de la validité des résultats. Cela se révèle difficile
lorsque les participants à une présentation sont de profils et statuts différents ou ont des attentes
opposées. Il a été montré que le client accepte plus facilement les conclusions d’une étude si elles
sont en accord avec son intuition de départ ; dans le cas contraire, la méthodologie est décortiquée
et largement critiquée(401).

B. Préparation de la présentation orale


C’est souvent sur cette seule partie que le client juge le travail du chargé d’études. En dépit des
contraintes de temps, cette préparation ne doit pas être bâclée. Trois étapes sont nécessaires (voir
figure 9).
Figure 9. Étapes de la conception d’un rapport oral

1. Contacter le destinataire du rapport


\/|
$|
La date de présentation de l’exposé est parfois fixée dès l’acceptation du projet d’étude. Dans le
4$

cas contraire, le responsable de l’étude contacte le client environ un mois avant la date d’envoi du
document écrit. Le client fixe le temps total disponible pour la présentation du rapport ; la durée est
By

assez variable, de deux heures à une demi-journée. Un bon équilibre consiste à consacrer à
l’exposé oral entre le tiers et la moitié du temps total, et le reste pour la réponse aux questions.
Le rapport est envoyé par voie électronique, de préférence une à deux semaines avant son exposé.
Attention, si le fichier comporte beaucoup d’images, sa taille dépassera rapidement les 10 Mo, ce
qui peut saturer la boîte mail du récepteur. Le chargé d’études s’assure de sa bonne réception ; il est
recommandé de demander au récepteur d’ouvrir le document pour vérifier sa bonne lecture.
Il convient ensuite de s’informer du nombre de personnes prévues pour la réunion, de la
composition de l’auditoire et de sa familiarité avec le thème de l’étude. Le chargé d’études
s’enquiert du type de salle qui sera mis à sa disposition et de la nature et du type du matériel
disponible sur place (connexion internet, présence d’une vidéoprojecteur et d’un ordinateur). Si le
fichier a été créé sous une version récente d’un logiciel ou sous un logiciel peu courant, il est plus
prudent d’enregistrer son fichier sous plusieurs formats et versions antérieures du logiciel de
référence (Powerpoint), car il n’est pas certain que le client dispose du logiciel requis.
Par sécurité, il est nécessaire de venir avec une copie du fichier de présentation sur une clé USB
externe, et le cas échéant, avec un micro-ordinateur portable doté du logiciel sous lequel la
présentation a été créée.

2. Construire l’exposé oral


La structure est dictée par trois objectifs : sélectionner les messages clés, expliquer leur sens,
convaincre de leur validité. Le chargé d’études utilise son rapport écrit comme une source
documentaire et en dégage les lignes de force de l’exposé oral.
Les aides visuelles constituent un instrument indispensable pour accroître l’impact des messages.
Nous verrons dans le paragraphe suivant les points à respecter pour concevoir des visuels de
qualité.
Il est important de répéter plusieurs fois l’exposé oral : cela accroît considérablement la qualité et
la crédibilité des messages. Certains préconisent jusqu’à trois répétitions : la première pour
maîtriser le contenu, la seconde pour travailler les transitions entre les aides visuelles, la dernière
pour contrôler la durée totale de l’exposé(402).

3. Aides visuelles
La diapositive (en anglais, slide) reste le mode de communication le plus simple et le plus
largement utilisé. Nous présenterons les outils disponibles, les règles à suivre pour une bonne
création et évaluerons son intérêt.
a. Logiciels pour la création d’images numérisées
Ces logiciels de création et d’édition d’image sont devenus incontournables et considérés comme
très efficaces pour accroître l’impact d’une présentation orale. Un choix important d’outils existe
\/|
aujourd’hui pour la conception et la présentation d’image. La fiche technique 2 présente les
$|
principaux d’entre eux.
4$
By

Fiche technique 2. Les logiciels de conception d’image numérisée


1 – Logiciels et applications
Quatre groupes de logiciels existent. Il est possible de les combiner.
La présentation traditionnelle en réunion forme le premier groupe : Powerpoint (Microsoft) reste toujours la
référence incontestée, mais il est de plus en plus concurrencé par Keynote (Apple), dont on peut voir ci-dessous
un aperçu des fonds d’écran disponibles.
\/|
$|
4$
By

Un deuxième groupe privilégie le design pour créer un impact visuel plus fort sur l’auditoire, à partir
d’applications mixtes internet et de réunions. Prezi, développé par un architecte et des designers californiens,
est un logiciel de ce type. Au lieu de couper les visuels en petits morceaux, à cause des contraintes de la taille
d’une diapositive, le présentateur dispose d’une surface totale, sur laquelle il passe, grâce à la souris, d’une
partie à une autre, via un mécanisme de translation, de rotation ou de zoom. On travaille sur des images, des
vidéos ou toutes sortes d’informations. Un exemple d’interface est présenté ci-après :
\/|
$|
4$

Un troisième groupe est constitué par les logiciels professionnels ou amateurs de graphisme qui proposent des
« infographies » pour illustrer de manière créative et pédagogique des évolutions de marché. Il existe un grand
nombre de logiciels gratuits ou payants, le plus connu d’entre eux étant Photoshop d’Adobe.(403)
By
\/|
$|
4$
By

Un quatrième groupe offre la possibilité de déposer sur un site web une présentation de type Powerpoint,
permettant ainsi une consultation et un partage à distance, sous la forme de diaporama. Slideshare est le leader
dans le domaine10.
\/|
$|

2 – Perspectives
4$

Ces nouvelles interfaces ouvrent de nouveaux champs de communication pour les réunions à distance. Elles ne
remplaceront cependant pas, pour certains sujets, la présentation traditionnelle en face-à-face. D’une part,
By

parce que tous les messages ne peuvent passer par voie électronique, et parce que la force de conviction en
face-à-face reste plus élevée, d’autre part.

b. Conception d’une diapositive


La préparation et l’édition des diapositives sont réalisées à partir d’un des logiciels présentés dans
la fiche technique 2. Néanmoins, Powerpoint de Microsoft reste la norme en matière de conception.
(404)

La création des vues favorise la communication des résultats de l’étude. Les fonctionnalités du
logiciel offrent quantité de possibilités pour donner plus d’impact aux messages. Voici quelques
points importants à respecter pour une bonne communication(405).

Sobriété
Le style est télégraphique : peu ou pas de phrases, juste quelques mots clés pour les sous-parties,
cinq à six lignes maximum par vue. Un bon équilibre doit être trouvé entre texte et graphiques. Sous
chaque graphique, ou sur la diapositive suivante, les faits et implications majeurs doivent être
précisés.
Le nombre de diapositives à créer dépend évidemment de la durée accordée à l’exposé, mais aussi
de la densité et du style du présentateur. En jouant sur la densité de contenu des vues, on obtient une
variété agréable dans le rythme de l’exposé. La durée d’exposition d’une diapositive varie d’une
dizaine de secondes à trois minutes. Ainsi, pour une présentation de vingt minutes, quinze
diapositives suffisent.

Impact
Avec un fond clair et des lettres foncées (de préférence de couleur noire), la projection sera
nettement plus visible. L’harmonie des couleurs et la sobriété de l’ensemble sont déterminantes
pour le confort de l’auditoire. Les effets sonores sont à proscrire, car ils agacent très vite et donnent
un caractère peu professionnel à l’exposé. En revanche, l’animation de la diapositive peut être
envisagée, mais elle doit rester sobre et rare : ainsi, chaque ligne d’une vue apparaît ainsi pas à
pas, d’un simple clic de souris, le graphique se construit progressivement.
Figure 10. Pièges à éviter pour la création des diapositives

Erreurs courantes Recommandations


30 mots maximum par diapositive
Trop rempli 1 titre de 1 à 5 mots
\/|
6 à 8 lignes maximum
$|
Police de caractère minimale : 20 pts
Trop petit (texte, images et tableaux)
4$

Privilégier les corps 24 ou 32 pts pour le texte


Tableau : 3 colonnes × 3 lignes maximum
By

Trop chargé (graphiques ou tableaux illisibles)


Graphique : 6 à 8 chiffres au maximum
1 à 2 retraits maximum
Trop de puces (listes)
2 à 4 éléments par liste
Privilégier la sobriété : police classique, fond
Trop riche (fond d’écran, texte, image, d’écran simple (blanc ou clair), couleur de
graphique) police noire, graphique 2D, une image par
diapositive...
Apparition séquentielle des paragraphes ou des
graphiques limitée à quelques diapositives
Trop d’animations Préférer les animations discrètes
Bannir les bruitages
Éviter les fondus enchaînés (lassitude)

Fil conducteur
Les grandes parties du rapport écrit constituent l’ossature de la présentation. Le mode plan du
logiciel favorise l’organisation des idées tout en gardant une vue d’ensemble de l’exposé. Avant la
phase de création, l’opérateur définit un format standard (taille, police, style, utilisation de
l’espace) pour la création des diapositives qui sera répété pour chaque vue éditée. Le titre du
rapport avec le nom de l’émetteur (auteur, institut, service de l’entreprise) constitue la première
vue ; le plan et les grandes parties de l’exposé forment la seconde ; chaque partie est
successivement développée (voir figure 11). Chaque diapositive a un titre, de préférence
comprenant un à trois mots, et trois à six lignes.
Figure 11. Structure globale de la présentation

À chaque changement de section, on peut intercaler une diapositive qui rappelle le plan global et
indique dans une couleur spécifique la phase qui va être abordée. Cette répétition favorise
l’attention. Une autre solution consiste à marquer le changement de partie par une diapositive ne
contenant que le seul titre de la nouvelle section (figure 12).
\/|
Figure 12. Diapositive intercalaire annonçant un changement de partie
$|
4$
By

c. Projection des diapositives


Elle nécessite un vidéoprojecteur de qualité pour une projection en plein jour, ce qui permet un bon
contact avec l’auditoire, la semi-pénombre facilitant l’assoupissement. Attention aux lampes en fin
de vie, la luminosité devient faible, avec des couleurs qui verdissent ou jaunissent. Si la
présentation est limitée à deux ou trois personnes, on peut à la rigueur se contenter d’une projection
sur un micro-ordinateur doté d’un écran minimal de 17 pouces.
Attention à la compatibilité entre les matériels, certains accents voyageant mal entre PC et Mac ;
par ailleurs, la mise en page peut se déformer. Comme nous l’avons dit précédemment, il faut
penser à enregistrer, sur une clé USB ou un lecteur externe, la présentation sous différents formats
de logiciels, et ce d’autant plus si elle a été créée avec un logiciel peu courant ou une version très
récente d’un logiciel courant.
Si dans le Powerpoint des liens hypertextes renvoyant à des fichiers (image, vidéo) ont été créés, il
faut penser à envoyer les fichiers correspondants avec la présentation au client. Dans ce cas, il
conviendra de vérifier avant la séance que les liens n’ont pas été rompus, car les chemins pour
localiser l’emplacement sur le disque auront probablement changé.
Des résolutions d’écran différentes peuvent conduire à une dégradation sensible des visuels et
graphiques, d’où l’importance d’avoir des documents source impeccables. Enfin, il convient de ne
pas oublier l’adaptateur entre le vidéoprojecteur et le micro-ordinateur, dans le cas où la sortie
vidéo de ce dernier n’est pas standard.

d. Intérêt des diapositives


L’utilisation des diapositives pour la présentation des résultats de l’étude offre de nombreux
avantages :
– mémorisation. Les messages clé sont exposés à la vue de tous ;
\/|
– duplication et transmission électronique. L’impression sur support papier, la transmission à
distance par courrier électronique sont réalisables à tout moment ;
$|
4$

– combinaison des sources. L’insertion d’images, d’animations, de graphiques ou de vidéos dans


une diapositive favorise l’attention et accroît l’impact des messages ;
By

– souplesse. La suppression ou l’ajout des vues selon l’auditoire, les retours en arrière... sont
opérables sans difficultés ;
– vue globale. Il est possible, en utilisant l’option adéquate de présentation, de voir la diapositive
précédente et la suivante, ainsi que les commentaires concernant la diapositive à l’écran, et le
temps écoulé, alors que les membres de l’auditoire ne voient, eux, que la seule diapositive
projetée.
Enfin, la numérisation des messages facilite leur partage entre des collaborateurs éloignés
géographiquement, via le cloud computing. Cette opération consiste à déporter sur des serveurs
distants des ressources traditionnellement localisées sur des serveurs locaux ou sur le poste
utilisateur, ce qui permet de stocker et de partager facilement des fichiers sur un espace en ligne. La
synchronisation se fait avec PC, Mac, Linux ou sur un appareil mobile (smartphone...). Le site
Dropbox(406) offre gratuitement une capacité de stockage de 2 Go.
Mais, à côté de ces avantages, l’utilisation intensive de présentations Powerpoint comporte des
inconvénients fréquemment soulignés. Tout d’abord, le chargé d’études veut souvent dire trop de
choses, les messages clés sont rapidement noyés dans la masse des autres vues. De surcroît, de peur
d’oublier quelque chose d’important lors de la présentation orale, trop de choses sont écrites sur
les diapositives.
Enfin, le contenu dense et le nombre trop important de diapositives tendent à tuer la réflexion de
fond, le débat d’idées ou la créativité. Nous terminerons cette liste de critiques, en citant Steve
Jobs, l’ancien patron d’Apple (figure 13) : « Je hais la manière dont les gens utilisent les
présentations de diapositives au lieu de penser. Les personnes veulent résoudre un problème en
créant une présentation. Je veux qu’ils s’engagent, qu’ils décortiquent les choses sur la table, plutôt
que de faire un bouquet de diapositives. Les gens qui savent de quoi ils parlent n’ont pas besoin de
Powerpoint(407) ».
Figure 13. Un ennemi des Powerpoint

\/|
$|
4$
By

C. Déroulement de la présentation orale


Cet exercice est un art difficile. Le flash-étude 2 présente quelques principaux pièges à éviter.
L’exposé oral demande, évidemment, un bon sens de la communication. Les règles d’une bonne
communication sortant du champ de cet ouvrage, nous nous bornerons à rappeler trois conseils
simples, mais souvent oubliés(408) :
– respecter le temps prévu : c’est une marque de politesse vis-à-vis de l’auditoire et un signe de
professionnalisme ;
– ne pas lire ce qui est à l’écran : c’est l’erreur catastrophique la plus fréquente. Les diapositives
sont des aides visuelles, des aide-mémoire, destinées à soutenir l’attention, mais pas un exercice de
lecture pour analphabètes. S’il y a plusieurs idées par diapositive, on peut recourir à l’animation
pour faire défiler, au fur et à mesure du discours, le paragraphe concerné ;
– préciser le mode de réponse aux questions. Avant le démarrage de l’exposé, l’intervenant fixe
avec l’auditoire le moment où l’on répondra aux questions. Deux solutions sont possibles : durant
l’exposé ou à son terme. La première solution semble préférable pour un rapport d’étude : le
raisonnement suit un enchaînement logique et la mauvaise compréhension d’un point (méthodologie,
information mal interprétée) affecte la crédibilité des conclusions. D’où le compromis suivant :
réponse aux questions de détails en cours d’exposé, débat sur les conclusions à la fin.
Flash-Étude 2
Les difficultés de la présentation orale du rapport
1 – La sélection des informations
« Des informations exactes ne suffisent pas. Pour communiquer, il faut en outre qu’elles soient
pertinentes. Il est frappant de constater que, quelle que soit la qualité de l’argumentation d’une
étude, ses destinataires s’en emparent en général par bribes. Ils ne retiennent que tel chiffre et
ignorent tel autre. N’est en général reçu que ce qui est attendu. Sélectionnons donc en premier ce
qui semble le plus pertinent pour notre client. Mettons en avant ce qui conforte les croyances ou
convictions de notre interlocuteur, plutôt que de commencer par lui montrer ce qu’il ignore ou
pense à tort. Il faut commencer par gagner son attention et son crédit en confirmant ce qu’il sait
déjà ou ce qu’il attend. Ensuite, éventuellement, on nuancera et l’on réfutera, avec quelque
chance de capter l’attention. C’est ainsi qu’on peut faire valoir des connaissances nouvelles et
peut-être dérangeantes, celles qui souvent apportent le plus au décideur. [...] Aux conditions de
fond sur la nature des informations à communiquer s’ajoutent celles de la forme. Concision,
brièveté, clarté, certitude : voilà ce que le décideur attend de son conseil. Quatre graphiques,
trois chiffres, deux propositions et non pas 100 tableaux et 50 tests, sans parler des pages de
considérations méthodologiques qui font la fierté de l’homme d’étude.(409) »
\/|
$|
2 – La remise du rapport avec conclusions/recommandations
4$

« Le plus souvent, cette remise du rapport avec conclusions (et quelquefois recommandations)
est effectuée en présence d’une dizaine de personnes plus ou moins concernées. L’exposé, ex
By

cathedra, dure d’une heure et demie à deux heures avec une utilisation de plus en plus fréquente
de moyens audiovisuels élaborés (slides, films, etc.) qui empêchent pratiquement toute
discussion. Cet exposé est suivi par les réponses aux rares questions posées par l’auditoire. En
effet, la masse d’informations communiquées est considérable et le débat est tout à fait inégal
entre le présentateur qui a souvent passé une quinzaine de jours à comprendre le phénomène
étudié et les spectateurs assommés et abasourdis par une avalanche d’informations nouvelles.
Cette façon de faire pose de nombreux problèmes et explique pourquoi l’utilisation
opérationnelle des rapports d’études est tellement peu fréquente qu’elle est même parfois citée
en exemple dans les rares cas où elle a conduit à des résultats concrets.(410) [...] »

III. Évaluation de l’efficacité de l’étude


L’évaluation de l’efficacité d’une étude est, par nature, subjective. Le contenu du rapport et la
manière dont il a été présenté jouent un rôle essentiel pour la perception de la qualité de l’étude.
Nous verrons ensuite comment choisir une technique d’étude efficace, puis nous apprécierons la
qualité des travaux des chargés d’études.

A. Qualités techniques du rapport d’étude


Le demandeur n’étant que rarement un expert des questions méthodologiques, la qualité globale
d’une étude est souvent évaluée sous un angle pragmatique : le bon rapport d’étude repose sur une
méthodologie simple, répond clairement aux questions initiales et formule des recommandations
opérationnelles.

1. Simplicité et pédagogie
« Si la démarche de l’étude n’est pas comprise, les conclusions et les recommandations seront peu
suivies d’effets. »
Les managers se méfient des résultats d’une étude s’ils ne comprennent pas bien la manière dont ces
derniers ont été obtenus. La préférence naturelle des managers marketing s’oriente vers des
méthodes simples ou reposant sur des mécanismes transparents. Par exemple, il a été montré que,
pour les prévisions de part de marché d’un nouveau produit, les managers font plus confiance aux
modèles faciles à comprendre, aisés à manier et fournissant des résultats clairs et vérifiables ; cette
dimension de « simplicité globale » explique, à elle seule, plus de 73 % du jugement d’ensemble
des modèles(411).

2. Réponse claire aux questions initiales


« La complexité méthodologique ne dispense pas de répondre, le plus simplement possible, aux
questions initiales. » \/|
Le chargé d’études, souvent passionné par son métier, a tendance à se polariser sur les techniques,
$|
plus que sur la valeur ajoutée réelle des résultats pour la décision managériale. Le client considère,
4$

à juste titre, que les conclusions doivent répondre clairement aux questions posées au départ. Le
flash-étude 3 montre pourquoi il n’est pas toujours facile de satisfaire cette attente légitime.
By
Flash-Étude 3
Simplicité et complexité dans les études
« Nous restons passionnés par le métier, c’est-à-dire que nous fouillons dans nos données, et
nous sommes persuadés d’avoir des choses passionnantes à dire au client. Mais il faut
reconnaître que le client entendant plusieurs voix, c’est lui qui juge si c’est passionnant. Le
risque est de faire très sophistiqué techniquement, et dans le traitement de l’information il n’y a
guère de limites, et de perdre de vue que les clients se posent toujours des questions assez
simples. Si au terme d’un parcours méthodologique sophistiqué, on a du mal à rejoindre la
question simple que le client se posait, c’est qu’on s’est un peu égaré en route.
À un moment donné, on doit être capable d’exprimer, en termes simples et intelligibles par les
décisionnaires non techniciens, des réponses aux questions de base sur le produit, sur la
distribution, sur les paramètres du marketing. Au terme d’un dispositif, même sophistiqué, il faut
être capable de dire : ‘‘Finalement, voilà ce que j’ai à vous dire sur votre produit, votre
campagne, sur votre réseau, sur vos atouts.’’ Quand, à la fin de la présentation, le directeur
marketing nous demande : ‘‘Vous pouvez nous résumer en trois phrases ce que votre étude nous
apprend ?’’, il faut être capable de lui répondre. [...]
En tant qu’hommes d’études, ce n’est pas notre penchant naturel. Nous inclinons à dire au client :
\/|
‘‘On a fait un truc épatant sur cette étude, je vais vous expliquer. On a fait une typologie, une
analyse sophistiquée, vous allez voir, c’est passionnant.’’ C’est peut-être passionnant pour les
$|
professionnels, mais il ne faut pas perdre de vue qu’il y a des décisions à prendre derrière et se
4$

demander quels sont les éléments de réponse qu’on apporte. Il faut que, partant de questions
simples, on soit capable de donner des réponses simples, sans se perdre en route pour le bonheur
By

esthétique de la belle méthode. »(412)

3. Pragmatisme de la recommandation
« Plus une recommandation est claire, réaliste et fournie rapidement, et plus elle sera suivie
d’effets. »
Une recommandation opératoire réaliste tient compte de l’environnement de l’entreprise : position
concurrentielle, contraintes financières, savoir-faire technologique, conjoncture économique et
sociale...
Elle ne se cantonne pas dans les généralités, mais apporte les réponses au problème posé.
Malheureusement, le chargé d’études est, par nature, plus porté vers la réflexion, les suppositions,
l’approfondissement, que vers la prise de décision. En caricaturant, l’homme d’études propose une
palette de recommandations, là où le manager attend une solution unique et un mode d’emploi facile
à appliquer.
De surcroît, la maîtrise d’outils de plus en plus complexes ouvre des possibilités
d’approfondissement sans fin : la finesse et la multiplication des analyses produisent quantité
d’informations secondaires qui font rapidement perdre de vue l’essentiel. La préoccupation
essentielle du chargé d’études consiste à faire correspondre une technique spécifique pour chaque
question du demandeur. La philosophie devient : « Le problème du client est résolu, dès lors que
l’on a pu identifier et utiliser la technique la plus sophistiquée à ce jour. »
Si ces travers sont souvent réels, on doit aussi remarquer que des résultats détaillés, des
recommandations multiples, assortis de multiples précautions oratoires, sont fréquemment
nécessaires pour rendre « politiquement acceptable » la recommandation. En l’occurrence, la
prudence finit par nuire à l’efficacité.

B. Comment concevoir un instrument d’études efficace ?


Nous venons de voir qu’une étude efficace fournit des conclusions ou des recommandations
effectivement appliquées. Si cette condition de mise en œuvre est importante, encore faut-il que les
résultats reflètent la réalité. Pour cela, les techniques utilisées doivent présenter des garanties
sérieuses de qualité dans trois domaines(413).

1. Qualité méthodologique
La qualité de la méthodologie représente la rigueur scientifique avec laquelle un instrument
(méthode de collecte ou d’analyse) a été développé et testé, avant son utilisation dans un contexte
commercial. Concrètement, l’instrument proposé doit être fiable et valide ; nous avons étudié dans
la fiche technique 3.2. (chapitre 3) différentes procédures pour vérifier ces propriétés.
\/|
$|
2. Qualité opérationnelle
4$

La qualité opérationnelle dépend de la simplicité de construction et d’usage de l’instrument, de sa


rapidité d’administration, de son degré d’acceptation par les interviewés et de sa capacité à
By

s’accommoder de conditions de fonctionnement changeantes. Par exemple, un instrument flexible


permet des interviews par téléphone, par Internet, par courrier et en face-à-face.

3. Qualité décisionnaire
L’instrument doit faciliter la prise de décision du manager. C’est le cas, s’il est utilisable dans un
grand nombre d’applications et s’il produit des résultats clairs, visualisables graphiquement.
La figure 14 montre bien la difficulté de concevoir de tels instruments. En effet, les critères
d’appréciation de l’efficacité d’un instrument sont très variables selon que l’on se place du point de
vue du créateur, du chargé d’études ou du client final.
Le concepteur de l’instrument, généralement un universitaire ou ingénieur du cabinet d’étude,
attache (ou devrait attacher) une grande importance aux qualités méthodologiques de l’instrument
créé. Malheureusement, ces exigences font parfois perdre de vue les aspects pratiques : la solution
retenue risque d’être lourde, onéreuse et d’imposer de longues explications pour comprendre les
résultats.
Figure 14. Exigences de qualité pour un instrument d’études selon les acteurs

Créateur Chargé Acheteur


Critères d’efficacité
concepteur d’études d’études
Qualités méthodologiques
faible ou
– Fiabilité grande moyenne grande
– Validité grande moyenne faible ou
grande
Qualités opérationnelles
– Acceptation moyenne grande faible
– Simplicité faible grande grande
– Rapidité faible moyenne grande
– Flexibilité faible grande faible
Qualités décisionnaires
– Communication faible faible moyenne
– Richesse moyenne moyenne grande
\/|
Source : VERNETTE É., « L’efficacité des instruments d’études »,
Recherche et Applications en marketing, 1991, vol. 6, no 2, p. 46.
$|
4$

Le chargé d’études sélectionne et met en œuvre les instruments que d’autres ont créés. Il privilégie
By

ceux qui sont simples, rapides à administrer, bien acceptés par les interviewés et flexibles, c’est-à-
dire capables de s’adapter à de nombreuses situations.
L’acheteur d’études préfère des techniques simples, rapides et facilitant la prise de décision.
L’importance accordée aux qualités méthodologiques est variable : si les résultats vont dans le sens
attendu, cette caractéristique n’est pas fondamentale ; dans le cas contraire, elle revêt une grande
importance.

C. Évaluation des prestations des instituts d’études


1. Évaluation globale
Comment les clients des sociétés d’études jugent-ils leurs fournisseurs ? Une étude du Syntec(414),
menée en France auprès de 341 entreprises acheteuses d’études, montre que globalement celles-ci
sont satisfaites des prestations offertes (voir figure 15). Les points forts des instituts résident dans
leur excellente capacité à comprendre le problème posé et leur professionnalisme, les points
faibles concernent plutôt la fiabilité des résultats et la qualité des conclusions et des
recommandations.
Les appréciations portées par les clients anglo-saxons sur leurs instituts d’études sont à peu près
comparables : ils sont globalement satisfaits de la valeur globale des études et les considèrent
comme utiles pour la prise de décision. À noter cependant que les jugements sont significativement
meilleurs pour les clients qui se sont impliqués dans l’étude que pour les clients qui sont restés en
retrait.
Figure 15. Les instituts d’études français jugés par leurs clients

\/|
De son côté, la société Danone a évalué l’efficacité globale d’une série de 88 études, réalisées
$|
pour son compte par des instituts externes(415). Quatre critères d’appréciation ont été retenus :
4$

1 – qualité de la formulation initiale du problème à résoudre ;


By

2 – adaptation de la méthodologie au problème ;


3 – application de la méthodologie ;
4 – justesse d’interprétation des résultats.
Figure 16. Évaluation des études par les clients (Grande-Bretagne)

Forte implication du Faible implication du


Critère d’évaluation
client dans l’étude client dans l’étude
Utilité globale 4,2 * 3,6
Compréhension du marché 3,9 3,6
Capacité d’action/décision 4,1 3,5
Valeur globale 4,0 3,4
* Score moyen : 1 = tout à fait en désaccord, 3 = ni d’accord, ni en désaccord ; 5 = tout à fait d’accord
Source : GANESHASUNDARAM R. et HENLEY N., « The prevalence and usefulness of market research »,
International Journal of Market Research, 2006, vol. 48, 5, pp. 525-550.

La figure 17. montre que la faiblesse majeure concerne l’interprétation des résultats, jugée trop
souvent tendancieuse ou erronée. En second lieu, les choix méthodologiques sont fréquemment
inadaptés au problème posé. Réalisé dans le contexte du groupe Danone, cet audit fournit, selon ses
auteurs, des observations généralisables sur d’autres organisations.
Figure 17. Faiblesses majeures des études

Pourcentage d’études jugées


Types de faiblesses
moyennes ou faibles
Interprétation erronée, incertaine, douteuse ou
60 %
tendancieuse des résultats.
Méthodologie mal adaptée au problème. 40 %
Problème mal formulé. 20 %
Erreur dans l’application de la méthodologie
– Échantillon

– Questionnaire
10 %
– Traitements erronés ou insuffisants
20 %
(notamment absence de significativité)
Source : BOSS J.-F. et LINDON D., « L’efficacité des études de marché », Revue française du marketing, op. cit., 1991/4, p. 41.
\/|
2. Évaluations réciproques des fournisseurs et utilisateurs d’études
$|
L’existence de bonnes relations entre les hommes d’études et les managers est déterminante pour la
4$

mise en application des recommandations du rapport. Malheureusement, il existe plusieurs points


de désaccord entre eux, comme le montre la figure 18.
By

Figure 18. Divergences majeures entre les chargés d’études et les managers

Tout à fait ou Tout à fait ou


Jugements proposés plutôt d’accord plutôt en désaccord
Managers Études Managers Études
« Les hommes d’études sont plus
préoccupés par les techniques que 60 % 27 % 35 % 70 %
par la prise de décision »
« La position des décideurs vis-à-vis
des études est généralement 46 % 65 % 46 % 30 %
ambiguë »
Source : adapté de NICHOLSON P., « Réconcilier les hommes d’études et les décideurs »,
Revue française de gestion, janvier-février 1987, no 61, pp. 22-32.

Le premier désaccord concerne la finalité des techniques utilisées dans une étude : 60 % des
managers considèrent que les hommes d’études sont plus préoccupés par les outils et les techniques
que par la prise de décision. Ce jugement est loin d’être partagé par les chargés d’études, puisque
70 % d’entre eux pensent le contraire.
En second lieu, les managers reconnaissent, dans l’ensemble avec une certaine lucidité, qu’ils n’ont
pas toujours une position très claire vis-à-vis des études : leurs attentes sont ambiguës et peut-être
trop dépendantes du sens des conclusions. Ces divers éléments renforcent la constatation que la
recommandation n’est finalement souhaitée que si les résultats vont dans le sens attendu ; dans le
cas contraire, le chargé d’études devrait se cantonner à la présentation des résultats bruts, la
formulation de la recommandation devenant du ressort du manager.

3. Certification des instituts d’études


Les travaux auxquels le Syntec Études s’est associé ont abouti à la création en juillet 2000 d’une
première norme NF X50-057, délivrée par l’AFNOR, référentiel de qualité pour la conduite d’une
étude de marché. Cette norme reprend les recommandations de l’European Market Research Quality
Standards (EMRQS) qui vise à définir les conditions d’une démarche d’assurance qualité
certifiable. Ce document couvre l’ensemble du processus d’étude et décrit les engagements entre le
client et le prestataire. Elle reprend bon nombre de dispositions du code de déontologie de la
profession, élaboré par la Chambre de commerce internationale (CCI) et révisé plusieurs fois par
l’ESOMAR, dont la dernière fois en 1999 pour intégrer les spécificités d’un terrain réalisé par
Internet. \/|
La norme ISO 20252, créée en 2006 à l’initiative de l’EFAMRO (Fédération européenne des
$|
associations de professionnels dans le domaine des études de marché), a remplacé la norme
AFNOR. Basée sur le principe de l’ISO 9001, norme relative au management de la qualité, cette
4$

norme définit les exigences applicables aux études sociales, de marché et d’opinion. Son cahier des
charges concerne toutes les phases de l’étude : demande du client, méthodologie, savoir-faire,
By

transparence, présentation et communication des résultats.

IV. Prise de décision après le rapport


Une chose est de posséder l’information, l’utiliser en est une autre. Nous avons vu dans le
chapitre 1 qu’une étude ne poursuit pas toujours des objectifs rationnels de prise de décision : elle
peut servir à retarder, voire à empêcher la prise de décision. Mais, même lorsque l’étude présente
un caractère décisionnel marqué, la mise en œuvre des recommandations dépend de plusieurs
facteurs.

A. Organisation de l’entreprise : appui ou obstacle ?


« Plus le mode d’organisation de l’entreprise est rigide ou centralisé et moins les résultats seront
utilisés. »
Les managers, destinataires ou instigateurs de l’étude perçoivent le caractère centralisé d’une
organisation comme l’obstacle majeur à la poursuite des conclusions d’une étude : cette difficulté
est considérée comme plus gênante que les qualités méthodologiques de l’étude(416).
En effet, dans une organisation centralisée, la décision de réaliser l’étude est prise à un niveau
hiérarchique élevé, éloigné du « terrain ». De ce fait, les conclusions de l’étude sont souvent
perçues comme inadaptées aux contingences locales, et jugées inapplicables. Même si l’initiative
de l’étude vient de la base, la recommandation a de fortes chances de s’égarer ou de se diluer dans
les méandres organisationnels.
À l’inverse, une caractéristique de base des systèmes décentralisés est la grande autonomie de
prise de décision des individus. De surcroît, les demandeurs et utilisateurs de l’étude sont
fréquemment les mêmes personnes, et sont proches de leurs marchés.

B. Acceptabilité du rapport d’étude


« Plus les conclusions s’éloignent des croyances ou intuitions dominantes du client, moins les
recommandations seront appliquées. »
L’effet de surprise constitue un facteur de blocage important dans l’application des
recommandations. Intuitivement cela se comprend bien : le manager tend à considérer que son
expertise est plus ancienne et plus profonde que celle d’un chargé d’études qui aborde peut-être ce
marché pour la première fois. De plus, il est toujours désagréable de constater que son intuition
était fausse. Par conséquent, des recommandations contraires à l’intuition de départ deviennent
suspectes, et sont, de ce fait, supposées entachées d’erreurs méthodologiques(417).
\/|
$|
4$

Exemple
By

Imaginons une entreprise qui hésite entre lancer un nouveau produit ou maintenir
l’ancien. Dans les deux cas, les enjeux commerciaux et financiers sont importants.
Mais derrière le lancement, il existe une personne ou une équipe qui en portent la
responsabilité ou pensent assurer le management de l’affaire, si elle se réalise : elles
sont donc plutôt favorables à sa concrétisation. À côté de cela, d’autres individus sont,
pour différentes raisons, plutôt opposés à son démarrage. Si les conclusions de l’étude
sont défavorables pour le projet, des opportunités de carrière ou de nouvelles
responsabilités s’envolent pour certains ; mais si les conclusions sont favorables,
d’autres individus risquent de se sentir menacés dans leurs fonctions actuelles. En
d’autres termes, la mise en œuvre des conclusions de l’étude dépend souvent d’un
rapport de forces entre les différents acteurs concernés par les résultats, puis
éventuellement d’un arbitrage de la direction générale.

Enfin, il existe dans l’organisation des croyances et des valeurs fortes qui fondent ce que l’on
appelle la culture d’entreprise : par exemple, telle entreprise est reconnue comme très innovatrice,
telle autre maîtrise bien les productions en grande série, une dernière est connue comme n’hésitant
pas à prendre des risques, etc. Les conclusions du rapport d’étude seront interprétées selon ces
lignes de force.
La conséquence de tout ceci est que le rapport d’étude sera passé au crible, et tout particulièrement
les aspects méthodologiques, si les conclusions sont surprenantes ou défavorables pour le
demandeur et/ou l’utilisateur de l’étude : on cherchera dans celui-ci une faille ou des erreurs
permettant de discréditer la qualité technique de l’ensemble et donc d’invalider les conclusions
dérangeantes. À l’inverse, si les conclusions vont dans le sens attendu, les aspects méthodologiques
ne seront pas trop creusés.
Ces différentes raisons expliquent clairement pourquoi bon nombre de recommandations ne sont pas
appliquées. Elles montrent que la rédaction d’un rapport est un exercice difficile : il faut faire
preuve d’honnêteté si les conclusions sont défavorables, mais aussi savoir les présenter avec tact,
ne pas hésiter à souligner les limites du travail, les zones d’ombre subsistant au terme de l’étude.
Bref, le sens de la nuance et un minimum de diplomatie sont les qualités de base du chargé
d’études.
Les hommes d’études sont conscients de l’importance de ces aspects psychologiques : ils classent
le facteur « acceptabilité politique des résultats » comme l’obstacle majeur pour la mise en œuvre
de leurs recommandations ; de leur côté, les managers déclarent n’attacher qu’une importance très
mineure à ce point(418). Cette divergence de perception entre managers et chargés d’études peut
s’expliquer par la tendance des managers à rationaliser leur comportement, et donc à minorer
l’impact des facteurs psychologiques.
\/|
C. Établissement d’un climat de confiance
$|
4$

« Plus les relations entre le client et le chargé d’études se fondent sur une confiance réciproque, et
plus les résultats de l’étude seront utilisés. »
By

Pour obtenir la confiance d’un manager, le chargé d’études doit être perçu comme intègre, c’est-à-
dire capable de résister à d’éventuelles pressions extérieures visant à lui faire modifier des
résultats ou des commentaires. La volonté de réduire l’incertitude du manager en l’aidant à
interpréter des résultats ambigus, la discrétion sur le caractère confidentiel des informations
obtenues et l’expertise contribuent aussi à l’établissement d’un bon climat relationnel. Enfin, le
chargé d’études doit savoir faire preuve de tact, dans le cas où il serait amené à présenter des
conclusions embarrassantes ou contraires au résultat attendu(419).
La qualité des échanges entre partenaires est la condition sine qua non pour que la recommandation
du chargé d’études soit suivie par le manager(420). La confiance mutuelle est nécessaire pour
provoquer des discussions enrichissantes entre les partenaires ; de ce fait, elle accroît la quantité et
la qualité des informations échangées, facilite la compréhension du problème et permet de préciser
les contraintes de l’organisation.

Épilogue
L’étude de marché est une forme d’investigation cruciale pour accompagner la démarche marketing
d’une entreprise. Elle permet de réduire sensiblement, mais certes pas de supprimer, le risque
inhérent à la prise de décision. C’est un investissement rentable. Sa valeur ajoutée est, dans la
grande majorité des cas, largement supérieure aux coûts d’obtention des résultats : les délais de
réponse et le budget représentent des coûts globalement inférieurs aux gains offerts par le choix
d’une meilleure décision. Il est clair, cependant, qu’elle n’est pas une fin en soi. En particulier, la
multiplication systématique des études entraîne souvent l’absence de décision.
La démarche à mettre en œuvre, pour répondre de manière satisfaisante aux objectifs fixés, est
rigoureuse et astreignante. Les exigences méthodologiques sont parfois jugées pénibles et
superflues, mais elles représentent des garanties sérieuses de fiabilité et de validité pour les
conclusions. En contrepartie, l’homme d’étude ne doit pas succomber à la fascination des
techniques d’analyse, ni oublier que la finalité de son travail consiste à formuler des conclusions
simples assorties, le cas échéant, de recommandations réalistes.
L’élaboration du rapport constitue la partie visible du travail du chargé d’études. Sa présentation
orale en présence du client est une opération délicate. À ce stade, il faut souvent convaincre le
client de la validité des conclusions proposées. Il est, par conséquent, nécessaire que les
conclusions proposées reposent sur des résultats fiables et valides, d’une part, et que les
éventuelles recommandations soient pertinentes et politiquement acceptables pour l’environnement
de l’entreprise, d’autre part. Si ces conditions sont remplies, l’étude sera efficace et débouchera sur
une prise de décision concrète et performante.

\/|
$|
4$
By
Test de connaissance
(Cochez une seule réponse par question.)
Q1. Les questions méthodologiques doivent être :
(1) approfondies dans le corps du rapport d’étude
(2) approfondies dans les annexes du rapport d’étude
(3) ni l’un, ni l’autre
Q2. Un histogramme impose l’existence de variables :
(1) uniquement continues
(2) uniquement discontinues
(3) les deux sont possibles
Q3. Un bon rapport d’étude oral :
(1) n’oublie aucun point, même secondaire
(2) présente les points qui n’ont pu être détaillés par écrit
\/|
(3) sélectionne les points majeurs, ignore les autres
$|
4$

Q4. La recommandation se distingue d’une conclusion, parce qu’elle :


(1) privilégie un choix spécifique, fondé sur l’analyse des résultats
By

(2) propose un ensemble d’actions possibles


(3) se limite à la présentation des seuls résultats observés
Q5. Une étude de marché efficace est une étude dont les recommandations sont :
(1) dérangeantes, mais exactes
(2) exactes, mais rejetées par le client
(3) exactes, dérangeantes, mais admises par le client
Réponses : voir annexes téléchargeables sur www.vuibert.fr

Bibliographie
BOSS J.-F. et LINDON D., « L’efficacité des études de marché », Revue française du marketing,
1991/4, p. 41.
BRULE M. et LOMBARD E., « La relation client-société d’étude », Revue française du marketing,
no 142-143, 1993/2-3, pp. 99-108.
DEBLIQUY P. Y., L’art de la présentation Powerpoint, Edipro, 2011.
DESPHANDE R. et ZALTMAN G., « Factors affecting the use of market information : a path analysis »,
Journal of Marketing Research, février 1982, pp. 14-31.
DESPHANDE R. et ZALTMAN G., « A comparison of factors affecting researcher and manager
perceptions of market research use », Journal of Marketing Research, février 1984, pp. 32-38.
GRANGE B, Réussir une présentation. Préparer des slides percutants et bien communiquer, Eyrolles,
2009.
LEMAIRE P., « Comment améliorer les relations entre les cabinets d’études et leurs clients ? »,
Revue française du marketing, 1979/4, pp. 41-49.
MOORMAN C., DESPHANDE R. et ZALTMAN G., « Factors affecting trust in market research
relationships », Journal of Marketing, janvier 1993, pp. 81-101.
NICHOLSON P., « Réconcilier les hommes d’études et les décideurs », Revue française de gestion,
janvier-février 1987, no 61, pp. 22-32.
REYNOLDS G., Présentation Zen : pour des présentations plus simples, claires et percutantes,
Campus Press, 2008.
VERNETTE É., « L’efficacité des instruments d’études », Recherche et Applications en marketing,
vol. 6, 1991, no 2, p. 46.
\/|
$|
4$
By
Annexes

By
4$
$|
\/|
Bibliographie générale
Cette bibliographie est indicative et non exhaustive.
OUVRAGES D’INITIATION
AMEREIN P., Études de marché, 2e éd., coll. « Étapes », Armand Colin, 2005.
BAKER C., Dix conseils pour réaliser une étude de marché, 2e édition, Coll. « 10 conseils », Publi-
Union, 2001.
CARLIER F., Réussir ma première étude de marché, Studyrama, 2011.
CAUMONT D., Les études de marché, Coll. « Les topos », 4e éd., Dunod, 2010.
DAYAN A., Les études de marché, Coll. « Que sais-je? », PUF, 1997.
FOURNIS Y., Les études de marché, 3e édition, Dunod, 1995.
\/|
HERMEL L., La recherche marketing, Coll. « Gestion Poche », Economica, 1995.
$|

LADWEIN R., Les études marketing, Coll. « Gestion Poche », Economica, 1996.
4$

NEGRO Y., L’étude de marché, Coll. « Entreprise », 1998.


By

ROCHE D., Réaliser une étude de marché avec succès, Eyrolles, 2009.
VERNETTE É., Techniques d’études de marché, 3e éd., Coll. « Entreprise », Vuibert, 2011.
MANUELS DE BASE
CAUMONT D., Les études de marché: comment concevoir, réaliser et analyser une étude, Dunod,
2007.
CHIROUZE Y., Le marketing : études et stratégies, 2e éd., Ellipses, 2007.
DARPY D., Comportements du consommateur, Dunod, 3e édition, 2012.
DES GARETS V., Études et recherches commerciales, Coll. « Entreprise 1er cycle », Economica,
1997.
DUBOIS P.-L., JOLIBERT A., GAVARD-PERRET M.-L. et FOURNIER C., Le marketing, 4e édition,
Economica, 2014.
FRISCH F. (Coord.), Études marketing et opinion. Fiabilité des méthodes et bonnes pratiques,
Dunod, Paris, 2007.
GAUTHY-SINECHAL M. et VANDERCAMMEN M., Études de marché: méthodes et outils, 4e éd., De
Boeck, 2014.
GUELFAND G., Les études qualitatives. Fondamentaux, méthodes, analyses, techniques, EMS, 2014.
LAURENT F., Etudes marketing: des études de marché au consumer insight, 2e éd., Village mondial,
2006.
SOLOMON M., DUMAS L., EL KAMEL L., ROY J., Le comportement du consommateur, Pearson, 2013.
VERNETTE É., FILSER M. et GIANNELLONI J.-L., Études marketing appliquées, Dunod, 2008.
OUVRAGES DE SPÉCIALISATION
AMADO G. et GUITTET A., Dynamique des communications dans les groupes, 6e éd., A. Colin, 2012.
ANZIEU D. et CHABERT C., Les méthodes projectives, PUF, 2004.
ASSADI D., Intelligence économique sur Internet: études de marché et veille concurrentielle, Publi-
Union, 2000.
BARDIN L., L’analyse de contenu, 2e éd., PUF, 2013.
BLANCHARD D. et LESCEUX D., Les panels, Dunod, 1995.
BLANCHET A., GHIGLIONE R., MASSONAT J. et TROGNON A., Les techniques d’enquêtes en sciences
sociales, Dunod, 2013.
COURATIER C. et MIQUEL C., Les études qualitatives : théorie, applications, méthodologie, pratique,
L’Harmattan, 2007.
\/|
CROUTSCHE J.J., Pratiques statistiques en gestion et études de marché, ESKA, 1997.
$|

DECAUDIN J.M. et SAINT-MARTIN T., Les panels, Pearson, 2013.


4$

DEGOUSÉE J.M.A., Guide du sondeur ou traité théorique et pratique des sondages, General Books,
By

2012.
DE SINGLY F., L’enquête et ses méthodes : le questionnaire, 3e éd., Armand Colin, 2012.
DILLMAN D.A., SMITH J. et LEAH MELANI C., Internet, Mail and Mixed-mode Surveys: the Tailored
Design Method, 3e éd., John Wiley & Sons, 2008.
FRISCH F., Les études qualitatives, Éd. d’Organisation, 1999.
HAIR J.F. Jr., ANDERSON R.E., TATHAM R.L. et BLACK W.C., Multivariate Data Analysis, with
Readings, 7e éd., Pearson Education, 2009.
HUBERMAN A. et MILES M., Analyse des données qualitatives, 2e éd., De Boeck, 2003.
KEPPEL G. et WICKENS T.D., Design and analysis: a researcher’s handbook, 4e édition, Pearson
Education, 2006.
KLINE R.B., Principles and practice of structural equation modeling, 3e éd., The Guilford Press,
New York, 2010.
LAVALLÉE P. et RIVEST L.P., Méthodes d’enquêtes et sondages, Dunod, 2006.
MALEKI K., Méthodes quantitatives de consultation d’experts, Publibook, 2009.
MARS A., Les panels, outils incontournables de l’étude de marché, Heures de France, 2004.
PELLEMANS P., Le marketing qualitatif: perspective psychologique, De Boeck université, 1998.
PUPION G et PUPION P.C., Tests non paramétriques avec applications à l’économie et à la gestion,
Economica, 1998.
OUVRAGES D’ÉTUDES ET DE RECHERCHE MARKETING
AAKER D.A., KUMAR V. et DAY G. S., Marketing Research, 11e éd., John Wiley & Sons, 2012.
AMEREIN P., Études de marché, 2e éd., coll. « Étapes », Armand Colin, 2005.
BERTRANDIAS L., CARRICANO M., POUJOL F. et GILLET R., Analyse de données avec SPSS, 2e éd.,
coll. « Synthex », Pearson Education, 2011.
CHURCHILL G.A. Jr. et IACOBUCCI D., Marketing research. Methodological foundations, 10e éd.,
South Western, 2009.
CROUTSCHE J.J., Analyse des données en marketing, en management et en sciences sociales, ESKA,
2009.
DION D. et SITZ L., « Enrichir la compréhension des comportements de consommation : pistes
opérationnelles et enjeux organisationnels », Décisions Marketing, vol. 71, 2013, pp. 45-58.
ÉVRARD Y., PRAS B., ROUX E. et DESMET P., Market : études et recherche en marketing, 4e éd.,
Dunod, 2009. \/|
FEINBERG F.M., KINNEAR T.C. et TAYLOR J., Modern marketing research: concepts, methods and
$|
cases, South Western Educational Publishing, 2012.
4$

HELFER J.-P., ORSONI J. et SABRI O., Marketing, Vuibert, 13e édition, 2014.
JOLIBERT A. et JOURDAN P., Marketing Research. Méthodes de recherche et d’études en marketing,
By

2e éd., Dunod, 2011.


LEHMANN D.R, GUPTA S. et STECKEL J.H., Marketing Research, Addison-Wesley Pub. Co., 1997.
MALHOTRA N.K., DÉCAUDIN J.M., BOUGUERRA A et BORIÈS D., Études marketing avec SPSS, 6e éd.,
Pearson Education, 2011.
MCDANIEL C. et GATES R.H., Marketing Research, 10e éd., John Wiley & Sons, 2015.
PARASURAMAN A., GREWAL D. et KRISHNAN R, Marketing Research, 2e éd., Houghton Miflin, 2006.
VERNETTE É., L'essentiel du marketing, 3e édition, Éditions d'organisation, 2008.
VANDERCAMMEN M. et GAUTHY-SINECHAL M., Recherche marketing, De Boeck, 1998.
Index

Achat mystère, 1
Affectif, 1
Algorithme
classification, 1
hiérarchique, 1
non hiérarchiques, 1
voisin moyen, 1
Ward, 1
Analogie, 1, 2, 3
Analyse
composantes principales, 1, 2, 3, 4 \/|
concurrentielle, 1
conjointe, 1
$|
contenu, 1, 2
4$

des correspondances, 1
discriminante, 1, 2, 3
By

facteurs communs et spécifiques, 1


factorielle des correspondances, 1
fonctionnelle, 1
horizontale, 1
lexicologie, 1, 2, 3
lexicométrie, 1
morphologique, 1
régression multiple, 1
régression simple, 1
similarités, 1
syntaxique, 1
textuelle, 1
thématique, 1, 2
transactionnelle, 1
typologique, 1, 2
variance, 1
verticale, 1
vocale, 1
ANOVA, 1
Anthropologie, 1, 2, 3
Anthropologie visuelle, 1, 2
Appel d’offres, 1
Associations de mots, 1
Asymétrique de Goodman et Kruskal (λ), 1
Attitude, 1, 2, 3
Autoportrait photographique, 1
Bandes dessinées, 1
Baromètre, 1
Base, sondage, 1
Besoin, 1
Biais
acquiescement, 1
sélection, 1, 2
Brainstorming, 1
Brand-Delphi, 1, 2
Brief, 1
Brief étude, 1, 2
Bulletin Board, 1, 2, 3
CAPI, 1, 2, 3, 4, 5, 6, 7
Carte perceptuelle, 1 \/|
Catégorisation, 1
$|
CATI, 1
4$

Causalité, 1
CAWI, 1, 2, 3, 4
Cercle d’influence, 1
By

Circept, 1
Co-création, 1, 2, 3, 4, 5, 6, 7
Coefficient
contingence, 1
corrélation linéaire, 1, 2
corrélation multiple, 1
corrélation partielle, 1
détermination, 1
détermination multiple, 1, 2
fiabilité, 1
Kappa, 1
φ (phi), 1
régression partiel, 1
variation, 1
Cognition incarnée, 1
Communautés virtuelles, 1, 2
Conatif, 1
Condition de Plackett, 1
Confiance, 1
Conscience, 1
Contrat de lecture, 1
Correction de Yates, 1
Corrélation
Spearman, 1
τb (tau-b) de Kendall, 1
Covariance, 1
Critère
choix, 1
Kaiser, 1
Crowdsourcing, 1
Delphi, 1, 2
Delphi-leader, 1
Dépouillement, 1
Diagrammes, 1
Diapositives, 1, 2
Différentiel sémantique, 1, 2, 3
Distance euclidienne, 1
Distribution
observée, 1 \/|
théorique, 1
$|
Écart-type, 1
4$

Échantillon
a priori, 1
By

aléatoire simple, 1
apparié, 1, 2
grappes, 1
indépendant, 1, 2
intervalle, 1, 2
nominale, 1, 2
ordinale, 1
quotas, 1, 2
ratio, 1
stratifié, 1, 2
Échelle, 1
attitude, 1
continue, 1
icônes, 1, 2
intention, 1
intervalle, 1, 2
Likert, 1, 2, 3
métrique, 1
nominale, 1, 2
ordinale, 1
supports sémantiques, 1, 2, 3, 4, 5
Effet de cobaye, 1
Effet de focalisation, 1
Effet de halo, 1
Enquête
à domicile, 1
assistée par ordinateur, 1
en face-à-face, 1, 2, 3, 4
en ligne (on line), 1, 2
mystère, 1
on line, 1
postale, 1
Entretien
en profondeur, 1
individuel, 1
introspectif, 1
semi-directif, 1
Équations structurelles, 1, 2, 3, 4
Erreur
échantillonnage, 1 \/|
observation, 1
$|
Étendue, 1
4$

Ethnographie, 1, 2, 3
Ethnologie, 1
Ethnométhodologie, 1, 2
By

Éthologie, 1
Étude
ad hoc, 1, 2, 3
causale, 1
délai, 1
descriptive, 1
documentaire, 1
efficacité, 1
exploratoire, 1
interne, 1
omnibus, 1
préliminaire, 1
qualitative, 1, 2
quantitative, 1, 2
sous-traitance, 1
Facebook, 1, 2
Fiabilité, 1
Fiche signalétique, 1
Focus group on line, 1, 2
Fréquence
apparition, 1
association, 1
concomitance, 1
relative, 1
Galvanomètre, 1
Graphique, 1
Groupe
contrôle, 1
Delphi, 1, 2
Delphi-leader, 1, 2
en ligne (on line), 1
Focus group, 1, 2
nominal, 1, 2
non-directivité, 1
restreints, 1, 2, 3
Guide
animation, 1
entretien, 1
répertoire, 1 \/|
Herméneutique, 1, 2
$|
Histogramme, 1
4$

Histoire de vie, 1
Hypothèse
formulation, 1, 2
By

statistique, 1
IDB, 1
Idéation, 1
Image de marque, 1, 2, 3
Image expérientielle, 1, 2
Immersion expérientielle, 1
Inconscience, 1, 2
Indice
(dis)similarité, 1
Jaccard, 1
neutralité, 1
polarité, 1
positivité, 1
Inertie, 1
interclasses, 1
intraclasse, 1
Inférence statistique, 1
Informations
nature, 1
paramétrées, 1
primaires, 1
secondaires, 1
Insight marketing, 1
Instituts d'études, 1
Interaction, 1
Interprétation, 1, 2
herméneutique, 1
Intervalle
confiance, 1
sondage, 1
Introspection, 1, 2
Jeux de rôles, 1
K-means, 1
Lambda de Wilks, 1
Leaders d’opinion, 1, 2, 3
Leadership d’opinion, 1
Lead-user, 1, 2
Liste d'achats, 1
Loi \/|
Normale, 1, 2
$|
Student, 1, 2
4$

Marché-test, 1
Marché-test simulé (MTS), 1
Matrice
By

confusion, 1
découverte, 1
similarités, 1
Métaphore, 1, 2
Méthode
AOL, 1
citation directe, 1
créativité, 1
des itinéraires, 1
d’observation mixte, 1
expérimentale, 1
quasi-expérimentale, 1
ZMET, 1, 2
Microblogging, 1
MONANOVA, 1
Monographie familiale, 1
Motivation, 1, 2, 3
Moyenne, 1
Multicolinéarité, 1, 2
Narration, 1
Netnographie, 1, 2, 3, 4, 5
Neuro-marketing, 1
Nicholson P., 1
Notoriété, 1
Nuées dynamiques, 1
Observation
appareillée, 1
évaluation, 1
mixte, 1
narrative, 1
non participante, 1, 2
simple, 1
verbalisée, 1, 2
Omnibus, 1
Open access, 1
Panel, 1, 2
consommateurs, 1, 2
de base, 1, 2
distributeurs, 1, 2, 3 \/|
en accès libre, 1, 2
$|
renouvellement, 1, 2
4$

scannérisé, 1
test, 1, 2, 3, 4, 5
Part de marché détenteur, 1
By

Phénoménologie, 1, 2
Photographies, 1
expérientielles, 1
stéréoscopiques, 1
Phrases à compléter, 1
Plan
aléatoire, 1
factoriel complet, 1, 2
factoriel incomplet, 1, 2
Population, 1, 2, 3, 4
Portrait chinois, 1
Portrait métaphorique, 1, 2
Positionnement, 1
Préférences des consommateurs, 1
Probabilités subjectives, 1
Problème d’étude, 1
clarification, 1
compréhension, 1, 2
diagnostic, 1
formulation, 1
Projection, 1, 2
Projet d’étude
objectif, 1
proposition, 1
Protocoles verbaux, 1, 2
Psychodrame, 1, 2
Question
à choix multiples, 1
fermée, 1, 2
filtre, 1, 2
ouverte, 1
qualifiante, 1
Rapport d'étude
acceptabilité, 1
conclusion, 1
contenu, 1
présentation, 1, 2
qualités, 1
rubriques, 1 \/|
Recensement, 1, 2
$|
Recherche marketing, 1
4$

Récit de vie, 1, 2
Recommandation, 1
Régression
By

droite, 1
équation, 1, 2
logistique, 1
Relances, 1
Représentativité, 1, 2, 3, 4, 5, 6
Réseau associatif, 1
Réseaux sociaux, 1, 2, 3
Rêve éveillé, 1
Rhétorique, 1, 2
Saturation, 1
Scanner, 1
Scoring, 1
Scree-test, 1
Segmentation, 1, 2
Sémiologie, 1, 2
Sémiotique, 1, 2
carré, 1
comportementale, 1
mapping, 1
parcours génératif du sens, 1
signe, 1
structurale, 1
Single source, 1, 2
Sondage, taux, 1
Sources
documentaires, 1
externes, 1
internes, 1
Symboles, 1
Synectique, 1
Table de nombres au hasard, 1
Tableau
Burt, 1, 2, 3
contingence, 1, 2, 3, 4
disjonctif complet, 1
distance, 1, 2
distribution de fréquences, 1, 2
distribution de fréquences croisées, 1
données, 1, 2, 3 \/|
Tabulation simple, 1
$|
Tachytoscope, 1
4$

TAT, 1
Test
ajustement, 1
By

ajustement à une moyenne, 1


ajustement du χ2, 1, 2
bilatéral, 1
binomial, 1
comparaison de variances, 1
contingence, 1
des phylactères, 1
différence de moyennes, 1
différences entre moyennes, 1
F (Fisher-Snedecor), 1
Kolmogorov-Smirnov (unilatéral), 1
non paramétrique, 1
paramétrique, 1
rangssignés de Wilcoxon, 1, 2
unilatéral, 1
Théorie enracinée, 1, 2, 3
Trade off, 1
Tri
à plat, 1, 2, 3
croisé, 1, 2
Twetnographie, 1, 2, 3
Twitter, 1, 2
Unité
échantillonnage, 1, 2
expérimentale, 1
Utilité
partielle, 1, 2
totale, 1
V de Cramer, 1
Valeur propre, 1
Validité, 1, 2
construction, 1
externe, 1, 2
interne, 1, 2
prédictive, 1
Variable
à expliquer, 1
dépendante, 1, 2
dépendante dichotomique, 1 \/|
indépendante, 1
$|
psychologique, 1
4$

qualitative, 1
qualitative dichotomique, 1
quantitative, 1
By

quantitative discrète, 1
sociodémographique, 1
stratification, 1
Variance, 1
Variation
expliquée, 1
intra-groupes, 1
résiduelle, 1
Vidéo, 1
Visite mystère, 1
Web analytics, 1
1) ESOMAR, Code international de pratiques loyales en matière d’études de marché et d’opinion, Document CCI/ESOMAR,
novembre 1977.

2) Extraits traduits et adaptés d’un interview de Steve Jobs réalisé par Betsie MORRIS, Fortune, mars 2004.

3) VON HIPPEL E, « Lead users : a source of novel product concept », Management Science, vol. 32, no 7, 1986, pp. 791-805 ;
FRANKE N., VON HIPPEL E., SCHREIER M., « Finding commercially attractive user innovations : a test of lead-user theory »,
Journal of Product Innovation Management, vol. 23, no 4, 2006, pp. 301-315.

4) HOFFMAN D., KOPALLE P. et NOVAK T., « The ‘‘right’’ consumers for better concepts : identifying consumers high in
emergent nature to develop new product concepts », Journal of Marketing Research, vol. 47, 2010, pp. 854-865.

5) COVA B., « Développer une communauté de marque autour d’un produit de base : my nutella The Community», Décisions
Marketing, no 42, 2008, pp. 55-62 ; COVA B., « Consumer Made : quand le consommateur devient producteur », Décisions Marketing,
no 50, 2008, pp. 19-27 ; FÜLLER J., JAWECKI G et MÜHLBACHER H., « Développement de produits et services en coopération
avec les communautés en ligne », Décisions Marketing, no 48, 2007, pp. 47-58.

6) TISSIER DESBORDES E. et VERNETTE É., « La participation du client, la co-production, la co-création, un nouvel eldorado
pour le marketing ? », Décisions Marketing, no 65, 2012, pp. 3-6 ; RAMASWANY V. et GROUILLART F., L’entreprise co-créative,
2011,Vuibert.
\/|
7) DARPY D., Comportements du consommateur, Dunod, 3e éd., 2012 ; SOLOMON M., DUMAS L., EL KAMEL L., ROY J.
$|
Le comportement du consommateur, Pearson, 2013.
4$

8) BLATTBERG R. et HOCH S., « Modèles à base de données et intuition managériales : 50 % modèle + 50 % manager »,
Recherche et Applications en marketing, vol. 6, no 4, 1991, pp. 79-98.
By

9) ACKOFF R. A., Scientific Method, New York, John Wiley, 1962, p. 71, cité par CHURCHILL G. A. Jr., Marketing Research,
4e éd., Dryden Press, 1987.

10) LE MAIRE P., « Comment améliorer les relations entre les cabinets d’études et leurs clients ? », Revue française du marketing,
1979/4, pp. 41-49.

11) BOSS J.-F. et LINDON D., « L’efficacité des études de marché », Revue française du marketing, no 134, 1991/4, pp. 35-49.

12) FAIVRE J.-P., « Des études classiques aux études stratégiques », Revue française du marketing, no 142-143, 1993/2-3, pp. 75-
88.

13) SOLE A., « L’information aide-t-elle la décision ? », Revue française du marketing, no 142-143, 1993/2-3, pp. 89-96.

14) SMITH S. M., « Research and Pseudo Research in Marketing », Harvard Business Review, avril 1974, pp. 73-76.

15) NICHOLSON P., « Marketing : réconcilier les hommes d’études et les décideurs », Revue française de gestion, no 61,
janvier/février 1987, pp. 22-32 ; WALISER B., « Évaluation des études d’aide à la décision dans les administrations centrales », « Le
processus de décision dans les organisations », Journée d’études AFCET, Paris, 1980.

16) Pour un approfondissement du diagnostic du marketing, le lecteur se reportera aux manuels de base, tels que, par exemple :
DUBOIS P.-L., JOLIBERT A., GAVARD-PERRET M.-L. et FOURNIER C. Le marketing, 4e éd., Economica, 2014 ; HELFER J.-
P., ORSONI J., et SABRI O. Marketing, Vuibert, 13e éd., 2014 ; VERNETTE É., L'essentiel du marketing, 3e éd., Éditions
d'Organisation, 2008.
17) Cet exemple se fonde sur une approche simplifiée d'un appel d'offres réel (SEATM, 22 octobre 1991). Bien que le contexte
d’étude soit ancien, la qualité de la démarche d’établissement du diagnostic et la fixation des objectifs et questions d’étude en font un
véritable modèle du genre.

18) Cette analyse se fonde en grande partie sur les documents disponibles dans les sites Web suivants :
www.snopes2.com/cokelore/newcoke.htm ou www.toptown.com/hp/mikeyb/coke.htm ; voir aussi les articles dans Newsweek, 24 juin
1985 ; Times, 22 juillet 1985 ; SCHNINDLER R., « The Real Lesson of New Coke », Marketing Research, 25 décembre 1992.
http://www.e-marketing.fr/Breves/Coca-Cola-fait-un-flop-avec-ses-canettes-blanches-de-Noel-42901.htm ; http://www.thecoca-
colacompany.com/dynamic/press_center/2011/10/iconic-coca-cola-red-cans-turn-arctic-white.html

19) Pour aller plus loin, le lecteur pourra consulter : LETELLIER H.J., « La capacité prédictive des modèles de marchés-tests
simulés garantit-elle le succès des lancements de nouveaux produits ? », Décisions Marketing, n°39, 2005, pp. 83-90 ; VERNETTE É.,
FILSER M., GIANNELLONI J.-L., Études marketing appliquées, 2008, p. 211, Dunod.

20) BOLLEN J., MAO H. et ZENG X.J, « Twitter mood predicts the stock market, Journal reference », Journal of Computational
Science, vol. 2, n°1, 2011, pp. 1-8.

21) GALAN J.-Ph., VIGNOLLES A., « Twetnographie : utilisation de Twitter pour la recherche en marketing », Journées de
recherche en marketing de Bourgogne, 14, Dijon, 2009, CD-ROM ; GALAN J.-Ph., VIGNOLLES A., « Identification des leaders
d’opinion sur Internet : utilisation des données secondaires issues de Twitter », International Conference Marketing Trends, vol. 9,
Venise, 2010, CD-ROM.

22) COVA B., « Développer une communauté de marque autour d’un produit de base : my nutella The Community », Décisions
Marketing, vol. 42, 2008, pp. 55-62 ; FÜLLER J., JAWECKI G. et MÜHLBACHER H., « Développement de produits et services en
coopération avec les communautés en ligne », Décisions Marketing, n° 48, 2007, pp. 47-58 ; SITZ L., « Le monde des marques :
l’exemple d’Apple », Décisions Marketing, n°52, 2008, pp. 19-30. \/|
23) Adapté de VERNETTE É., Techniques d’études de marché, 2011, Vuibert, coll. Entreprise, pp. 18-19.
$|
24) http://scholar.google.fr
4$

25) VERNETTE E., L’essentiel du marketing, Éditions d’Organisation, 3e édition, 2008, p. 157.
By

26) Pour une bonne compréhension de ce point, voir le Guide statistique téléchargeable gratuitement sur Vuibert.fr.
(http://www.vuibert.fr/ouvrage-9782311009156-etudes-de-marche.html)

27) CAROFF J., « Les relations de travail entre client et cabinet d’étude », Revue française du marketing, no 79, 1979/4, pp. 51-58.

28) Le Groupement d’études et de normalisation de la codification (GENCOD) qui associe les producteurs et les distributeurs
attribue un code EAN (European Article Number) spécifique à chaque produit et à chaque fabricant français. Le code comporte 13
chiffres : le premier indique le pays, les six suivants désignent le fabricant (Code national unifié des fournisseurs), les six derniers sont
propres à la référence et à la marque du produit (Code interface produit).

29) Le lecteur souhaitant approfondir les aspects méthodologiques se reportera à : DECAUDIN J.M. et SAINT-MARTIN T., Les
panels, Pearson, 2013.

30) Sur la base de Scantrack - Données explicatives, Document Nielsen, janvier 2001 (adapté par les auteurs).

31) Cette part de marché théorique est quelque peu illusoire, car il est pratiquement impossible pour la marque d’être présente,
exactement dans les mêmes conditions, dans les points de vente restants.

32) DELAMOTTE M., « Les nouveaux panels scannérisés », Décisions marketing, no 7, janvier 1996, pp. 53-65.

33) http://www.gagner-ensemble.com/gagner-argent-sondages-opinions.php

34) D’après Guibert C., « Votre avis se monnaye de plus en plus sur Internet », Ouest-France, 1er avril 2009.

35) https://www.askgfk.fr/index.php?id=15
36) Source : http://forum.aufeminin.com/forum/pratique1/__f21945_pratique1-Panel-homescan-de-acnielsen-qui-participe.html

37) Les résumés des mises en concurrence et des appels d’offres du BOAMP sont disponibles sur le site http://www.boamp.fr.

38) Recommandation formulée par le Syntec, Guide des relations annonceurs-sociétés d’études, Paris, octobre 1984.

39) BOSS J.-F. et LINDON D., « L’efficacité des études de marché », Revue française du marketing, no 134, 1991/4, pp. 35-49.

40) Étude TNS Sofres pour l’UDA, HEURTEBISE C., Marketing Magazine, no 147, mars 2011.

41) BOSS J.-F. et LINDON D., « L’efficacité des études de marché », op. cit.

42) Étude TNS Sofres pour l’UDA, HEURTEBISE C., Marketing Magazine, no 147, mars 2011.

43) Syntec, Guide des relations annonceurs-sociétés d’études, op. cit., 1984.

44) Sur les aspects épistémologiques des différentes approches scientifiques (induction, déduction, théorie et empirisme), voir
ZALTMAN G., PINSON C. et ANGELMAR R., Metatheory and Consumer Research, Holt, Rinehart & Winston Ed., 1973 ;
HIRSCHMAN E., Interpretive Consumer Research, ACR éd., 1989 ; EVRARD Y., PRAS B. et ROUX E., Market : fondements et
méthodes des recherches en marketing, Dunod, 4e édition, 2009, pp. 36-44.

45) Cette fiche technique concerne l’évaluation d’une démarche quantitative. Pour le cas, plus complexe, de l’évaluation d’une
démarche qualitative, voir par exemple : SYKES W., « Validity and reliability in qualitative market research : a review of the
literature », Journal of the Market Research Society, vol. 23, no 3, juillet 1990, pp. 289-328 ; ANDRÉANI J.-C. et CONCHON M. F.,
« Fiabilité et validité des enquêtes qualitatives : un état de l’art en marketing, Revue française du marketing, no 201 1/5, mars 2005, pp.
\/|
5-21.
$|
46) PETER J. P. et CHURCHILL G. A. Jr., « Relationships among research design choices and psychometric properties of rating
4$

scales : a meta analysis », Journal of Marketing Research, février 1986, pp. 1-10.

47) VERNETTE É., « L’efficacité des instruments d’études : évaluation des échelles de mesure », Recherche et Applications en
By

marketing, vol. 6, no 2, 1991, pp. 43-66.

48) PETER J. P., « Reliability : a review of psychometric basics and recent marketing pratice », Journal of Marketing Research,
février 1979, pp. 6-17 ; VOSS K., STEM D. et FOTOPOULOS S., « A comment on the relationship between coefficient alpha and
scale characteristics », Marketing Letters, 11, 2, 2000, pp. 177-191.

49) PETER J. P., « Construct validity : a review of basic issues and marketing practices », Journal of Marketing Research, mai
1981, pp. 133-145 ; CHURCHILL G. A., « A paradigm for developing better measures of marketing constructs », Journal of
Marketing Research, février 1979, pp. 64-73 ; GERBING D. et ANDERSON J., « An updated paradigm for scale development
incorporating uni-dimensionality and its assessment », Journal of Marketing Research, vol. 25, 2, février 1988, pp. 186-92.

50) CAMPBELL D. et FISKE D., « Convergent and discriminant validation by the multitrait-multimethod matrix », Psychological
Bulletin, vol. 56, 1959, pp. 81-105.

51) ROUSSEL P., DURRIEU F., CAMPOY E. et EL AKREMI A., Méthodes d’équations structurelles, Economica, 2002.

52) ZALTMAN G., « Rethinking market research : putting people back in », Journal of Marketing Research, vol. 44, novembre
1997, pp. 424-437 ; ZALTMAN G., Dans la tête du client, Éditions d’Organisation, 2003 ; DION D. (coordi), À la recherche du
consommateur, Dunod, 2008.

53) LEWIS I., « The future of market research », International Journal of Market Research, vol. 54, no 1, 2012, pp. 11-13.

54) Adapté de MICHALOWSKA A., « Du market research au consumer insight », Marketing Magazine, 98, 1er octobre 2005.

55) Dion D. et Sitz L., « Enrichir la compréhension des comportements de consommation : pistes opérationnelles et enjeux
organisationnels », Décisions Marketing, vol. 71, 2013, pp. 45-58.
56) En France, les plus connus sont ceux établis en juin 2013 par le collège scientifique de la FNEGE
(http://www.fnege.org/publications/classement-des-revus) et la quatrième édition 2014 du classement des revues en économie et
gestion du CNRS (https://www.gate.cnrs.fr/spip.php?article779).

57) Cette limite n’est pas absolue, puisqu’il est théoriquement possible pour une étude qualitative de disposer d’un échantillon
représentatif de la population étudiée. Mais compte tenu des coûts et de la lourdeur du terrain, ce n’est pratiquement jamais le cas,
sauf peut-être pour les tests sensoriels de produits (goût, odeur, etc.).

58) SYKES W., « Validity and reliability in qualitative market research : a review of the literature », Journal of the Market Research
Society, vol. 23, no 3, juillet 1990, pp. 289-328 ; SYKES W., « Taking stock : issues from the literature on validity and reliability in
qualitative market research », Journal of the Market Research Society, vol. 33, no 1, 1991, pp. 3-12 ; ANDRÉANI J. C. et
CONCHON M. F., « Fiabilité et validité des enquêtes qualitatives : un état de l’art en marketing, Revue française du marketing, no 201
1/5, mars 2005, pp. 5-21.

59) DE BODINAT H., Un pavé dans le marketing, J.-C. Lattès, 1990, p. 53.

60) VERNETTE É., « Les études qualitatives à la recherche du sens perdu », Décisions Marketing, 2004, vol. 36, pp. 7-9.

61) Au sens large, la méthodologie englobe les réflexions sur la nature du problème à résoudre, le choix d’une démarche (étude ou
recherche ; qualitative ou quantitative) et le plan de travail (collecte et analyse des données). Nous nous conformerons à la pratique
des cabinets d’études en restreignant la méthodologie au plan de travail.

62) Étude TNS Sofres pour l’UDA, Marketing Magazine, no 147, mars 2011.

63) En tant que prestation de service, la TVA est de 19,6 %. \/|


64) Cité par EVRARD Y., PRAS B. et ROUX E., Market : fondements et méthodes des recherches en marketing, Dunod, 4e
$|
édition, 2009, p. 102 ; voir aussi HERBERT M., « Réunion de consommateurs : comprendre les motivations de la participation »,
4$

Décisions Marketing, vol. 36, 2004, p. 29 ; DANO F., HAMON V. et LLOSA S., « La qualité dans les études qualitatives, principes et
pratiques », Décisions Marketing, vol. 36, 2004, p. 23.
By

65) Pour aller plus loin sur la proposition d’étude qualitative, voir : DANO F., HAMON V. et LLOSA S., « La qualité dans les
études qualitatives, principes et pratiques », Décisions Marketing, vol. 36, 2004, pp. 11-25.

66) Adapté du Syntec, Guide des relations annonceurs, sociétés d’études, Paris, octobre 1984, et Guide pratique de la qualité en
études de marché, Paris, 1995.

67) Extraits adaptés de FAIVRE J.-P., « 12 conseils pour rater vos études », Revue française du marketing, nos 142-143, 1993/2-3,
pp. 109-111 et de Syntec Études http://www.slideshare.net/syntec_etudes/12-conseils-pratiques-pour-rater-vos-etudes-9252927, 2011.

68) Rapport de Syntec Études, Marché des études en 2010.

69) Pour 2013, voir le dossier « Les instituts en pleine tourmente » daté du 4 avril 2014 sur le site emarketing.fr.

70) DICHTER E., « Psychology in market research », Harvard Business Review, 25, été 1947, pp. 432-443 ; DICHTER E., The
Strategy of Desire, Doubleday, New York, 1960.

71) Les domaines de l’investigation de groupe sont les mêmes. Mais, comme nous le constaterons dans le chapitre suivant, les
postulats sur lesquels repose celle-ci sont différents.

72) FRANÇOIS J. et PELLEMANS P., Les études qualitatives, Presses universitaires de Namur, 1979, p. 32.

73) Voir le dossier consacré à « Freud et la psychanalyse aujourd’hui », Sciences humaines, no 113, février 2001, pp. 22-41.

74) Sur ces questions, voir les chapitres 2 et 12 de PELLEMANS P., Le marketing qualitatif ; perspective psychoscopique, De
Bœck Université, 1998.

75) FREUD S., Cinq leçons sur la psychanalyse, Payot, 1975, pp. 44-45.
76) TARDAN-MASQUELIER Y., Jung, la sacralité de l’expérience intérieure, 1992, Droguet et Ardant, p. 172.

77) Pour approfondir : M. MILES et HUBERMAN A., Analyse des données qualitatives, 2e éd., De Boeck Éditions, 2003 ;
SAVOIE-JACQ L., « Comment construire un échantillonnage scientifiquement valide ? », Recherches qualitatives, hors série, no 5,
2007, pp. 99-111. http://www.recherche-qualitative.qc.ca/revue.html

78) GLAZER B. et STRAUSS A., The discovery of grounded theory : strategies for qualitative research, 2006, Chicago : Aldine.

79) GUEST, G., BUNCE, A. et JOHNSON, L. « How many interviews are enough ? An experiment with data saturation and
variability ». Field Methods, vol. 18, 1, 2006, pp. 59-82.

80) BLANCHET A., GHIGLIONE R., MASSONAT J. et TROGNON A., Les techniques d’enquêtes en sciences sociales,
Dunod, 1987, pp. 109 et s.

81) Extraits adaptés de SAVET L., « Le tri à la source des déchets par les ménages. Quel accueil par les Chambériens ? »,
Mémoire de maîtrise LEA, faculté LTA, université de Savoie, Chambéry, mai 1992, pp. 19-20.

82) OBSOMER C., PONDEVILLE S. et PELLEMANS P., « Une application de l’analyse transactionnelle », Revue française du
marketing, no 163, 1997/3, pp. 88-99.

83) WEBER R.P., Basic Content Analysis, Sage University paper, no 49, 2e éd., Londres, 1990, p. 9.

84) Pour approfondir cette question, se reporter à WEBER R. P., Basic Content Analysis, op. cit., 1990. Pour une approche plus
sociologique, on se référera à GHIGLIONE R., BEAUVOIS J.-L., CHABROL C. et TROGNON A., Manuel d’analyse de contenu,
Armand Colin, 1980 ; HUBERMAN A. et MILES M., Analyse des données qualitatives, éditions De Boeck Université, Bruxelles,
1991.
\/|
$|
85) Il existe d’autres unités d’analyse. Par exemple, le caractère, le support du discours, l’espace et le temps. Pour plus de détails,
voir KASSARJIAN H. H., « Content analysis in consumer research », Journal of Consumer Research, vol. 4, juin 1977, pp. 8-18.
4$

86) STRAUSS A. et CORBIN J., Basics of qualitative research : Grounded theory procedures and techniques, Sage, London, 1990.
By

87) GLAZER B. et STRAUSS A., The discovery of grounded theory : strategies for qualitative research, 2006, Chicago : Aldine.

88) COHEN J., « A coefficient of agreement for nominal scales », Educational and Psychological Measurement, vol. 20, 1960,
pp. 27-46. Il existe d’autres formulations si la grille de codification n’est pas imposée aux codeurs, mais émane de chacun d’eux ; voir
GHIGLIONE R., BEAUVOIS J.-L., CHABROL C. et TROGNON A., op. cit., 1980.

89) Pour une application de la formule de calcul, voir http://kappa.chez-alice.fr/Kappa_app_dj.htm

90) LANDIS J. et KOCH G., « The measurement of observer agreement for categorical data », Biometrics, vol. 33, 1977, pp. 159-
174.

91) BERNE E., Transactional Analysis in Psychotherapy, Grove Press, 1961.

92) Pour aller plus loin, voir notamment CHANDEZON G. et LANCESTRE A., L’analyse transactionnelle, PUF, 1983.

93) PENINOU G., « Langage et marketing », Revue française du marketing, no 109, 4, 1986, pp. 5-10.

94) Pour aller plus loin, voir par exemple GAVARD-PERRET M.-L. et MOSCAROLA J., « Énoncé ou énonciation ? Deux objets
différents de l’analyse lexicale en marketing », Recherche et Applications en marketing, vol. 13, 2, 1998, pp. 31-47.

95) Pour une comparaison des fonctionnalités, performances et prix de Spad-T, Lexica et Alceste, voir HELME-GUIZON A. et
GAVARD-PERRET M.-L., « L’analyse automatisée de données textuelles en marketing », Décisions Marketing, vol. 36, 2004, pp. 75-
90.

96) LEBART L., « Analyse statistique des réponses libres dans les enquêtes par sondage », Revue française du marketing, no 109,
1986/4, pp. 37-46.
97) DEUTSCH E., « Sémiométrie : une nouvelle approche de positionnement et de segmentation », Revue française du marketing,
no 1125, 1989/5, pp. 5-16.

98) WALLENDORF M. et BRUCKS M., « Introspection in consumer research : implementation and implications », Journal of
Consumer Research, vol. 20, décembre, 1993, pp. 339-359.

99) Pour un approfondissement, voir WALLENDORF M. et BRUCKS M., « Introspection in consumer research : implementation
and implications », op. cit., 1993, pp. 340-350.

100) Pour un approfondissement, voir WALLENDORF M. et BRUCKS M., « Introspection in consumer research : implementation
and implications », op. cit., 1993, pp. 340-350.

101) TISSIER-DESBORDES E., « Les études qualitatives dans un monde post-moderne », Revue française du marketing, nos 168-
169, 1998, pp. 39-48.

102) Pour approfondir, voir LYOTARD J.-F., La phénoménologie, PUF, 1992.

103) J. GREISCH, « Savoir voir » et comprendre. Le statut herméneutique de la phénoménologie », Laval théologique et
philosophique, 52, 2, juin 1996, pp. 301-318.

104) THOMPSON C., LOCANDER W. et POLLIO H., « Putting the consumer experience back into consumer research : the
philosophy and method of existential-phenomenology », Journal of Consumer Research, vol. 16, septembre 1989, pp. 133-146.

105) THOMPSON C., LOCANDER W. et POLLIO H., op. cit., septembre 1989.

106) D. Seron, « Heidegger et le tournant herméneutique de la phénoménologie », conférence RéseaUlg, université de Liège,
\/|
28 novembre 2005.
$|
107) RESWEBER J.-P., « Le champ de l’herméneutique. Trajectoires et carrefours », Théologiques, vol. 10, no 2, pp. 55-78.
4$

http://id.erudit.org/iderudit/008883ar

108) RABAUT H., « Le problème de l’interprétation de la loi : la spécificité de l’herméneutique juridique », Le portique, revue de
By

philosophie et sciences humaines, vol. 15, 2005, http://leportique.revues.org/index587.html

109) THOMPSON C., « Interpreting consumers : a hermeneutical framework for deriving marketing insights from the texts of
consumers’ consumption stories », Journal of Marketing Research, novembre 1997, pp. 438-455.

110) THOMPSON C., op. cit., 1997, pp. 438-455.

111) THOMPSON C., POLLIO H. et LOCANDER W., op. cit., decembre 1994, pp. 432-452 ; FISHER E., « Creating or escaping
community ? An exploratory study of Internet consumers’ behaviors », Advances in Consumer Research, vol. 23, 1996, pp. 178-182.

112) Pour une discussion sur les différents types de groupes, voir MENDES P., « A review of group discussion methodology »,
European Research, mai 1980, pp. 114-120.

113) LEWIN K., « Group decisions and social change », in SWANSON E., NEWCOM T. et HARTLEY E., Readings in Social
Psychology, New York, Holt Rinehart et Winston, 1952, pp. 459-473 ; ANZIEU D. et MARTIN J.-Y., La dynamique des groupes
restreints, PUF, coll. « Le psychologue », 1982, p. 44.

114) ANZIEU D. et CHABERT C., Les méthodes projectives, PUF, Coll. « Le psychologue », 9e éd., 1992, pp. 16-17.

115) Sur les techniques et applications du psychodrame, voir AMADO G. et GUITTET A., Dynamique des communications dans
les groupes, A. Colin, 1991, pp. 161-168.

116) HYMAN H., « The psychology of status », Archives of Psychology, 269, 1942, pp. 94-102.

117) IACOBUCCI D., Networks in Marketing, Sage publications, 1996 ; WATTS D. et DODDS P., « Networks, influence, and
public opinion formation », Journal of Consumer Research, vol. 34, no 4, 2007, pp. 441-458.
118) KOZINETS R. (1999), « E-tribalized marketing ? The strategic informations of virtual communities of consumption »,
European Management Journal, vol. 17, no 3, pp. 252-264.

119) VERNETTE É., BERTRANDIAS L., GALAN J.-P. et VIGNOLLES A., « Le rôle et l’identification des leaders d’opinion
dans les réseaux sociaux traditionnels et virtuels : controverses marketing et pistes de recherche », 10th International Marketing Trend
Conference, Venise, ESCP Europe, 2012.

120) RAMANSWANY V. et GROUILLARD F., L’entreprise co-créative, 2011, Vuibert ; THOMKE S. et VON HIPPEL E.,
« Customers as innovators : a new way to create value », Harvard Business Review, vol. 80, no 4, 2002, pp. 74-81.

121) FÜLLER J., JAWECKI G. et MÜHLBACHER H., « Développement de produits et services en coopération avec les
communautés en ligne », Décisions Marketing, vol. 48, 2007, pp. 47-58. ; FÜLLER J., « Refining virtual co-creation from a consumer
perspective », California Management Review, vol. 52, no 2, winter, 2010, pp. 98-122.

122) FERN E., « The use of focus group for idea generation : the effect of group size, acquaintanceship, and moderator on response
quantity and quality », Journal of Marketing Research, vol. 19, février 1982, pp. 1-13.

123) FERN E., « Focus group : review of some contradictory evidence, implications, and suggestions for review research »,
Proceedings of the Association for Consumer Research, vol. 10, 1983, pp. 121-126.

124) HERBERT M., « Réunion de consommateurs : comprendre les motivations de la participation », Décisions Marketing, vol. 36,
2004, pp. 27-38.

125) EVRARD Y., PRAS B. et ROUX E., Market : fondements et méthodes des recherches en marketing, Dunod, 4e édition,
2009, pp. 102 ; voir aussi HERBERT M., « Réunion de consommateurs : comprendre les motivations de la participation », Décisions
\/|
Marketing, vol. 36, 2004, p. 29 ; DANO F., HAMON V. et LLOSA S., « La qualité dans les études qualitatives, principes et
pratiques », Décisions Marketing, vol. 36, 2004, p. 23.
$|

126) Ce paragraphe s’appuie sur les recommandations de l’institut QUALIQUANTI, Pour des études marketing vivantes,
4$

www.qualiquanti.com, août 2009, pp. 70-72 ; voir aussi HERBERT M., « Du renouveau dans la méthode des entretiens », in DION D.,
À la recherche du consommateur, Dunod, 2008, pp. 82-84.
By

127) FERN E., 1983, op. cit.

128) MALHOTRA N. K., Marketing Research, 1996, 2nd ed., Prentice Hall, NJ., p. 168.

129) TEMPLETON J. F., The Focus Group, Irwin, Chicago, 1994, pp. 235-244.

130) GALAN J.-P. et VERNETTE E., « Vers une quatrième génération : les études de marché on line », Décisions Marketing,
o
n 19, pp. 39-52, janvier-avril 2000.

131) GREENBAUM T., « Internet focus group are not focus group, so don’t call them that », Quirk’s Marketing Research Review,
juillet (http://www.quirk.com/articles/article.asp?), 1998.

132) Pour une approche globale sur le développement des études qualitatives on line, voir MICHALOWSKA A., « Les études on
line entrent, doucement, dans les mœurs », Marketing magazine, no 78, mars 2003 ; MICHALOWSKA A., « Quel avenir pour les
études qualitatives en ligne ? » Marketing Magazine, no 78, mars 2003 ; FlORES L., « Web 2.0 et études de marché : vers une
nouvelle génération d’études de marché ? », Revue française du marketing, no 220/5, décembre 2008, pp. 7-16 ; HEURTEBISE C.,
« Quali on line : vraies ou fausses opportunités », Marketing magazine, 7 mars 2010.

133) CLAXTON J. D., BRENT R. Jr et ZAICHKOWSKI J. L., « The nominal group technique : its potential for consumer
research », Journal of Consumer Research, 7, 3, décembre 1980, pp. 308-313 ; DELBECQ A. L. et VAN DE VEN A. H., « A group
process model for problem identification and program planning », Journal of Applied Behavioral Science, 7, 4, 1971 ; VERNETTE É.,
Comparaison des méthodes d’identification de critères de choix d’un produit, thèse de doctorat d’État, université de Paris-Nanterre,
1986, pp. 158-163.
134) Certains préfèrent fixer un nombre précis, généralement compris entre 5 et 9 (DELBECQ A. L. et VAN DE VEN A. H., « A
group process model for problem identification and program planning », op. cit., 1971).

135) VERNETTE E., « Identification des attributs déterminants : une comparaison de six méthodes », Recherche et Applications en
marketing, vol. 2, no 4, 1987, pp. 1-21.

136) VERNETTE É., « Générer et sélectionner les critères de choix d’un produit : étude de la fiabilité et convergence de trois
méthodes », Actes de l’Association française du marketing, vol. 2, mai 1986, pp. 199-218.

137) PAULUS P. et DZINDOLET M., « Social influence processes in group brainstorming », Journal of Personality and Social
Psychology, vol. 64, no 4, April 1993, pp. 575-586 ; GIROTRA K., TERWIESCH C. et ULRICH K., « Idea génération and the quality
of the best idea », Management Science, vol. 56, no 4, April 2010, pp. 591-605.

138) MATHIEU-BATSH C., Invitation à la créativité, Éd. d’Organisation, 1983, p. 115.

139) Adapté de LEBEL P., La créativité en pratique, Éd. d’Organisation, 1990, p. 42.

140) OSBORN A., Créativité : l’imagination constructive, Dunod, 1988.

141) MOLES A. et CLAUDE R., Créativité et méthodes d’innovation dans l’entreprise, éd. Fayard-Mame, Paris, 1970.

142) GILL T. et DUBÉ L., « Qu’est-ce qu’un fer à repasser le cuir ou un téléphone oiseau ? L’usage des combinaisons
conceptuelles pour générer et comprendre les concepts de nouveaux produits », Recherche et Applications en marketing, vol. 22, no 4,
2007, pp. 81-103.

143) GORDON B., Simulation des facultés créatrices, Éd. Hommes et techniques, Paris, 1965.
\/|
$|
144) Voir AMADO G. et GUITTET A., Dynamique des communications dans les groupes, A. Colin, 1991, pp. 184-185.
4$

145) FUSTIER M. et DEBRINAY G., « Un instrument d’étude de motivation », Revue française du marketing, 1979/1, 76, pp. 63-
74.
By

146) PONTIER S., « Image du point de vente : pour une prise en compte de l’image interne », Recherche et Applications en
marketing, vol. 3, no 3, 1988, pp. 3-19.

147) Ce terme a été introduit par Jeff Howe et Mark Robinson dans un article : « The rise of crowdsourcing »
http://www.wired.com/wired/archive/14.06/crowds.html, Wired, juin 2006 ; voir aussi : CHESBROUGH, H., « The era of open
innovation », MIT Sloan Management Review, vol. 44, no 3, 2003, pp. 35-4.

148) RHEINGOLD H., The Virtual Community : Homesteading on the Electronic Frontier, Addison-Wesley, Reading, MA, 1993 ;
BRODIN O., « Les communautés virtuelles : un potentiel marketing encore peu exploité », Décisions marketing, no 21, septembre-
décembre 2000, pp. 47-56.

149) MUNIZ A et O’GUIN T, « Brand Community », Journal of Consumer Research, vol. 27, mars 2001, pp. 412-443 ; AMINE A.
et SITZ L., « Emergence et structuration des communautés de marque en ligne », Décisions Marketing, vol. 46, avril-juin 2007, pp. 63-
75 ; FÜLLER J., MATZLER K. & HOPPE M., « Brand community members as a source of innovation », Journal of Product
Innovation Management, vol. 25, no 6, 2008, pp. 608-619 ; ARNONE L et DE CROP A., « Construire une communauté de marque :
le cas des clubs de vacances Lookéa », Décisions Marketing, no 64, octobre-novembre 2011, pp. 35-46 ;

150) AMIROU R, « Les communautés de consommateurs comme espace transitionnel », Décisions Marketing, no 52, octobre-
novembre 2008, pp. 31-40.

151) THOMKE S. et VON HIPPEL E., « Customers as innovators : a new way to create value », Harvard Business Review,
vol. 80, no 4, 2002, pp. 74-81. VON HIPPEL E., « Lead users : a source of novel product concept », Management Science, vol. 32,
no 7, 1986, pp. 791-80 ; COVA B., « Quand le consommateur devient producteur », Décisions Marketing, no 50, pp. 19-27.
152) FÜLLER J., JAWECKI G. et MÜHLBACHER H., « Développement de produits et services en coopération avec les
communautés en ligne », Décisions Marketing, vol. 48, octobre-novembre 2007, pp. 47-58 ; FÜLLER, J., « Refining virtual co-creation
from a consumer perspective », California Management Review, vol. 52, no 2, winter 2010, pp. 98-122.

153) DALKEY N. C. et BROWN B., La méthode Delphi, Paris, Dunod, 1972.

154) Pour des exemples en marketing, voir BEST R. J., « An experiment in Delphi estimation in marketing decision making »,
Journal of Marketing Research, novembre 1974, pp. 447-452 ; LARRECHE J.-C. et MONTGOMERY D. B., « A framework for the
comparison of marketing models : a Delphi study », Journal of Marketing Research, novembre 1977, pp. 487-498.

155) Pour aller plus loin : VERNETTE É., « La méthode Delphi, une aide à la prévision marketing », Décisions marketing, no 1,
janvier-avril 1994, pp. 97-101.

156) Les principes statistiques de la méthode imposent, pour les questions fermées, des échelles respectant les propriétés
d’intervalle (voir chapitre 9) ; les questions ouvertes permettent aux experts de motiver leurs jugements.

157) Pour ces aspects statistiques, voir le guide statistique téléchargeable gratuitement sur la page de l’ouvrage du site Vuibert.fr.

158) Pour les aspects méthodologiques et les résultats détaillés, voir VERNETTE É., « Identification des attributs déterminants : une
comparaison de six méthodes », Recherche et Applications en marketing, vol. 2, no 4, 1987, pp. 1-21 ; VERNETTE É., « La flexibilité
de la méthode Delphi », Actes du Congrès international de l’Association française du marketing, vol. 7, 1991, pp. 183-198.

159) VERNETTE É., « Évaluation de la validité prédictive de la méthode Delphi-leader », 13e Congrès international de
l’Association française du marketing, vol. 13, Toulouse, mai 1997, pp. 988-1010.

160) Pour plus de détails sur ce point, voir PRAS B. et TARONDEAU J.-C., Comportement de l’acheteur, Sirey, 1982.
\/|
$|
161) TOUBIA O. et FLORÉS L., « Adaptive idea screening using consumers », Marketing Science, vol. 26, no 3, 2007, pp. 342-
4$

360.

162) Sur ce point, voir VERNETTE É., FILSER M., GIANNELLONI J.-L., Études marketing appliquées, Dunod, 2008, chapitre 7.
By

163) LACOUR J.-P., « Observation éthologique d’un consommateur dans une grande surface d’articles de sport », Revue française
du marketing, octobre 2004, no 199, 4/5, pp. 39-48.

164) Masson D., « Dans les cuisines de Danone », Stratégies, 7 février 2008,
http://www.strategies.fr/actualites/marques/r47379W/dans-les-cuisines-de-danone.html

165) BERGADAA M. et ROUX E., « L’interaction mère-enfant sur les points de vente : mesure des attitudes et observation des
stratégies de négociation », Actes de l’Association française du marketing, vol. 4, mai 1988, 28 p.

166) BREE J., « Observation directe du comportement d’achat des enfants de 7 à 12 ans dans les magasins en libre-service »,
Actes de l’Association française du marketing, vol. 3, mai 1987, 24 p.

167) SHAPIRO S., MCINNIS D., HECKLER S. et PEREZ A., « An experimental method for studying unconscious perception in
a marketing context », Psychology & Marketing, vol. 16, no 6, 1999, pp. 459-477.

168) AUGÉ M., Pour une anthropologie des mondes contemporains, 1994, Flammarion.

169) RIVIÈRE C., Introduction à l’anthropologie, Hachette, 2007, 3e édition.

170) LAPLANTINE F., La description ethnographique, 2005, Armand Colin.

171) DION D., « Les apports de l’anthropologie visuelle à l’étude des comportements de consommation », Recherche et
Applications en Marketing, vol. 22, no 1, 2007, pp. 61-78.
172) STRAUSS A. et CORBIN J., Basics of qualitative research : Grounded theory procedures and techniques, Sage, London,
1990 ; GLAZER B. et STRAUSS A., The discovery of grounded theory : strategies for qualitative research, 2006, Chicago : Aldine.

173) ARNOULD E. et WALLENDORF M., « Market-oriented ethnography : interpretation building and marketing strategy
formulation », Journal of Marketing Research, vol. 31, novembre 1994, pp. 484-504.

174) BELK R., SHERRY J. et WALLENDORF M., « A naturalistic inquiry into buyer and seller behavior at a swap market »,
Journal of Consumer Research, vol. 14, mars 1988, pp. 449-469.

175) WALLENDORF M. et ARNOULD E., « We gather together : consumption rituals of Thanksgiving day », Journal of
Consumer Research, vol. 18, juin 1991, pp. 13-31.

176) JAOUËN M., « Le marketing à l’heure des tribus », Médias, no 326, mars 1992.

177) DESJEUX D., La consommation, PUF, 2006.

178) Cette présentation s’appuie sur DESJEUX D, « La méthode des itinéraires. Une approche qualitative pour comprendre la
dimension matérielle, sociale et culturelle de la consommation. Le cas du Danemark », Actes des 5e Journées de recherche en
marketing de Bourgogne, 2000, pp. 183-189.

179) Adapté de DESJEUX D, « La méthode des itinéraires. Une approche qualitative pour comprendre la dimension matérielle,
sociale et culturelle de la consommation. Le cas du Danemark », op. cit.

180) KOZINETS R., « I want to believe : A Netnography of the X-Philes’ Subculture of Consumption », in BRUCKS M. and
MACINNIS D. J. (eds.), Advances in Consumer Research, 1997, Provo, UT : Association for Consumer Research, vol. 24, pp. 470-
475 ; KOZINETS R., « The field behind the screen : using netnography for marketing research in online communities », Journal of
\/|
Marketing Research, 2002, vol. 39, February, pp. 61-72 ; KOZINETS R., « Click to connect : netnography and tribal advertising »,
Journal of Advertising Research, vol. 46, no 3, 2006, pp. 278-288.
$|
4$

181) BRODIN O., « Les communautés virtuelles : un potentiel marketing encore peu exploité », Décisions Marketing, no 21,
septembre-décembre 2000, pp. 47-56 ; MUNIZ A. et O’GUIN T., « Brand Community », Journal of Consumer Research, vol. 27,
By

mars 2001, pp. 412-443 ; COVA B. et CARRÈRE V., « Les communautés de passionnés de marque : opportunité ou menace sur le
Net ? », Revue française du marketing, 2002, no 189/190, 4-5, pp. 119-130 ; AMINE A. et SITZ L., « Émergence et structuration des
communautés de marque en ligne », Décisions Marketing, vol. 46, avril-juin 2007, pp. 63-75 ; FÜLLER J., MATZLER K. et HOPPE
M., « Brand community members as a source of innovation », Journal of Product Innovation Management, vol. 25, no 6, 2008, pp. 608-
619 ; ARNONE L. et DE CROP A., « Construire une communauté de marque : le cas des clubs de vacances Lookéa », Décisions
Marketing, no 64, octobre-novembre 2011, pp. 35-46.

182) Pour aller plus loin : BERNARD Y., « La netnographie : une nouvelle méthode d’enquête qualitative basée sur les
communautés virtuelles de consommation », Décisions Marketing, 2004, no 36, pp. 49-62 ; BERTRANDIAS L. et
CARRICCANO M., « Le prix derrière l’écran : étude netnographique d’une communauté virtuelle professionnelle de pricing
manager », Décisions Marketing, vol. 41, 2006, pp. 53-66 ; BERNARD Y., « La netnographie : étudier les tribus virtuelles », in
DION D. (coord.), À la recherche du consommateur, Dunod, 2008, pp. 103-121.

183) GALAN J.-Ph. et VIGNOLLES A., « Twetnographie : utilisation de Twitter pour la recherche en marketing », in FILSER M.
(éd.), Journées de recherche en marketing de Bourgogne, vol. 14, Dijon, 2009, CD-ROM.

184) DION D., « Les apports de l’anthropologie visuelle à l’étude des comportements de consommation », Recherche et
Applications en marketing, vol. 22, no 1, 2007, pp. 61-78.

185) Pour approfondir, voir DION D., « L’observation filmée », in DION D. (coord.), À la recherche du consommateur, Dunod,
2007, pp. 29-50.

186) COULON A., L’ethnométhodologie, PUF, 1993. L’ouvrage fondateur est : GARFINKEL H., Studies in Ethnomethodologie,
Cambridge, Polity Press, 1984.
187) Pour aller plus loin : OZCAGLAR-TOULOUSE N., « Les récits de vie », in DION D. (coord.), À la recherche du
consommateur, Dunod, 2008, pp. 123-142 ; OZCAGLAR-TOULOUSE N., « Quel sens les consommateurs responsables donnent-ils à
leur consommation ? Une approche par les récits de vie », Recherche et Applications en marketing, vol. 24, no 3, 2009, pp. 3-24.

188) Pour un exemple d’application, voir OZCAGLAR-TOULOUSE N., « Quel sens les consommateurs responsables donnent-ils à
leur consommation ? Une approche par les récits de vie », Recherche et Applications en marketing, vol. 24, no 3, 2009, pp. 3-24.

189) Voir DUGUEST D., FAIVRE J.-P. et MACQUIN A., « Quelques expériences à propos de la méthode des protocoles »,
Séminaire de méthodologie de la recherche, CREE, FNEGE, Lille, 1982, pp. 247-341 ; SMEAD R. J., WILCOX J. B. et
WILKES R. B., « How valid are product descriptions and protocols in choice experiments ? », Journal of Consumer Research, juin
1981, pp. 37-42.

190) LUSSIER D. A. et OLSHAWSKY R. W., « Task complexity and contingent processing in brand choice », Journal of
Consumer Research, septembre 1979, pp. 154-165.

191) DUGUEST D., FAIVRE J.-P. et MACQUIN A., « Quelques expériences à propos de la méthode des protocoles », Séminaire
de méthodologie de la recherche, 1982, pp. 247-341.

192) FAIVRE J.-P. et PALMER J., « Protocoles et arbres de décision : application des théories du traitement de l’information au
comportement du consommateur », Revue française du marketing, septembre 1976, no 63.

193) Tiré de ANZIEU D. et CHABERT C., Les méthodes projectives, PUF, coll. « Le Psychologue », 9e éd., 1992, p. 41.

194) La dénomination de la méthode est variable. En français, l’expression d’« association libre » est aussi utilisé ; les Anglo-Saxons
utilisent indistinctement les termes de « direct » ou de « free elicitation ».
\/|
195) KRECH D. et CRUTCHFIELD R. S., Theory and problems of social psychology, 1948, New York : Mc Graw Hill.
$|
196) Sur la différence entre importance, saillance et déterminance, voir : VERNETTE É., « Identification des attributs
4$

déterminants : une comparaison de six méthodes », Recherche et Applications en marketing, vol. 2, no 4, 1987, pp. 1-21 ; sur les
différentes méthodes d’identification, voir : VERNETTE É., FILSER M. et GIANNELLONI J.-L., Études marketing appliquées, 2008,
By

Dunod, chapitre 3.

197) MICHEL G., « L’évaluation des marques : l’approche par la théorie du noyau central », Recherche et Applications en
marketing, vol. 14, no 4, 1987, pp. 33-51 ; VERGÈS P., « L’évocation de l’argent : une méthode pour la définition du noyau central
d’une représentation », Bulletin de psychologie, vol. 45, pp. 203-209 ; GONZALES C., KORCHIA M., MENUET L. et URBAIN C.,
« Comment les consommateurs socialement responsables se représentent-ils la consommation ? Une approche par les associations
libres », Recherche et Applications en marketing, vol. 24, no 3, 2009, pp. 25-42.

198) Pour une évaluation des qualités de cette méthode, voir : RYAN M. J. et ETZEL M. J., « The nature of salient outcomes and
referents in the extended model », Advances in Consumer Research, vol. 3, 1976, pp. 485-490.

199) KIRCHLER E. et DE ROSA A., « Analyse de l’effet des messages publicitaires grâce au réseau d’associations », Recherche
et Applications en marketing, vol. 13, no 1, 1998, pp. 35-49 ; JOLIBERT A. et DIDELLON-CARSANA L., « La mesure non
hiérarchique de la structure mémorielle des connaissances », Décisions Marketing, vol. 21, septembre-décembre 2000, pp. 89-97.

200) KIRCHLER E. et DE ROSA A., « Analyse de l’effet des messages publicitaires grâce au réseau d’associations », Recherche
et Applications en marketing, vol. 13, no 11, 1998, pp. 35-49.

201) WETTLER M. et al., « Analyse associative de texte : une méthode pour anticiper l’effet communicatif de la publicité »,
Recherche et Applications en marketing, vol. 13, no 4, 1998, pp. 69-81.

202) Pour aller plus loin : CHANEY D., « L’apport des cartes cognitives à l’analyse des représentations mentales », Recherche et
Applications en marketing, vol. 25, no 2, 2010, pp. 93-116.
203) REYNOLDS T. et GUTMAN J., « Laddering theory method analysis and interprétation », Journal of Advertising Research,
1988, vol. 28, no 1, pp. 11-31.

204) VALETTE-FLORENCE P., « Introduction à l’analyse des chaînages cognitifs », Recherche et Applications en Marketing,
1994, vol. 9, no 1, pp. 93-117 ; VALETTE-FLORENCE P., FERRANDI J.M. et ROEHRICH G., « Apports des chaînages cognitifs à
la segmentation de marché », Décisions Marketing, 2003, vol. 32, pp. 31-43.

205) PELLEMANS P., Le marketing qualitatif, une approche psychoscopique, De Boeck Université, 1998, p. 272.

206) ANZIEU D. et CHABERT C., Les méthodes projectives, PUF, coll. « Le Psychologue », 9e édition, 1992, p. 20.

207) HAIRE M., « Projectives techniques in marketing research », Journal of Marketing, octobre 1950, no 14, pp. 649-656.

208) ANZIEU D. et CHABERT C., Les méthodes projectives, PUF, op. cit., pp. 17-18.

209) Adapté de STEELE H., « On the validity of projective questions », Journal of Marketing Research, août 1964, pp. 46-49.

210) GREEN P. E. et TULL D. S., Recherche et Décision Marketing, PUF, 1974, p. 159.

211) EVRARD Y., PRAS B. et ROUX E., Market : fondements et méthodes des recherches en marketing, Dunod, 4e édition,
2009.

212) VAN LENNEP, Revue de psychologie appliquée, no 3 (p. 352) et no 4 (p. 265), 1953, cité par ANZIEU D. et CHABERT C.,
Les méthodes projectives, op. cit., p. 171.
\/|
213) LOMBART C., « Les techniques non verbales ont-elles un intérêt pour la mesure des comportements de fréquentation de
points de vente ? », 2004, Actes des 9es Journées de recherche en marketing de Bourgogne, CD ROM ; LOMBART C., « Les
$|
techniques projectives », in DION D., À la recherche du consommateur, Dunod, 2008, pp. 152-153.
4$

214) Exemple tiré de HAIRE M., « Projective techniques in marketing research », Journal of Marketing, vol. 14, avril 1950, pp. 649-
656.
By

215) ROBERTSON D. et JOSELYN R., « Projective techniques in research », Journal of Advertising Research, octobre 1974,
pp. 27-31.

216) FRAM E et CIBOTTI E, « The shopping list studies and projective techniques : a 40-years review », Marketing Research,
décembre 1991, pp. 14-21.

217) ANDERSON J. C., « The validity of Haire’s shopping list, projective technique », Journal of Marketing Research, vol. 15,
novembre 1978, pp. 644-649.

218) SERRAF G., Bulletin de psychologie, 17, no 225, 1963, p. 377, cité par ANZIEU D. et CHABERT C., op. cit., p. 219.

219) NEWMAN J., Motivation Research and Marketing Management, Harvard University, Cambridge Mass., 1957, pp. 227-228,
cité par GREEN P.E., TULL D.S. et ALBAUM G., Research for Marketing Decision, op. cit., 1988, pp. 165-166.

220) DUSSART C., Comportement du consommateur et stratégie marketing, McGraw Hill, 1983, p. 264.

221) BONNEROT C., ADETEM Actualités, décembre 1988, pp. 18-19.

222) Adapté d’ANDRÉANI J.-C., « L’interview qualitative marketing », Revue française du marketing, nos 168/169, 1998, 3-4,
pp. 7-37.

223) Voir, entre autres, FEYEREISEN P. et DE LANNOY J. D., Psychologie du geste, P. Mardaga éditeur, Bruxelles, 1985.

224) Voir ANZIEU D. et CHABERT C., op. cit., pp. 254-270.


225) BESSIS P., « La technique des graffitis », Revue française du marketing, 1979, 1, no 76, p. 112.

226) SCOTT L., « Images in advertising, the need for a theory of visual rhetoric », Journal of Consumer Research, vol. 21,
septembre 1994, pp. 252-273.

227) Pour une application publicitaire, voir MCQUARRIE et MICK D., « Figures of rhetoric in advertising language », Journal of
Consumer Research, vol. 22, mars 1996, pp. 424-438.

228) ZALTMAN G., Dans la tête du client, Éditions d’Organisation, Paris, 2004.

229) GIBBS R., « Categorization and metaphor understanding », Psychological Review, vol. 99, no 3, 1999.

230) SPIGGLE S., « Analysis and interpretation of qualitative data in consumer research », Journal of Consumer Research, vol. 21,
décembre 1994, pp. 491-503.

231) ZALTMAN G., Dans la tête du client, 2004, op. cit., chapitre 4.

232) DORTIER J. F., « À quoi ressemble l’idée de chien », Blog La 4e édition, http://www.dortier.fr/cognition-incarnee-a-quoi-
ressemble-lidee-de-chien/. Pour aller plus loin : VARELA J. F., THOMPSON E. et ROSCH E., L’inscription corporelle de l’esprit,
Seuil, 2006.

233) GOATLY A., The Language of Metaphors, 1997, London Routledge, cité par ZALTMAN G., Dans la tête du client, op. cit.

234) ZALTMAN G., Dans la tête du client, op. cit.

235) Voir ZAZZO R., Le bestiaire des enfants. Conduites et conscience, tome 1, Delachaux et Niestlé, 1962 ; CANIVET N., « Les
\/|
tests des couleurs de Lüscher », Bulletin psychologique, 1963, 17, pp. 322-326 ; références citées par ANZIEU D. et CHABERT C.,
op. cit., pp. 241 et 272.
$|
4$

236) SPEARS N., MOWEN J. et CHARKRABORTY G., « The symbolic communication model and the role of animals in
advertising », Proceedings of the 22nd International Research Seminar on Marketing, La Londe des Maures, IAE Aix-en-Provence
1995, pp. 512-532.
By

237) STERN B., « Deconstructive strategy and consumer research : concepts and illustrative exemplar », Journal of Consumer
Research, vol. 23, septembre 1996, pp. 136-147.

238) BALLOFFET P. et BOULAIRE C., « Representations of Internet : an investigation based on metaphors », Advances in
Consumer Research, vol. 26, 1999, pp. 536-541 ; BOULAIRE C., « Portrait chinois : le jeu de la métaphore en tant qu’expérience »,
Décisions Marketing, no 36, octobre-décembre 2004, pp. 39-47.

239) COLIN-LACHAUD I., HERBERT M. et PECHPEYROU P., « Substitution d’enseignes : quelle création de valeur pour le
distributeur et le client ? », Décisions Marketing, no 65, janvier-mars 2012, pp. 57-71.

240) ZALTMAN G., « Rethinking market research : putting people back in », Journal of Marketing Research, vol. 44, novembre
1997, pp. 424-437.

241) HOLBROOK M. et HIRSCHMAN E., « The experiential aspects of consumption : consumer fantasies, feelings and fun »,
Journal of Consumer Research, vol. 9, 1982, pp. 132-140.

242) HEISLEY D. et LEVY S., « Autodriving : a photo-elicitation technique », Journal of Consumer Research, vol. 18, décembre
1991, pp. 257-272.

243) HEISLEY D. et LEVY S., « Autodriving : a photo-elicitation technique », op. cit., décembre 1991, p. 263.

244) HOLBROOK M., « Stereographic visual display and the three-dimensional communication of findings in marketing research »,
Journal of Marketing Research, novembre 1997, pp. 526-536 ; HOLBROOK M. et KUWAHARA T., « Collective stereographic
photo essay : an integrated approach to probing consumption experiences in depth », International Journal of Research in Marketing,
15, 1998, pp. 201-221.
245) HOLBROOK M., STEPHENS D., DAY E., HOLBROOK S. et STRAZAR G., « A collective stereographic photo essay on
key aspects of animal companionship », Academy of Marketing Science Review, janvier 2001.

246) VERNETTE É., « Une nouvelle méthode pour interpréter le sens d’une expérience de consommation : l’Album On Line
(AOL) », Actes de la 12e Journée de recherche en marketing de Bourgogne, 2007, CERMAB-LEG (Actes CD-ROM) ;
VERNETTE É., « Comprendre et interpréter une expérience de consommation avec “l’Album On-Line” (AOL) : une application au
surf des mers », 7th International Marketing Trends Conference, 2008, Venise, EAP-ESCP (Actes CD-ROM).

247) Zaltman G., Dans la tête du client, op. cit., 2004.

248) VERNETTE É., « Une nouvelle méthode pour interpréter le sens d’une expérience de consommation : l’Album On Line
(AOL) », Actes de la 12e Journée de recherche en marketing de Bourgogne, 2007, op. cit. ; VERNETTE É., « Comprendre et
interpréter une expérience de consommation avec “l’Album On Line” : une application au surf des mers », 7th International Marketing
Trends Conference, 2008, op. cit.

249) Sur le plan international, le terme anglo-saxon « semiotic » l’emporte et désigne indifféremment les deux domaines. Pour un
approfondissement, voir HÉNAULT A., Histoire de la sémiotique, PUF, 1992 ; HETZEL P. et MARION G., « Les contributions
françaises de la sémiotique au marketing et à la publicité », Gestion 2000, vol. 13, juin 1993, pp. 117-154.

250) Voir notamment PASQUIER M., Marketing et sémiotique, université de Fribourg, 1999.

251) Il existe d’autres niveaux de valeur pour un signe : implicite (i.e. supposé) ou « insue » (i.e. latent). Ceci permet de distinguer
les signes émis de manière intentionnelle de ceux non intentionnellement émis.

252) Sur la perception et le sens des couleurs en marketing, voir DIVARD R. et URIEN B., « Le consommateur vit dans un monde
en couleurs », Recherche et Applications en marketing, vol. 16, 1, 2001, pp. 3-24.
\/|
253) COURTÈS J., Analyse sémiotique du discours. De l’énoncé à l’énonciation, Hachette, 1991, cité par GAVARD-PERRET M.-
$|
L. et MOSCAROLA J., « Énoncé ou énonciation ? Deux objets différents de l’analyse lexicale en marketing », Recherche et
4$

Applications en marketing, vol. 13, 2, 1998, pp. 31-47.

254) PÉNINOU G., Intelligence de la publicité, chapitre 8, éditions R. Laffont, 1972.


By

255) HETZEL P. et MARION G., « Les contributions françaises de la sémiotique au marketing et à la publicité », Gestion 2000,
vol. 13, juin 1993, pp. 117-154.

256) FLOCH J.-M., Sémiotique, marketing et communication : sous les signes, les stratégies, PUF, 1990, pp. 27-30.

257) HÉNAULT A., Histoire de la sémiotique, 1992, op. cit., p. 42.

258) FLOCH J.-M., « La maison d’Épicure, les désirs naturels et non nécessaires d’Habitat », in Identités visuelles, PUF, 1995,
pp. 146-179.

259) SEMPRINI A., Le marketing de la marque, approche sémiotique, Éditions Liaisons, 1992.

260) DANO F., « Contribution de la sémiotique à la conception des conditionnements : application à deux catégories de produits »,
Recherche et Applications en marketing, vol. 13, 3, 1998, pp. 9-29.

261) PROPP V., Morphologie du conte, trad., Seuil, 1970.

262) FLOCH J.-M., Sémiotique, marketing et communication : sous les signes, les stratégies, op. cit., 1990, pp. 58-64.

263) ROEDERER C., « N’oublie pas mon petit soulier. La consommation enfantine et la lettre au Père Noël », Décisions
Marketing, no 50, avril-juin 2008, pp. 29-37.

264) BITOUN C. et MAIER C., « La sémiologie au service de la prévision industrielle », Revue française du marketing, no 175,
1999/5, pp. 25-35.

265) SEMPRINI A., Le marketing de la marque, op. cit., 1992 ; FLOCH J.-M., Identités visuelles, op. cit., 1995, pp. 145-179.
266) FRAENKEL B. et LEGRIS-DESPORTES C., Entreprise et sémiologie, Dunod, chap. 4, 1999, pp. 59-75.

267) MARÉCHAL F., « Pertinence de la sémiotique appliquée au design », Revue française du marketing, no 175, 1999/5, pp. 57-
66 ; DANO F., « Contribution de la sémiotique à la conception des conditionnements », op. cit., Recherche et Applications en
marketing, 1998, pp. 9-29 ; FLOCH J.-M., « La contribution d’une sémiotique structurale à la conception d’un hypermarché »,
Recherche et Applications en marketing, vol. 4, 2, 1989, pp. 37-59.

268) PÉNINOU G., Intelligence de la publicité, op. cit., 1972.

269) FLOCH J.-M., Identités visuelles, op. cit., 1995.

270) Cette fiche s’appuie sur VERON E., « L’analyse du contrat de lecture : une nouvelle méthode pour les études positionnement
des supports presse », Les cahiers de l’IREP, Les médias, 1985, pp. 203-209 et HETZEL P., « La contribution de la sémiotique aux
processus de prise de décision marketing : esquisse d’un renouveau paradigmatique », L’image réfléchie : sémiotique et marketing,
L’Harmattan, 1998, pp. 73-89.

271) PINSON C., préface de FLOCH J.-M., Sémiotique, marketing et communication, op. cit., 1990.

272) CHANDON J.-L. et DANO F., « Analyse typologique confirmatoire : évaluation d’une partition hypothétique issue d’une
étude sémiotique », Recherche et Applications en marketing, vol. 12, 2, 1997, pp. 1-22.

273) GREEN P. E., TULL D. S. et ALBAUM G., Research for Marketing Decisions, 5e éd., Prentice-Hall International, Londres,
1988, p. 318.

274) DEROO M. et DUSSAIX A.-M., Pratique et analyse des enquêtes par sondage, PUF, Paris, 1980, p. 20.

275) Fournisseur d’accès à Internet.


\/|
$|
276) Ces tables se trouvent facilement sur Internet. Voir par exemple http://www.apprendre-en-ligne.net/random/tables.pdf pour un
complément sur ce sujet.
4$

277) DEROO M. et DUSSAIX A.-M., op. cit., p. 94.


By

278) Lorsque le critère de découpage est géographique (région, département, arrondissement, quartier), on parle d’échantillonnage
aréolaire (area sampling).

279) CHURCHILL G. A. Jr. et IACOBUCCI D., Marketing Research. Methodological Foundations, 10e éd., South Western,
Mason : OH, 2010, chap. 11.

280) Profession et catégorie socioprofessionnelle.

281) Voir, si besoin, un manuel de comportement du consommateur. Par exemple, DARPY D., Comportements du consommateur,
e
3 éd., Dunod, 2012 ou SOLOMON M. R., TISSIER-DESBORDES E. et HEILBRUNN B., Comportement du consommateur,
6e éd., Pearson Education, 2010.

282) Voir FENNETEAU H., Enquête : entretien et questionnaire, coll. « Les Topos », Dunod, 2007, pp. 82-87.

283) Voir PINSON C., « Pour une étude critique du différentiel sémantique », Revue française du marketing, no 95, 1983/4, pp. 3-
25.

284) Point C ci-après et PRAS B., « Échelles d’intervalle à supports sémantiques », Revue française du marketing, no 61, mars-
avril 1976, pp. 87-95.

285) BREE J., « Quelques problèmes de choix d’échelles pour mesurer les attitudes chez les enfants », Recherche et Applications
en marketing, 1991, vol. 6, no 4, pp. 27-58.
286) VERNETTE É., « Les qualités de l’échelle de mesure à icônes pour une étude marketing internationale », dans Actes du
20e séminaire international de recherche en marketing, IAE d’Aix-en-Provence, 1er-4 juin 1993, pp. 445-468.

287) VERNETTE É., « Efficacité d’un instrument d’étude : évaluation des échelles de mesure », Recherche et Applications en
marketing, 1991, vol. 6, no 2, pp. 43-65.

288) GREEN P. E., TULL D. S. et ALBAUM G., op. cit., 1988, p. 243.

289) Pour les échelles de températures, il s’agit du point d’équilibre d’un mélange eau-glace à pression atmosphérique normale. Ce
point est l’origine des échelles : 0 oC, 32 oF et 273,16 oK.

290) Dans l’ensemble, la psychométrie considère ces échelles comme de « quasi-intervalle ». NUNNALY J., Psychometric Theory,
e
2 éd., McGraw Hill, New York, 1978.

291) MUCHIELLI R., Le questionnaire dans l’enquête psycho-sociale, 1re partie : Connaissance du problème, 9e éd., ESF éditeur-
Entreprise Moderne d’Édition, Librairies Techniques, Paris, 1989, pp. 36-44.

292) Voir par exemple AMINE A. et FORGUES B., « Vers une mesure de la désirabilité sociale dans les réponses aux
questionnaires », Actes du 9 e congrès de l’AFM, Marseille, 1993, pp. 109-128.

293) Source : LSA no 1242, 31 janvier 1991, p. 31. Poudres et liquides confondus. En 2007, elle était de l’ordre de 50 %.
L’utilisation de phosphates dans les lessives est interdite aujourd’hui. Source : http://www.onema.fr/IMG/pdf/2008_024.pdf

294) Il est nécessaire de posséder un compte Google, gratuit. Le mode d’emploi peut être trouvé sur
https://support.google.com/docs/answer/87809?hl=fr ou https://www.youtube.com/watch?v=q4heuaAwifM
\/|
$|
295) https://docs.google.com/forms
4$

296) Source : Bô D., Pour des études marketing vivantes, 2012, http://testconso.typepad.com/marketingetudes/.

297) GANASSALI S. et MESTRALLET A. S., Les méthodes mixtes de recherche en comportement du consommateur : le mur
By

d’images du projet européen EuroConso, note de recherche IREGE, université de Savoie, mars 2012. Cette méthode s’inspire
largement des principes de la méthode AOL que nous avons présentés dans le chapitre 7.

298) Pour approfondir, voir la méthode AOL, chapitre 7, p. 261-264.

299) D’après GANASSALI S., « Les caractéristiques rédactionnelles d’un questionnaire efficace : fondements et pratiques »,
Actes du 4e congrès international marketing trends, Paris, 2005. Accessible à : http://www.escp-
eap.net/conferences/marketing/2005_cp/Materiali/Paper/Fr/GANASSALI.pdf.

300) GANASSALI S. et MOSCAROLA J., « Protocoles d’enquêtes et efficacité des sondages par Internet », Décisions
Marketing, 33 (janvier-mars), 2004, pp. 63-75.

301) Source : Bô D., Pour des études marketing vivantes, 2012, http://testconso.typepad.com/marketingetudes/.

302) Source : http://www.marketing-etudes-guide.fr/wp-content/uploads/2012/contenu.pdf. Voir également http://www.syntec-


etudes.com/fichiers/20140911120125_Marche_francais_des_Etudes_2013.pdf

303) http://www.technisens.com/etudes-tests-consommateurs.php

304) WISEMAN F. et MCDONALD P., Toward the Development of Industry Standards for Response and Non Response Rates,
Cambridge, Mass : Marketing Science Institute, 1980, et « On the definition of response rates », CASRO Special Report, Port
Jefferson, NY : The Council of American Survey Research Organizations, 1982.

305) On peut trouver la description d’un système CATI sur http://www.soft-concept.com/files/pdf/plaqethnoscati.pdf.

306) 80,1 % en France en 2010 selon l’Insee et l’International Telecommunication Union.


307) GALAN J.-P. et VERNETTE E., « Vers une 4e génération : les études de marché on line », Décisions Marketing, no 19,
janvier-avril 2000, pp. 39-52.

308) LOKEN B., PIRIE P., VIRNING K. A., HINKLE R. L. et SALMON C. T., « The use of 0-10 scales in telephone surveys »,
Journal of the Market Research Society, 3,1987, pp. 353-362.

309) LOOSVELDT G. et SONCK N., « An evaluation of the weighting procedures for an online access panel survey », Survey
Research Methods, 2, 2008, pp. 93-105.

310) BURN M. et THOMAS J., « Plus vite et moins cher : avons-nous encore besoin de bonnes études de marché ? », Revue
Française du Marketing, 217 (mai), 2008, pp. 9-26.

311) VERNETTE É., « Les composantes du coût d’une étude de marché », Revue française du marketing, no 116, 1988/1, pp. 75-
91.

312) Le nombre de décimales est indicatif. Il dépend du logiciel utilisé et de son paramétrage. Ici, les réponses données sont bien
des nombres entiers.

313) Il faut bien distinguer la notion d’effectif de celle de fréquence, toujours relative. Les Anglo-Saxons utilisent les termes de
frequency pour effectif et relative frequency pour fréquence. Nous emploierons indistinctement fréquence et fréquence relative pour
désigner cette dernière notion.

314) BERENSON M. L. et LEVINE D. M., Basic Business Statistics, Prentice-Hall International, Londres, 1992, 5e éd., p. 100.

315) WONNACOTT T. H. et WONNACOTT R. J., Statistique, Economica, Paris, 1991, 4e éd., p. 32.
\/|
316) D’autres statistiques descriptives sont présentées en ligne, dans le paragraphe I du guide statistique téléchargeable
$|
gratuitement sur Vuibert.fr.
4$

317) La fiche technique 11.3. détaille le raisonnement qui permet d’aboutir à cette formule.

318) La lecture préalable du paragraphe III du guide statistique (téléchargeable gratuitement sur la page de l’ouvrage du site
By

Vuibert.fr) est recommandée. Il récapitule les principes généraux communs à tous les tests statistiques.

319) Ou d’un ensemble de valeurs observées (i.e. distribution empirique) à un ensemble de valeurs attendues (distribution
théorique).

320) Données de population issues du recensement INSEE 2008 : http://www.recensement.insee.fr/tableauxDetailles.action?


zoneSearchField=FRANCE&codeZone=1-FE&idTheme=12&idTableauDetaille=54&niveauDetail=2

321) Ces tests sont traités en détail dans SIEGEL S. et CASTELLAN N. J. Jr., Nonparametric Statistics for the Behavioral
Sciences, 2e éd., McGraw-Hill International, New York, 1988.

322) Voir la table 6 téléchargeable sur la page de l’ouvrage du site Vuibert.fr.

323) L’inverse n’est pas vrai : d’où l’intérêt de privilégier dans un questionnaire des mesures métriques, plus « riches » pour
analyser des données, donc susceptibles de déboucher sur des conclusions plus solides.

324) L’analyse de régression permet même d’analyser des liens de cause à effet entre variables. Néanmoins, comme nous le
verrons en détail dans le chapitre 15, c’est avant tout la méthode de collecte des informations, plus que la méthode de traitement, qui
permet in fine de conclure à l’existence probable d’une relation de causalité.

325) Un exemple d’application avec ex aequo est donné dans SIEGEL S. et CASTELLAN N. J. Jr., Nonparametric Statistics for
the Behavioral Sciences, 2e éd., McGraw-Hill, New York, 1988, pp. 235-254.

326) Source : http://www.tqmp.org/Content/vol05-2/p051/p051.pdf


327) Voir LAMBIN J.-J., La recherche marketing, McGraw-Hill, Paris, 1990, pp. 378-379, pour une présentation plus détaillée de
ces critères.

328) JOHNSTON J., Méthodes économétriques, tome 1, Economica, Paris, 1985, pp. 14-27 développe la démonstration. Elle peut
également être trouvée à http://www.sites.univ-rennes2.fr/laboratoire-statistique/AGUYADER/doc/regression/poly.pdf

329) L’analyse conjointe et l’analyse de variance seront abordées dans le chapitre 15.

330) DELATTRE M., « Les méthodes d’analyse factorielle », dans LAMBIN J.-J., La recherche marketing, chap. 12, McGraw-
Hill, Paris, 1990, pp. 298-305.

331) Voir GREEN P. E., CARMONE F. J. Jr. et SMITH S. M., Multidimensional Scaling. Concepts and Applications, Allyn &
Bacon, Boston, 1989, pp. 247-269.

332) On trouvera une illustration de l’ACM dans CHANDON J.-L., « Analyse des données », Encyclopédie du management,
tome 1, Vuibert, Paris, 1992, pp. 558-581.

333) La classification CHAID est présentée dans VERNETTE É., FILSER M. et GIANNELLONI J.-L., Études marketing
appliquées, 2008, chap. 4, Paris, Dunod ; l’analyse discriminante sera présentée plus loin dans ce chapitre.

334) L’inertie intraclasse est une notion proche de la variance quand les variables sont métriques. Elle se réfère, au sein d’un
groupe, aux carrés des distances entre les individus et le centre de gravité de ce groupe. La notion de centre de gravité (ou centroïde)
est identique à celle de moyenne : ce sont les coordonnées d’un point telles que la somme des distances entre tous les points (individus)
et lui-même sont nulles.

335) Source : http://www.ceremade.dauphine.fr/Simtouati/EDOGEST-seminaires/Classification.pdf

336) BOURROCHE J.-M. et SAPORTA G., op. cit., 1989, pp. 53-54.
\/|
$|
337) Bien que DILLON W. R. et GOLDSTEIN M., Multivariate Analysis. Concepts and Applications, John Wiley & Sons, New
4$

York, 1984, p. 202, mettent en garde contre l’utilisation de ces tests. Leur argument essentiel est la variabilité des moyennes en
fonction de l’algorithme de classification retenu.
By

338) Sur ces tests, voir GREEN P. E., TULL D. S. et ALBAUM G., Research for Marketing Decisions, 5e éd., Prentice-Hall
International, Londres, 1988, pp. 585-586. Sur le problème général de la validation d’une typologie, on pourra consulter également
CAUMONT D. et CHANDON J.-L., « Quelques problèmes liés à la validité d’une classification », Recherche et Applications en
marketing, 1989, vol. 4, no 3, pp. 77-93.

339) Le libellé complet est « analyse multidimensionnelle des similarités et des préférences », en raccourci « MDS », d’après
l’expression anglo-saxonne « MultiDimensional Scaling of Similarities and Preferences ».

340) HAIR J. F., ANDERSON R. E., TATHAM R. L. et BLACK W. C., Multivariate Data Anaysis. With Readings, 3e éd., New
York, Maxwell Macmillan International Edition, 1992, p. 325.

341) Il s’agit d’une combinaison puisque l’ordre n’a pas d’importance.

342) Plusieurs méthodes sont utilisables pour cette identification ; sur ce point, voir VERNETTE É., « Identifier les attributs
déterminants : une comparaison de six méthodes », Recherche et Applications en marketing, vol. 2, no 4, 1987, pp. 1-21.

343) Un exemple développé de cette approche est donné dans VERNETTE É., FILSER M. et GIANNELLONI J.-L., Études
marketing appliquées, Paris, Dunod, 2008, chap. 5.

344) Pour plus de détails sur le fonctionnement de la MDS et le calcul du stress, voir DILLON W. R. et GOLDSTEIN M., op. cit.,
1984, pp. 125-145.

345) Voir par exemple GROENEN P. J. F et VAN DE VELDEN M., Multidimensional Scaling, Econometric Institute Report
EI 2004-15, 2004 (téléchargeable à http://repub.eur.nl/res/pub/1274/ei200415.pdf).
346) MALHOTRA N. K., DÉCAUDIN J. M., BOUGUERRA A. et BORIÈS D., Études marketing avec SPSS, 4e édition, Paris,
Pearson Education France, 2004, p. 579.

347) La variable dépendante peut être nominale : on parle alors de régression logistique. De même, les variables indépendantes
peuvent être dichotomiques (variables muettes). Pour la régression logistique, voir ALDRICH J. H. et NELSON F. D., Linear
Probability, Logit, and Probit Models, Series : Quantitative Applications in the Social Sciences, Sage Publications, 1984 ; pour les
variables muettes, consulter, entre autres, WONNACOTT T. H. et WONNACOTT R. J., Statistique, 4e éd., Economica, Paris, 1991,
pp. 494-499.

348) CADORET I. et al., Économétrie appliquée. Méthodes, applications, corrigés, Bruxelles, De Boeck, 2004 ; voir aussi
http://perso.univ-rennes1.fr/isabelle.cadoret-david/econometrie/lexique/teststatistique.htm

349) BRESSOUX P., Modélisation statistique appliquée aux sciences sociales, Bruxelles, De Boeck, 2008.

350) Par exemple à http://www.parisschoolofeconomics.com/bozio-antoine/fr/documents/dw.pdf

351) Source : http://eric.univ-lyon2.fr/Simricco/cours/slides/Reg_Multiple_Colinearite_Selection_Variables.pdf

352) « Régresser Xi sur toutes les autres » signifie que Xi est la variable dépendante et que toutes les autres sont les variables
explicatives.

353) Source : http://eric.univ-lyon2.fr/Simricco/cours/slides/Reg_Multiple_Colinearite_Selection_Variables.pdf

354) Rappel : la corrélation partielle entre deux variables est une corrélation résiduelle obtenue en éliminant l’effet de linéarité de
toutes les autres variables.
\/|
355) Sur ce point, voir WONNACOTT T. H. et WONNACOTT R. J., op. cit., 1991, p. 562.
$|
356) Voir JOLIBERT A. et JOURDAN P., Marketing Research. Méthodes de recherche et d’études en marketing, Paris, Dunod,
4$

2006, p. 384.

357) Sur ce point, voir GREEN P. E., TULL D. S. et ALBAUM G., op. cit., 1988, pp. 508-526.
By

358) CHURCHILL G. A. Jr., op. cit., 1991, p. 888.

359) HAIR J. F. Jr., ANDERSON R. E., TATHAM R. L. et BLACK W. C., Multivariate Data Analysis, with Readings, 3e éd.,
Maxwell MacMillan International Editions, New York, 1992, pp. 105-106.

360) HAIR J. F. Jr., ANDERSON R. E., TATHAM R. L. et BLACK W. C., ibid., présentent un exemple bien développé d’analyse
discriminante à trois groupes.

361) Dans le Petit Robert, éd. 1973, p. 239.

362) CHURCHILL G. A. Jr., Marketing Research. Methodological Foundations, 5e éd., 1991, The Dryden Press, pp. 168-175.

363) KERLINGER F. N., Foundations of Behavioral Research, 3e éd., 1986, Holt, Rinehart et Winston, p. 293.

364) Sous réserve qu’un test de différence de proportions montre que l’écart est significatif.

365) LADWEIN R. (1996), Les études marketing, coll. « Gestion poche », Economica, p. 96.

366) En tout état de cause, ce plan n’est pas envisageable en l’état. Pourquoi ? Réponse en fin de chapitre...

367) Quelques exemples sont illustrés plus loin dans la présentation de l’analyse conjointe. Voir également LAMBIN J.-J. (1990),
op. cit., p. 329.

368) Revoir à ce sujet la fiche technique 3.2 au chapitre 3.


369) WINER B.J. et MICHELS K.M. (1991), Statistical Principles in Experimental Design, McGraw-Hill, 3e éd., 928 pages ;
GIRDEN E., ANOVA. Repeated measures, Quantitative applications in the social sciences, Sage, Newbury Park, 1992.

370) JOURDAN P. et JOLIBERT A., Marketing Research. Méthodes de recherche et d’études en marketing, Paris, Dunod, 2006,
p. 241.

371) BERENSON M. L., LEVINE D. M. et GOLDSTEIN M., Intermediate Statistical Methods and Applications. A Computer
Package Approach, Prentice-Hall, 1983, donnent p. 70 les principales transformations sur les données.

372) BERENSON M. L., LEVINE D. M. et GOLDSTEIN M., Intermediate Statistical Methods and Applications. A Computer
Package Approach, Prentice-Hall, 1983, pp. 60-65.

373) Dans chaque groupe, le degré de liberté est ni – 1. Si k est le nombre de groupes, le nombre total de degrés de liberté est

374) BERENSON M. L., LEVINE D. M. et GOLDSTEIN M., Intermediate Statistical Methods and Applications. A Computer
Package Approach, Prentice-Hall, 1983, chap. 4.

375) JOURDAN P. et JOLIBERT A., Marketing Research. Méthodes de recherche et d’études en marketing, Paris, Dunod, 2006,
p. 251.

376) BERENSON M. L., LEVINE D. M. et GOLDSTEIN M., op. cit., p. 551. La valeur reportée n’est pas lue directement mais
obtenue par interpolation linéaire.

377) Une présentation détaillée en est faite par BERENSON M. L., LEVINE D. M. et GOLDSTEIN M., op. cit., pp. 137-155).
\/|
$|
378) Dans tout ce qui suit, « produit » est entendu au sens large d'offre et inclut, par conséquent, les notions de service ou d'idée.
4$

379) Le terme trade off (arbitrage) est quelquefois utilisé à la place d’analyse conjointe. En pratique, le trade off n’est que l’une des
approches possibles de l’analyse conjointe.
By

380) Bien que la pratique du yield management rende aujourd’hui ce type d’offre possible.

381) Voir VERNETTE É., FILSER M. et GIANNELLONI J.-L., Études marketing appliquées, Paris, Dunod, 2008, chap. 3 pour un
complément.

382) WITTINK D. R. et al., « The effect of Differences in the Number of Attribute Levels on Conjoint Results », Marketing
Letters, 1990, p. 113-129.

383) HAIR J. F. Jr. et al., Multivariate Data Analysis, with Readings, 3e éd., 1992, Maxwell Macmillan International Editions,
p. 390.

384) On entre là dans des aspects plus sophistiqués de l’analyse conjointe, auxquels s’ajoute, par exemple, la spécification d’effets
d’interaction entre attributs ou entre niveaux d’attributs. Voir GREEN P. E. et SRINIVASAN V. (1978), « Conjoint Analysis in
Consumer Research : Issues and Outlook », Journal of Consumer Research, 5, 3, pp. 103-123.

385) GREEN P. E., TULL D. S. et ALBAUM G., Research for Marketing Decisions, 1988, 3e éd., Prentice-Hall, p. 623.

386) Source : documents internes GfK et http://www.gfk.com/significant/documenten/002394/index.en.html.

387) Les raisonnements sous-jacents à ces hypothèses sortent du cadre du chapitre et de l’ouvrage. Le cadre général d’analyse est
celui du comportement du consommateur et en particulier de l’influence de certaines variables individuelles sur des comportements
qualifiés d’exploratoires. La recherche d’information préalable à une décision d’achat en fait partie. Des explications plus précises
peuvent être trouvées dans GIANNELLONI J.-L., « Validation d’une échelle de mesure du niveau optimal de stimulation », Actes du
13e congrès de l’Association française de marketing, Toulouse, 1997, pp. 1011-1039.

388) La covariance entre X et Y est égale à la covariance entre Y et X.


389) Source : AINSWORTH A., « Ghost chasing » : demystifying latent variables and SEM, diaporama accessible à
www.csun.edu/~ata20315/ (26-03-12)

390) Un exposé complet sur modération et médiation relèverait d’une optique recherche et sortirait du cadre de l’ouvrage. Voir
CHUMPITAZ-CACERES R. et VANHAMME J., « Les processus modérateurs et médiateurs : distinctions conceptuelles, aspects
analytiques et illustrations », Recherche et applications en marketing, 18, 2, 2003, pp. 67-100, pour une synthèse sur le cadre général
d’application de ces deux concepts et EL AKREMI A., « Analyse des variables médiatrices et modératrices par les méthodes
d’équations structurelles », in ROUSSEL P. et WACHEUX F., Management des ressources humaines, De Boeck, coll. « Méthodes de
recherche en sciences humaines et sociales », Bruxelles, 2005, pp. 326-348.

391) Rappel : la non-corrélation des résidus est une contrainte de l’analyse de régression et de l’analyse en facteurs communs et
spécifiques (voir chapitres 13 et 14).

392) Cette approche a également récemment suscité une abondante littérature : HAENLEIN M., « A beginner’s guide to PLS
analysis », Understanding statistics, 3, 4, 2004, pp. 283-297 ; HAIR J. F., RINGLE C. M. et SARSTEDT M., « PLS-SEM, indeed a
silver bullet », Journal of Marketing Theory and Practice, 19, 2, 2011, pp. 139-151 ; HAIR J. F., SARSTEDT M., RINGLE C. M. et
MENA J. A., « An assessment of the use of partial least squares structural equation modeling in marketing research », Journal of the
Academy of Marketing Science, Published online 07 june 2011, DOI 10.1007/s11747-011-0261-6.

393) Voir par exemple CRIÉ D., « De l’usage des modèles de mesure réflectifs ou formatifs dans les modèles d’équations
structurelles », Recherche et applications en marketing, 20, 2, 2005, pp. 5-27.

394) D’après HAIR J. F., RINGLE C. M. et SARSTEDT M., « PLS-SEM, indeed a silver bullet », Journal of Marketing Theory
and Practice, 19, 2, 2011, p. 144.

395) https://kdp.amazon.com/self-publishing/signin/189-1407689-8967513
\/|
396) NICHOLSON P., « Réconcilier les hommes d’études et les éditeurs », Revue française de gestion, no 61, janvier-février 1987,
$|
pp. 22-32.
4$

397) Interview de BARONNET J.-J. (B. Krieff Consulting Group), « À chacun son conseil », in Marketing Mix, no 54, juillet-août
1991, p. 32.
By

398) Interview de WILTHIEN P.H. (IREQ), « Les instituts de recherche vont-ils s’orienter vers le conseil ? », in Médias, no 316,
janvier 1991, p. 23.

399) Pour une présentation détaillée des diverses formes de graphiques et de schémas, se reporter à l’ouvrage de ZELANY G.,
Dites-le avec des graphiques, InterÉdition, 1989.

400) Le calcul des angles est donné par la formule suivante : angle i = 360o × (effectif de la modalité/effectif total). Par exemple,
pour la tranche 20-30 ans du parfum A : i = 360 × (62/189,5) = 117,8o.

401) DESPHANDE R. et ZALTMAN G., « Factors affecting the use of market information : a path analysis », Journal of
Marketing Research, février 1982, pp. 14-31.

402) BOJIN J. et DUNAND M., Dites-le avec des messages, Dunod, 1993.

403) Pour plus d’information, voir par exemple : http://www.commentcamarche.net/faq/1471-infographie-logiciels-de-graphisme.

404) http://www.slideshare.net.

405) Pour aller plus loin, voir par exemple : REYNOLDS G., Présentation Zen : pour des présentations plus simples, claires et
percutantes, Campus Press, 2008 ; GRANGE B, Réussir une présentation, Préparer des slides percutants et bien communiquer,
Eyrolles, 2009 ; DEBLIQUY P. Y., L’art de la présentation Powerpoint, Edipro, 2011.

406) http://www.dropbox.com/.

407) ISAACSON W., Steve Jobs, Simon & Schuster, 2011.


408) Pour aller plus loin : REYNOLDS G., Présentation Zen : pour des présentations plus simples, claires et percutantes, Campus
Press, 2008 ; FRACHON C. et BARREAU M., Savoir communiquer pour réussir ses réunions, Eyrolles, 1991 ; CARNEGIE D.,
Comment parler en public, Hachette, 1991 ; FURET Y. et PELTANT S., Savoir parler en toutes circonstances, Retz, 1992.

409) MOSCAROLA J., Enquête et analyse des données, Vuibert gestion, 1990, pp. 202-203.

410) LEMAIRE P., « Comment améliorer les relations entre les cabinets d’études et leurs clients ? », Revue française du
marketing, 1979/4, pp. 41-49.

411) LARRECHE J.-C. et MONTGOMERY D. B., « A framework for the comparison of marketing models : a Delphi study »,
Journal of Marketing Research, novembre 1977, pp. 487-498.

412) Interview de BRULE M. et LOMBARD E., « La relation client-société d’étude », Revue française du marketing, no 142-143,
1993/2-3, pp. 99-108.

413) VERNETTE É., « L’efficacité des instruments d’études », Recherche et Applications en marketing, vol. 6, 1991, no 2, p. 46.

414) Rapport du Syntec-études, « Le marché des études en 1990 », Marketing-Mix, no 59, février 1992, p. 7.

415) BOSS J.-F. et LINDON D., « L’efficacité des études de marché », Revue française du marketing, op. cit., 1991/4, p. 41.

416) DESPHANDE R. et ZALTMAN G., « A comparison of factors affecting researcher and manager perceptions of market
research use », Journal of Marketing Research, février 1984, pp. 32-38.

417) DESPHANDE R. et ZALTMAN G., « Factors affecting the use of market information : a path analysis », Journal of
Marketing Research, février 1982, pp. 14-31. \/|
418) DESPHANDE R. et ZALTMAN G., « A comparison of factors affecting researcher and manager perceptions of market
$|
research use », op. cit., février 1984, pp. 32-38.
4$

419) MOORMAN C., DESPHANDE R. et ZALTMAN G., « Factors affecting trust in market research relationships », Journal of
Marketing, janvier 1993, pp. 81-101.
By

420) MOORMAN C., DESPHANDE R. et ZALTMAN G., « Relationships between providers and users of market research : the
dynamics of trust within and between organisations », Journal of Marketing Research, août 1992, pp. 314-328.
Cette œuvre est protégée par le droit d'auteur et strictement réservée à l'usage privé du client. Toute reproduction ou diffusion au
profit de tiers, à titre gratuit ou onéreux, de tout ou partie de cette œuvre, est strictement interdite et constitue une contrefaçon prévue
par les articles L.335-2 et suivants du Code de la Propriété Intellectuelle. L'éditeur se réserve le droit de poursuivre toute atteinte à ses
droits de propriété intellectuelle devant les juridictions civiles ou pénales…

© Magnart-Vuibert – 2015

5, allée de la 2e DB – 75015 Paris

Site Internet : www.vuibert.fr

\/|
$|
4$
By

Vous aimerez peut-être aussi